ΕΠΙΣΤΗΜΗ ΚΑΙ ΥΓΕΙΑ
|
Τεχνητή νοημοσύνη: «Τα χάνει» μπροστά στα ηθικά ιατρικά διλήμματα
23/7/2025, 06:36
|
Ακόμη και τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης μπορούν να κάνουν σημαντικά λάθη όταν αντιμετωπίζουν πολύπλοκα σενάρια ιατρικής δεοντολογίας. Στη διαπίστωση αυτή κατέληξαν ερευνητές της Ιατρικής Σχολής Icahn στο Mount Sinai, σε συνεργασία με συναδέλφους από το Ιατρικό Κέντρο Rabin στο Ισραήλ και άλλους συνεργάτες σε μελέτη τους που δημοσιεύθηκε στο ηλεκτρονικό τεύχος του περιοδικού NPJ Digital Medicine, με τίτλο «Παγίδες των Μεγάλων Γλωσσικών Μοντέλων στη Συλλογιστική Ιατρικής Ηθικής». Τα ευρήματα, εγείρουν σημαντικά ερωτηματικά αναφορικά με το πώς και πότε πρέπει να βασιζόμαστε σε μεγάλα γλωσσικά μοντέλα (LLM), όπως το ChatGPT, σε περιβάλλον υγειονομικών μονάδων.googletag.cmd.push(function() { googletag.display("300x250_m1"); }); Αυτά τα εργαλεία μπορούν να είναι απίστευτα χρήσιμα, αλλά δεν είναι αλάνθαστα H τεχνητή νοημοσύνη χρειάζεται ανθρώπινη εποπτεία κατά τη χρήση της στην ιατρική Η ερευνητική ομάδα εμπνεύστηκε από το βιβλίο του Daniel Kahneman «Thinking, Fast and Slow», το οποίο αντιπαραβάλλει τις γρήγορες, διαισθητικές αντιδράσεις με την πιο αργή, αναλυτική συλλογιστ
Διαβάστε περισσότερα |
|
|
|