Ένα αμερικανικό ιατρικό περιοδικό προειδοποίησε για τη χρήση του ChatGPT για πληροφορίες υγείας, μετά από ένα περιστατικό όπου ένας άνδρας ανέπτυξε μια σπάνια πάθηση, μετά από αλληλεπίδραση με το chatbot σχετικά με την απομάκρυνση του επιτραπέζιου αλατιού από τη διατροφή του.
Ένα άρθρο στο Annals of Internal Medicine ανέφερε την περίπτωση ενός 60χρονου άνδρα που εμφάνισε βρωμισμό, γνωστό και ως τοξικότητα από βρωμίδιο, μετά από συμβουλή που ζήτησε από το ChatGPT.
Το άρθρο περιέγραφε τον βρωμισμό ως ένα «καλά αναγνωρισμένο» σύνδρομο στις αρχές του 20ού αιώνα, το οποίο θεωρούνταν ότι συνέβαλε σχεδόν σε μία στις δέκα ψυχιατρικές εισαγωγές εκείνη την εποχή.
Ο ασθενής είπε στους γιατρούς ότι αφού διάβασε για τις αρνητικές επιπτώσεις του χλωριούχου νατρίου (επιτραπέζιο αλάτι), συμβουλεύτηκε το ChatGPT για την απομάκρυνση του χλωρίου από τη διατροφή του και άρχισε να λαμβάνει νάτριο βρωμίδιο για τρεις μήνες. Αυτό συνέβη παρά το γεγονός ότι είχε διαβάσει πως «το χλώριο μπορεί να αντικατασταθεί με βρωμίδιο, πιθανόν όμως για άλλους σκοπούς, όπως ο καθαρισμός». Το νάτριο βρωμίδιο είχε χρησιμοποιηθεί ως ηρεμιστικό στις αρχές του 20ού αιώνα.
Οι συγγραφείς του άρθρου, από το Πανεπιστήμιο της Ουάσιγκτον στο Σιάτλ, τόνισαν ότι η περίπτωση αυτή αναδεικνύει «πώς η χρήση της τεχνητής νοημοσύνης μπορεί δυνητικά να συμβάλει στην ανάπτυξη προληπτών αρνητικών επιπτώσεων στην υγεία».
Πρόσθεσαν ότι, επειδή δεν είχαν πρόσβαση στο ιστορικό συνομιλιών του ασθενούς με το ChatGPT, δεν ήταν δυνατό να προσδιοριστεί η ακριβής συμβουλή που έλαβε.
Ωστόσο, όταν οι ίδιοι οι συγγραφείς ζήτησαν από το ChatGPT τι μπορεί να αντικαταστήσει το χλώριο, η απάντηση συμπεριελάμβανε επίσης το βρωμίδιο, δεν παρείχε σαφή προειδοποίηση υγείας και δεν ρώτησε τον σκοπό της ερώτησης – «όπως πιθανόν θα έκανε ένας ιατρός», όπως έγραψαν.
Οι συγγραφείς προειδοποίησαν ότι το ChatGPT και άλλες εφαρμογές AI μπορούν να «παράγουν επιστημονικές ανακρίβειες, να μην έχουν την ικανότητα να συζητούν κριτικά τα αποτελέσματα και τελικά να ενισχύουν τη διάδοση της παραπληροφόρησης».
Η OpenAI, εταιρεία που ανέπτυξε το ChatGPT, έχει προσεγγιστεί για σχόλια.
Η εταιρεία ανακοίνωσε την αναβάθμιση του chatbot την προηγούμενη εβδομάδα, υποστηρίζοντας πως μία από τις μεγαλύτερες δυνάμεις του είναι η υγεία. Το ChatGPT – τώρα βασισμένο στο μοντέλο GPT-5 – θα απαντά καλύτερα σε ερωτήσεις υγείας και θα είναι πιο προληπτικό στο να «σημαίνει πιθανά ανησυχητικά σημεία», όπως σοβαρές σωματικές ή ψυχικές ασθένειες. Ωστόσο, τόνισε ότι δεν αποτελεί υποκατάστατο επαγγελματικής βοήθειας.
Το άρθρο του περιοδικού, που δημοσιεύτηκε πριν την κυκλοφορία του GPT-5, ανέφερε ότι ο ασθενής φαίνεται πως χρησιμοποίησε μια προηγούμενη έκδοση του ChatGPT.
Παράλληλα, αν και η AI μπορεί να γεφυρώσει το χάσμα μεταξύ επιστημόνων και κοινού, το άρθρο υπογραμμίζει ότι η τεχνολογία μπορεί να προωθήσει «αποσπασματικές πληροφορίες» και ότι είναι μάλλον απίθανο ένας επαγγελματίας υγείας να σύστηνε νάτριο βρωμίδιο ως υποκατάστατο του επιτραπέζιου αλατιού.
Ως εκ τούτου, οι συγγραφείς τονίζουν ότι οι γιατροί πρέπει να λαμβάνουν υπόψη τη χρήση της AI όταν εξετάζουν την προέλευση των πληροφοριών των ασθενών τους.
Ο ασθενής παρουσίασε στον γιατρό του ότι πίστευε πως ο γείτονάς του τον δηλητηριάζει και ανέφερε ότι είχε πολλές διατροφικές περιορισμούς. Παρόλο που ένιωθε δίψα, ήταν παρανοϊκός σχετικά με το νερό που του προσφερόταν.
Προσπάθησε να διαφύγει από το νοσοκομείο μέσα σε 24 ώρες από την εισαγωγή του και, μετά την εισαγωγή σε ψυχιατρική κλινική, υποβλήθηκε σε θεραπεία για ψύχωση. Μόλις η κατάσταση σταθεροποιήθηκε, ανέφερε συμπτώματα που υποδήλωναν βρωμισμό, όπως ακμή στο πρόσωπο, υπερβολική δίψα και αϋπνία.













