Σε μια σπάνια και ανησυχητική παραδοχή, η OpenAI αποκάλυψε ότι περισσότεροι από ένα εκατομμύριο χρήστες του ChatGPT στέλνουν εβδομαδιαία μηνύματα που περιέχουν σαφείς ενδείξεις αυτοκτονικών σκέψεων ή σχεδίων, όπως αναφέρει σε ρεπορτάζ του ο Guardian.
Σύμφωνα με την ανάρτηση που δημοσιεύθηκε τη Δευτέρα στο επίσημο ιστολόγιο της εταιρείας, τα ευρήματα αυτά προέκυψαν στο πλαίσιο της εσωτερικής αξιολόγησης για τη διαχείριση ευαίσθητων συνομιλιών και θεωρούνται η πιο άμεση δημόσια αναγνώριση του μεγέθους του προβλήματος από πλευράς OpenAI.
Παράλληλα, η εταιρεία ανέφερε ότι περίπου το 0,07% των ενεργών χρηστών του ChatGPT κάθε εβδομάδα – δηλαδή περίπου 560.000 άτομα από τα 800 εκατομμύρια παγκοσμίως – παρουσιάζουν «πιθανά σημάδια επειγόντων περιστατικών ψυχικής υγείας», τα οποία συνδέονται με ψυχωτικά ή μανιακά επεισόδια. Όπως τονίζεται, η καταγραφή τέτοιων συνομιλιών είναι ιδιαίτερα δύσκολη και τα στοιχεία αποτελούν αρχική εκτίμηση.
Η δημοσιοποίηση των στοιχείων αυτών έρχεται τη στιγμή που η OpenAI βρίσκεται υπό έντονη πίεση, μετά την αγωγή οικογένειας εφήβου που αυτοκτόνησε έπειτα από εκτεταμένη χρήση του ChatGPT.
Παράλληλα, η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ (FTC) έχει ξεκινήσει ευρεία έρευνα για τις εταιρείες που αναπτύσσουν chatbots, διερευνώντας τον τρόπο με τον οποίο αξιολογούν και περιορίζουν τις ψυχολογικές επιπτώσεις σε παιδιά και εφήβους.
Στην ανάρτησή της, η OpenAI υποστήριξε ότι η πρόσφατη έκδοση του μοντέλου GPT-5 έχει βελτιώσει σημαντικά τη συμμόρφωση σε πρωτόκολλα ασφάλειας και τη διαχείριση επικίνδυνων συνομιλιών, ιδίως εκείνων που σχετίζονται με αυτοτραυματισμό και αυτοκτονία.
«Οι νέες αυτοματοποιημένες αξιολογήσεις μας καταγράφουν συμμόρφωση του GPT-5 κατά 91% με τις επιθυμητές συμπεριφορές, έναντι 77% του προηγούμενου μοντέλου», ανέφερε η εταιρεία, χωρίς ωστόσο να απαντήσει σε αίτημα για περαιτέρω σχολιασμό.
Στο πλαίσιο ενίσχυσης της προστασίας των χρηστών, η OpenAI ανακοίνωσε ότι το GPT-5 προσφέρει ευκολότερη πρόσβαση σε γραμμές βοήθειας για κρίσεις, καθώς και υπενθυμίσεις για διαλείμματα κατά τη διάρκεια παρατεταμένων συνεδριών.
Η εταιρεία ανέφερε επίσης ότι έχει συνεργαστεί με 170 επαγγελματίες ψυχικής υγείας από όλο τον κόσμο για να αξιολογήσει και να βελτιώσει τις απαντήσεις του chatbot σε ευαίσθητα ζητήματα.
«Ψυχίατροι και ψυχολόγοι εξέτασαν πάνω από 1.800 απαντήσεις του GPT-5 σε σενάρια σοβαρών ψυχολογικών κρίσεων», αναφέρει η ανάρτηση.
Ο ορισμός της “επιθυμητής απάντησης” βασίστηκε στη συναίνεση των ειδικών σχετικά με το τι θεωρείται κατάλληλη και ασφαλής αντίδραση σε κάθε περίπτωση.
Παρά τις βελτιώσεις, ειδικοί στην ψυχική υγεία και ερευνητές τεχνητής νοημοσύνης προειδοποιούν ότι τα chatbots ενδέχεται να ενισχύουν παραληρηματικές ή αυτοκαταστροφικές ιδέες των χρηστών, μέσα από το φαινόμενο της λεγόμενης «συκοφαντίας» (sycophancy), όπου το μοντέλο «συμφωνεί» με όσα του λέει ο χρήστης.
Οι ειδικοί επισημαίνουν ότι, σε περιπτώσεις όπου ευάλωτα άτομα απευθύνονται σε chatbot για ψυχολογική υποστήριξη ή συναισθηματική αποφόρτιση, υπάρχει σοβαρός κίνδυνος εσφαλμένης καθοδήγησης ή καλλιέργειας εξάρτησης.
Η OpenAI, πάντως, υπογραμμίζει ότι οι νέες λειτουργίες του GPT-5 δεν προορίζονται να αντικαταστήσουν την επαγγελματική βοήθεια, αλλά να κατευθύνουν τους χρήστες σε πραγματικές πηγές υποστήριξης.
Παρόλα αυτά, η ουδέτερη γλώσσα της επίσημης ανάρτησης φαίνεται να αποστασιοποιεί την εταιρεία από κάθε άμεση ευθύνη για τις κρίσεις ψυχικής υγείας που σχετίζονται με τη χρήση του ChatGPT.
