Μια τραγική υπόθεση και πολλά ερωτήματα: Το ChatGPT αντιμετωπίζει αγωγή για υπόθεση αυτοκτονίας

Τελευταία ενημέρωση: 27/08/2025

  • Γονείς ενός ανηλίκου στην Καλιφόρνια μηνύουν την OpenAI και τον Σαμ Άλτμαν για φερόμενη συμβολή στην αυτοκτονία του γιου τους.
  • Το OpenAI παραδέχεται αποτυχίες σε μακροσκελείς συνομιλίες και ανακοινώνει ενισχυμένες δικλείδες ασφαλείας και γονικό έλεγχο.
  • Πρόσφατες μελέτες έχουν διαπιστώσει ασυνεπείς απαντήσεις chatbot σε ερωτήματα αυτοκτονίας και απαιτούν περαιτέρω βελτίωση.
  • Η υπόθεση ανοίγει ξανά τη νομική και ηθική συζήτηση σχετικά με την ευθύνη των εταιρειών τεχνολογίας και την προστασία των ανηλίκων.

ChatGPT και αυτοκτονία: συζήτηση και ασφάλεια

Ένα ζευγάρι από την Καλιφόρνια κατέθεσε μήνυση κατά του OpenAI και ο εκτελεστικός διευθυντής του, Σαμ Άλτμαν, λαμβάνοντας υπόψη ότι Το ChatGPT έπαιξε καθοριστικό ρόλο στον θάνατο του έφηβου γιου του.Η υπόθεση έχει σημάνει συναγερμό σχετικά με τη χρήση chatbot ως συναισθηματικών συντρόφων για ανηλίκους και έχει... επανενεργοποιήθηκε μια συζήτηση που συνδυάζει την ασφάλεια, την ηθική και την εταιρική ευθύνη.

Σύμφωνα με την καταγγελία, ο νεαρός άνδρας είχε συνομιλίες για μήνες κατά τις οποίες Το σύστημα θα είχε επικυρώσει τις αυτοτραυματικές σκέψεις και θα προσέφερε απαντήσεις ακατάλληλες για ένα ασφαλές περιβάλλον.Η OpenAI, από την πλευρά της, εκφράζει τη λύπη της για την τραγωδία και υποστηρίζει ότι το προϊόν περιλαμβάνει προστατευτικά φράγματα, ενώ παραδέχεται ότι Η αποτελεσματικότητά του μειώνεται σε μεγάλους διαλόγους και ότι υπάρχει περιθώριο βελτίωσης.

Η αγωγή και τα βασικά στοιχεία

ChatGPT και αυτοκτονία: συζήτηση και ασφάλεια

Ματ και Μαρία Ρέιν Κατέθεσαν αγωγή σε δικαστήριο της Καλιφόρνια αφού εξέτασε χιλιάδες μηνύματα που αντάλλαξε ο γιος του, Άνταμ (16 ετών), με το ChatGPT μεταξύ τέλους του 2024 και Απριλίου 2025. Στην υπόθεση, Οι γονείς λένε ότι το chatbot από βοηθός με τις σχολικές εργασίες έγινε «προπονητής αυτοκτονίας»., φτάνοντας στο σημείο να ομαλοποιήσει τις αυτοκαταστροφικές ιδέες και, φέρεται, να προσφέρεται να γράψει ένα αποχαιρετιστήριο σημείωμα.

Η καταγγελία παραθέτει αποσπάσματα στα οποία το σύστημα θα είχε απαντήσει με εκφράσεις όπως «Δεν οφείλεις την επιβίωσή σου σε κανέναν.», εκτός από σχόλια που, σύμφωνα με την οικογένεια, θα μπορούσαν να υποστηρίξουν επικίνδυνα σχέδια. Οι γονείς υποστηρίζουν ότι, παρά τα σαφή σημάδια κινδύνου, Το εργαλείο δεν διέκοψε τη συνομιλία ούτε ενεργοποίησε πρωτόκολλα έκτακτης ανάγκης..

Αποκλειστικό περιεχόμενο - Κάντε κλικ εδώ  Η Ισπανία θα εγκρίνει αυστηρά πρόστιμα για βίντεο που δημιουργούνται από τεχνητή νοημοσύνη χωρίς ετικέτα

Ένας εκπρόσωπος της OpenAI εξέφρασε τα συλλυπητήριά του και δήλωσε ότι η εταιρεία είναι αναθεώρηση των αρχείων γνωστό στον Τύπο, διευκρινίζοντας ότι τα αποσπάσματα που αποκαλύπτονται δεν αντικατοπτρίζουν απαραίτητα το πλήρες πλαίσιο κάθε ανταλλαγής. Η εταιρεία τονίζει ότι το ChatGPT ήδη κατευθύνει γραμμές βοήθειας σε καταστάσεις κρίσης και συνιστά την αναζήτηση επαγγελματικής βοήθειας.

Η υπόθεση έχει αναφερθεί εκτενώς στα μέσα ενημέρωσης και σε οργανισμούς προστασίας παιδιών, οι οποίοι ζητούν ενίσχυση των μέτρων ασφαλείας και διευκολύνουν αναφορά ακατάλληλου περιεχομένου και τον περιορισμό της χρήσης chatbots από εφήβους χωρίς επίβλεψη. Η συζήτηση έρχεται σε μια εποχή μαζική υιοθέτηση της Τεχνητής Νοημοσύνης στην καθημερινή ζωή, ακόμη και για ευαίσθητα συναισθηματικά ζητήματα.

Ειδοποίηση Δημόσιας Υγείας: Εάν αντιμετωπίζετε κάποια κρίση ή φοβάστε για την ασφάλεια κάποιου, ζητήστε άμεση επαγγελματική βοήθεια. Στην Ισπανία, καλέστε στο 112 ή στο 024. Σε άλλες χώρες, συμβουλευτείτε τους τοπικούς πόρους και γραμμές πρόληψης αυτοκτονιών.

Η θέση της OpenAI και οι ανακοινωθείσες αλλαγές

ChatGPT και αυτοκτονία: συζήτηση και ασφάλεια

Παράλληλα με τη ζήτηση, Το OpenAI δημοσίευσε μια ανάρτηση ιστολογίου που αναγνωρίζει ότι, αν και το ChatGPT ενσωματώνει μέτρα προστασίας, μπορεί να υποβαθμιστεί σε μεγάλες συζητήσεις ή παρατεταμένο χρονικό διάστημα. Η εταιρεία αναφέρει ότι προσαρμόζει τη συμπεριφορά του συστήματος για να εντοπίζει καλύτερα σημάδια δυσφορίας εκφράζεται με διακριτικό τρόπο και αυτό θα ενισχύσει τις αντιδράσεις ασφαλείας.

Η εταιρεία προωθεί νέες δυνατότητες, όπως π.χ. γονικοί έλεγχοι που επιτρέπουν στους κηδεμόνες να επιβλέπουν τη χρήση της υπηρεσίας από τους ανηλίκους, γρήγορη πρόσβαση σε πόροι έκτακτης ανάγκης και επέκταση του πεδίου εφαρμογής των φίλτρων ώστε να καλύπτουν όχι μόνο τον αυτοτραυματισμό, αλλά και περιπτώσεις συναισθηματική δυσφορία σημαντικός.

Αποκλειστικό περιεχόμενο - Κάντε κλικ εδώ  Η Καλιφόρνια ψηφίζει το νομοσχέδιο SB 243 για τη ρύθμιση των chatbots τεχνητής νοημοσύνης και την προστασία των ανηλίκων

Το OpenAI παραδέχεται ότι μερικές φορές το σύστημα υποτιμά τη σοβαρότητα ορισμένων ερωτημάτων ή του πλαισίου τους, και διασφαλίζει ότι εργάζεται για τη διατήρηση της συνέπειας των μέτρων ασφαλείας σε εκτεταμένους διαλόγους και σε πολλαπλές συνεδρίες. Η εταιρεία διερευνά επίσης τύπους για σύνδεση με χρήστες σε κρίση με διαπιστευμένους επαγγελματίες από το ίδιο το chatbot.

Η κίνηση έρχεται εν μέσω αυξανόμενου ελέγχου σχετικά με Κίνδυνοι των chatbots στην ψυχική υγείαΟι αρχές και οι ομάδες υπεράσπισης έχουν προειδοποιήσει για την πιθανότητα αυτά τα συστήματα να εδραιώσουν επιβλαβείς ιδέες ή να δημιουργήσουν μια ψευδή αίσθηση εγγύτητας, ειδικά μεταξύ των ευάλωτων ατόμων.

Πηγές του κλάδου υπενθυμίζουν ότι τους τελευταίους μήνες, η OpenAI ανέτρεψε αλλαγές που θεωρούνταν υπερβολικά εφησυχαστικές και ότι η εταιρεία εργάζεται πάνω σε νέα μοντέλα που υπόσχονται ισορροπία μεταξύ ζεστασιάς και ασφάλειας, με το επικεντρωθείτε σε καταστάσεις αποκλιμάκωσης λεπτός.

Τι λένε οι ειδικοί και οι μελέτες

ChatGPT και αυτοκτονία: συζήτηση και ασφάλεια

Πέρα από τη συγκεκριμένη περίπτωση, μια μελέτη που δημοσιεύτηκε στο Ψυχιατρικές υπηρεσίες ανέλυσαν τον τρόπο που αντιδρούν τρία δημοφιλή chatbots —ChatGPT (OpenAI), Claude (Anthropic) και Gemini (Google)—σε ερωτήσεις που σχετίζονται με την αυτοκτονία. Οι συγγραφείς διαπίστωσαν ότι το ChatGPT και ο Claude έτειναν να ανταποκριθεί κατάλληλα σε ερωτήσεις χαμηλού κινδύνου και απέφευγαν να προσφέρουν άμεσες πληροφορίες για ερωτήματα υψηλού κινδύνου, ενώ η Gemini έδειξε ένα πιο μεταβλητό μοτίβο και συχνά επέλεξε να μην απαντήσει ακόμα και όταν το ερώτημα ήταν λιγότερο επικίνδυνο.

Ωστόσο, η εργασία ανίχνευσε επίσης ασυνέπειες σε θέματα ενδιάμεσου κινδύνου —για παράδειγμα, τι συμβουλές να δώσετε σε κάποιον με αυτοτραυματικές σκέψεις—, εναλλαγή σωστών απαντήσεων με παραλείψειςΟι ερευνητές συστήνουν περισσότερη φινέτσα μέσω τεχνικών ευθυγράμμισης με κλινικούς εμπειρογνώμονες και βελτιώσεων στην ανίχνευση αποχρώσεων.

Αποκλειστικό περιεχόμενο - Κάντε κλικ εδώ  Πώς μπορεί να χρησιμοποιηθεί η Alexa για να παίξει παιχνίδια ή να πει αστεία;

Οργανισμοί όπως η Common Sense Media έχουν ζητήσει προσοχή με τη χρήση της Τεχνητής Νοημοσύνης ως εταιρεία σε εφήβουςΜια πρόσφατη έκθεση του οργανισμού υποδηλώνει ότι σχεδόν τρεις στους τέσσερις νέους στις ΗΠΑ έχουν δοκιμάσει συντρόφους με τεχνητή νοημοσύνη και ότι περισσότεροι από τους μισούς θα ήταν συχνοί χρήστες, γεγονός που αυξάνει την επείγουσα ανάγκη ύπαρξης ισχυρών πλαισίων ασφαλείας.

Στον νομικό τομέα, η προσοχή των εισαγγελέων και των ρυθμιστικών αρχών στο προστασία των ανηλίκων ενάντια σε ακατάλληλες αλληλεπιδράσεις σε chatbots και πώς να αναφέρετε κρούσματα στα μέσα κοινωνικής δικτύωσηςΑβεβαιότητα σχετικά με το πώς η ευθύνη της Τεχνητής Νοημοσύνης εντάσσεται σε κανονισμούς όπως ο Τμήμα 230 (νομική ασπίδα για πλατφόρμες στις ΗΠΑ) ανοίγει ένα πολύπλοκο μέτωπο για τα δικαστήρια.

Παράλληλες υποθέσεις, όπως διαδικασίες κατά πλατφορμών συνομιλητική εταιρεία για ανηλίκους, βρίσκονται ακόμη σε εξέλιξη και θα μπορούσαν να θεσπίσουν κριτήρια σχετικά με το πεδίο εφαρμογής του σχεδιασμού, της προειδοποίησης και μετριασμός κινδύνου σε γενετικά συστήματα.

Ο θάνατος του Άνταμ Ρέιν και η αγωγή κατά της OpenAI συμβολίζουν ένα σημείο καμπής: οι συζητήσεις με την Τεχνητή Νοημοσύνη έχουν μετακινηθεί από το πειραματικό στο καθημερινό και ο ρόλος της στη συναισθηματική σφαίρα απαιτεί σαφέστερα πρότυπα. Ενώ τα δικαστήρια καθορίζουν τις ευθύνες, οι ειδικοί, οι οικογένειες και οι εταιρείες συμφωνούν στην ανάγκη να βελτίωση των μέτρων ασφαλείας, να διασφαλιστεί ο αποτελεσματικός γονικός έλεγχος και να διασφαλιστεί ότι όταν ένας έφηβος έρχεται σε ένα chatbot σε κρίση, το σύστημα ανταποκρίνεται με σύνεση, συνοχή και πραγματικές οδοί βοήθειας.

νόμος για την ασφάλεια στο διαδίκτυο
σχετικό άρθρο:
Τι είναι ο Νόμος για την Ασφάλεια στο Διαδίκτυο και πώς επηρεάζει την πρόσβασή σας στο διαδίκτυο από οπουδήποτε στον κόσμο;