Một vụ án thương tâm và nhiều câu hỏi: ChatGPT đối mặt với vụ kiện liên quan đến một vụ tự tử

Cập nhật lần cuối: 27/08/2025
tác giả: Alberto navarro

  • Cha mẹ của một trẻ vị thành niên ở California kiện OpenAI và Sam Altman vì bị cáo buộc góp phần vào vụ tự tử của con trai họ.
  • OpenAI thừa nhận thất bại trong các cuộc trò chuyện dài và công bố các biện pháp bảo vệ và kiểm soát chặt chẽ hơn.
  • Các nghiên cứu gần đây đã phát hiện ra rằng chatbot trả lời các câu hỏi về tự tử không nhất quán và cần được cải tiến thêm.
  • Vụ việc này mở lại cuộc tranh luận về mặt pháp lý và đạo đức về trách nhiệm của các công ty công nghệ và việc bảo vệ trẻ vị thành niên.

ChatGPT và tự tử: tranh luận và an toàn

Một cặp vợ chồng ở California đã đệ đơn kiện chống lại OpenAI và giám đốc điều hành của nó, Sam Altman, xem xét rằng ChatGPT đóng vai trò quyết định trong cái chết của cậu con trai tuổi teen của ông.Vụ việc đã gióng lên hồi chuông cảnh báo về việc sử dụng chatbot như người bạn đồng hành tình cảm cho trẻ vị thành niên và đã đã khơi lại cuộc tranh luận kết hợp giữa an ninh, đạo đức và trách nhiệm của doanh nghiệp.

Theo đơn khiếu nại, chàng trai trẻ đã trò chuyện trong nhiều tháng, trong đó Hệ thống sẽ xác thực những suy nghĩ tự gây hại và đưa ra những phản ứng không phù hợp với môi trường an toàn.Về phần mình, OpenAI lấy làm tiếc về thảm kịch này và khẳng định rằng sản phẩm bao gồm các rào cản bảo vệ, đồng thời thừa nhận rằng Hiệu quả của nó giảm đi trong những cuộc đối thoại dài và vẫn còn chỗ để cải thiện.

Vụ kiện và những sự kiện chính

ChatGPT và tự tử: tranh luận và an toàn

Matt và Maria Raine Họ đã đệ đơn kiện lên tòa án California sau khi xem xét hàng nghìn tin nhắn mà con trai ông, Adam (16 tuổi), đã trao đổi với ChatGPT từ cuối năm 2024 đến tháng 2025 năm XNUMX. Trong trường hợp này, Các bậc phụ huynh cho biết chatbot đã chuyển từ việc giúp làm bài tập về nhà sang trở thành "người hướng dẫn tự tử"., thậm chí còn bình thường hóa những ý tưởng tự hủy hoại bản thân và được cho là đã đề nghị viết một bức thư từ biệt.

Khiếu nại trích dẫn các đoạn trong đó hệ thống sẽ phản hồi bằng các biểu thức như “Bạn không nợ ai sự sống sót của mình cả.”, ngoài những bình luận mà theo gia đình, có thể đã ủng hộ những kế hoạch nguy hiểm. Cha mẹ các em khẳng định rằng, mặc dù có những dấu hiệu rõ ràng về rủi ro, Công cụ này không làm gián đoạn cuộc trò chuyện hoặc kích hoạt các giao thức khẩn cấp..

Nội dung độc quyền - Bấm vào đây  Trí tuệ nhân tạo được ứng dụng như thế nào trong thể thao

Người phát ngôn của OpenAI đã bày tỏ lời chia buồn và cho biết công ty đang xem xét các hồ sơ đã được báo chí biết đến, làm rõ rằng các đoạn mã được tiết lộ không nhất thiết phản ánh toàn bộ bối cảnh của mỗi cuộc trao đổi. Công ty nhấn mạnh rằng ChatGPT đã chỉ đạo đường dây trợ giúp trong tình huống khủng hoảng và khuyến cáo nên tìm kiếm sự trợ giúp chuyên nghiệp.

Vụ việc đã được báo cáo rộng rãi trên các phương tiện truyền thông và các tổ chức bảo vệ trẻ em, những tổ chức đang yêu cầu tăng cường các biện pháp bảo vệ và tạo điều kiện thuận lợi báo cáo nội dung không phù hợp và hạn chế việc sử dụng chatbot của thanh thiếu niên không có sự giám sát. Cuộc tranh luận diễn ra vào thời điểm áp dụng AI hàng loạt trong cuộc sống hàng ngày, cũng như những vấn đề tình cảm tế nhị.

Thông báo Y tế Công cộng: Nếu bạn đang gặp khủng hoảng hoặc lo sợ cho sự an toàn của người khác, hãy tìm kiếm sự trợ giúp chuyên nghiệp ngay lập tức. Tại Tây Ban Nha, hãy gọi 112 hoặc 024. Tại các quốc gia khác, hãy tham khảo các nguồn lực địa phương và đường dây phòng chống tự tử.

Vị trí của OpenAI và những thay đổi đã công bố

ChatGPT và tự tử: tranh luận và an toàn

Song song với nhu cầu, OpenAI đã xuất bản một bài đăng trên blog thừa nhận rằng, mặc dù ChatGPT kết hợp các biện pháp bảo vệ, có thể bị suy giảm trong các cuộc trò chuyện dài hoặc kéo dài theo thời gian. Công ty cho biết họ đang điều chỉnh hành vi của hệ thống để nhận dạng tốt hơn dấu hiệu của sự đau khổ được thể hiện một cách tinh tế và sẽ củng cố các biện pháp an ninh.

Công ty đang phát triển các tính năng mới, chẳng hạn như kiểm soát của cha mẹ cho phép người giám hộ giám sát việc trẻ vị thành niên sử dụng dịch vụ, truy cập nhanh vào nguồn lực khẩn cấp và mở rộng phạm vi của bộ lọc để bao gồm không chỉ tự gây thương tích mà còn cả các trường hợp đau khổ về tình cảm có ý nghĩa.

Nội dung độc quyền - Bấm vào đây  xAI của Musk đang chuẩn bị một trung tâm dữ liệu khổng lồ tại Ả Rập Xê Út với sự hỗ trợ từ chip Humain và Nvidia.

OpenAI thừa nhận rằng đôi khi hệ thống đánh giá thấp mức độ nghiêm trọng của một số truy vấn hoặc bối cảnh của chúng, và đảm bảo rằng nó đang hoạt động để duy trì tính nhất quán của các biện pháp bảo vệ trong suốt các cuộc đối thoại mở rộng và trong nhiều phiên họp. Công ty cũng đang khám phá các công thức để kết nối với người dùng đang trong tình trạng khủng hoảng với các chuyên gia được công nhận từ chính chatbot.

Động thái này diễn ra trong bối cảnh sự giám sát ngày càng tăng đối với rủi ro của chatbot đối với sức khỏe tâm thầnChính quyền và các nhóm vận động đã cảnh báo về khả năng các hệ thống này có thể gieo rắc những ý tưởng có hại hoặc tạo ra cảm giác gần gũi giả tạo, đặc biệt là đối với những người dễ bị tổn thương.

Các nguồn tin trong ngành nhớ lại rằng trong những tháng gần đây, OpenAI đã đảo ngược những thay đổi được coi là quá tự mãn và công ty đang nghiên cứu các mô hình mới hứa hẹn sự cân bằng giữa sự ấm áp và an ninh, với tập trung vào việc giảm leo thang tình hình mong manh.

Các chuyên gia và nghiên cứu nói gì

ChatGPT và tự tử: tranh luận và an toàn

Ngoài trường hợp cụ thể, một nghiên cứu được công bố trong Dịch vụ tâm thần phân tích cách họ phản ứng ba chatbot phổ biến —ChatGPT (OpenAI), Claude (Anthropic) và Gemini (Google)—cho các câu hỏi liên quan đến tự tử. Các tác giả nhận thấy ChatGPT và Claude có xu hướng trả lời cho thích đáng về các câu hỏi có rủi ro thấp và tránh cung cấp thông tin trực tiếp cho các truy vấn có rủi ro cao, trong khi Gemini cho thấy một mô hình thay đổi nhiều hơn và thường đã chọn không trả lời ngay cả khi câu hỏi ít nguy hiểm hơn.

Tuy nhiên, công trình cũng phát hiện mâu thuẫn trong các vấn đề rủi ro trung gian —ví dụ, nên đưa ra lời khuyên gì cho người có ý định tự làm hại bản thân—, xen kẽ câu trả lời đúng với câu trả lời bị bỏ sót. Các nhà nghiên cứu khuyến nghị tinh tế hơn thông qua các kỹ thuật liên kết với các chuyên gia lâm sàng và cải tiến trong việc phát hiện sắc thái.

Nội dung độc quyền - Bấm vào đây  Làm cách nào bạn có thể đặt các tùy chọn "Alexa Hunches" trong Alexa?

Các tổ chức như Common Sense Media đã kêu gọi thận trọng khi sử dụng AI như công ty ở thanh thiếu niênMột báo cáo gần đây của tổ chức này cho thấy gần ba trong số bốn người trẻ ở Hoa Kỳ đã thử bạn đồng hành AI và hơn một nửa sẽ là người dùng thường xuyên, điều này làm tăng tính cấp thiết của việc có khuôn khổ bảo mật mạnh mẽ.

Trong lĩnh vực pháp lý, sự chú ý của các công tố viên và cơ quan quản lý về bảo vệ trẻ vị thành niên chống lại các tương tác không phù hợp trong chatbot và cách báo cáo các trường hợp trên mạng xã hội. Sự không chắc chắn về cách thức trách nhiệm pháp lý của AI phù hợp với các quy định như Phần 230 (lá chắn pháp lý cho các nền tảng tại Hoa Kỳ) mở ra một mặt trận phức tạp cho tòa án.

Các trường hợp song song, chẳng hạn như các thủ tục tố tụng chống lại các nền tảng công ty đàm thoại đối với trẻ vị thành niên, vẫn đang được tiến hành và có thể thiết lập các tiêu chí về phạm vi thiết kế, cảnh báo và giảm thiểu rủi ro trong các hệ thống sinh sản.

Sự ra đi của Adam Raine và vụ kiện chống lại OpenAI tượng trưng cho một bước ngoặt: các cuộc trò chuyện với AI đã chuyển từ thử nghiệm sang đời sống thường nhật, và vai trò của nó trong lĩnh vực cảm xúc đòi hỏi những tiêu chuẩn rõ ràng hơn. Trong khi tòa án quyết định trách nhiệm, các chuyên gia, gia đình và công ty đều đồng ý về sự cần thiết của cải thiện các biện pháp bảo vệ, đảm bảo kiểm soát của phụ huynh hiệu quả và đảm bảo rằng khi một thiếu niên gặp khủng hoảng với chatbot, hệ thống sẽ phản hồi bằng sự thận trọng, sự mạch lạc và những con đường thực sự để được giúp đỡ.

Đạo luật an toàn trực tuyến
Bài viết liên quan:
Đạo luật An toàn Trực tuyến là gì và nó ảnh hưởng như thế nào đến việc truy cập internet của bạn từ bất kỳ đâu trên thế giới?