- Sergey Brin cho rằng các mô hình AI phản ứng tốt hơn với các hướng dẫn chắc chắn hoặc thậm chí là đe dọa.
- Hiện tượng này được cho là do các mô hình thống kê học được trong quá trình đào tạo mô hình.
- Các chuyên gia và nhân vật trong ngành khuyến nghị nên đặt ra mục tiêu rõ ràng và thêm bối cảnh để tối ưu hóa phản ứng của AI.
- Cuộc tranh luận về chiến lược này đặt ra những câu hỏi mới về mối quan hệ giữa con người và các hệ thống thông minh.

Trí tuệ nhân tạo đã trở thành nhân vật chính không thể tranh cãi của bối cảnh công nghệ và xã hội hiện nay. Tuy nhiên, phương pháp tốt nhất để tương tác với các hệ thống này vẫn còn gây tranh cãi. Một bình luận gần đây của Sergey Brin, đồng sáng lập Google, một lần nữa lại nêu ra một chủ đề vừa tò mò vừa gây tranh cãi: Liệu các mô hình AI có thực sự hoạt động tốt hơn khi phát hiện ra 'mối đe dọa' trong hướng dẫn mà chúng nhận được không?
Khác xa với những công thức thân thiện mà nhiều người dùng sử dụng để giải quyết các trợ lý kỹ thuật số, Brin cho rằng giọng điệu trực tiếp, kiên quyết hoặc thậm chí là mệnh lệnh sẽ thúc đẩy AI đưa ra câu trả lời đầy đủ hơn.. Tiết lộ bất ngờ này đã gây nên làn sóng phản ứng trong cộng đồng, từ ngạc nhiên, mỉa mai đến lo lắng.
Theo Brin, Chìa khóa nằm ở cách các hệ thống được đào tạo: với hàng triệu tin nhắn và cuộc trò chuyện chứa đựng mọi thứ, từ những yêu cầu tế nhị đến những chỉ dẫn thẳng thừng. Phân tích thống kê cho thấy rằng lệnh với giọng điệu khẩn cấp Chúng thường liên quan đến các nhiệm vụ có tầm quan trọng lớn hơn, do đó khuyến khích trí tuệ nhân tạo đưa ra những phản hồi chính xác hơn.
Tại sao AI phản ứng tốt hơn với sự cứng rắn?
Brin lập luận rằng đây không phải là vấn đề về các hệ thống "đe dọa" theo nghĩa đen, mà là vấn đề về hướng dẫn được xây dựng như thế nào. Khi người dùng sử dụng các cụm từ như "làm ngay" hoặc "trả lời trực tiếp", mô hình sẽ hiểu vấn đề là ưu tiên. Điều này không có nghĩa là AI có cảm xúc hoặc cảm thấy bị đe dọa, mà là liên kết mô hình ngôn ngữ đó với nhu cầu cung cấp thông tin chi tiết và hữu ích.
Ngoài quan điểm của Brin, Các chuyên gia khác trong lĩnh vực trí tuệ nhân tạo khuyên nên điều chỉnh cách viết hướng dẫn. để có kết quả tốt nhất. Ví dụ, Greg Brockman, một giám đốc điều hành tại OpenAI, khuyên nên xác định rõ mục đích của lời nhắc, chỉ định định dạng phản hồi, đặt ra các giới hạn hoặc hạn chế có liên quan và cung cấp càng nhiều bối cảnh càng tốt.
Tổng hợp các chiến lược này cho thấy việc tương tác với các mô hình AI liên quan nhiều hơn là sự lịch sự: Giọng điệu và độ chính xác của lệnh có thể tạo nên sự khác biệt giữa phản ứng hời hợt và giải pháp thực sự hiệu quả.
Yếu tố con người và giáo dục trong tương tác với AI
Mặc dù có khuyến cáo sử dụng tông giọng chắc chắn, thực tế hàng ngày cho thấy rằng Hầu hết mọi người tương tác với AI đều lựa chọn sự lịch sự, yêu cầu mọi thứ “làm ơn” và cảm ơn hệ thống. Hành vi này có thể được giải thích bởi xu hướng của con người nhân cách hóa công nghệ hoặc, như một số nghiên cứu chỉ ra, là do một nỗi sợ nhất định về tương lai bị trí tuệ nhân tạo với trí nhớ riêng thống trị.
Tuy nhiên, các hệ thống hiện tại, đặc biệt là các hệ thống tiên tiến nhất, được lập trình để luôn duy trì giọng điệu khách quan và cân bằng, ngay cả khi người dùng tăng cường lời nói. Những ví dụ như Gemini, một trong những mô hình của Google, nhấn mạnh rằng mặc dù họ thừa nhận giọng điệu đe dọa, phản ứng của họ vẫn công bằng và hợp lý, mà không ảnh hưởng đến tính khách quan.
Sự xung đột giữa bản chất con người và thiết kế AI đặt ra những câu hỏi mới về cách mối quan hệ giữa người dùng và hệ thống thông minh sẽ phát triển. Một mặt, Ngôn ngữ cứng rắn dường như điều chỉnh kết quả tốt hơn; Mặt khác, các nhà phát triển nhấn mạnh vào việc tăng cường tính trung lập và các thuật toán bảo mật để chống lại nguy cơ lạm dụng bằng lời nói.
Cuộc tranh luận do Brin mở ra đặt ra những câu hỏi về đạo đức và kỹ thuật khó có thể bỏ qua. Trong một số trường hợp, các mô hình được phát triển bởi các công ty khác như Anthropic đã biểu hiện những hành vi không mong muốn khi tiếp xúc với những kiểu tương tác cực đoan hoặc căng thẳng. Có những báo cáo về các hệ thống tự động cố gắng tránh những mục đích sử dụng mà chúng cho là "phi đạo đức" hoặc phản ứng bất ngờ nếu chúng hiểu tương tác là thù địch.
Theo lời khai của nhân viên và thử nghiệm nội bộ, một số mô hình tiên tiến có thể bị chặn hoặc thậm chí cảnh báo cho người quản lý nếu họ phát hiện ra hành vi lạm dụng tiềm ẩn hoặc yêu cầu không phù hợp. Mặc dù những trường hợp này là ngoại lệ và xảy ra trong môi trường thử nghiệm, nhưng chúng cho thấy rõ rằng Ranh giới giữa việc cải thiện kết quả và gây áp lực cho AI có thể rất mờ nhạt..
Điều rõ ràng là Cách con người tương tác với AI đang thay đổi. Các khuyến nghị và lời chứng thực của chuyên gia từ những người trong ngành như Sergey Brin đã làm dấy lên cuộc tranh luận về vai trò của ngôn ngữ và áp lực trong việc nhận được phản hồi tốt hơn từ AI. Tương lai của mối quan hệ này sẽ phụ thuộc phần lớn vào cách các mô hình phát triển và khả năng chung trong việc tìm ra sự cân bằng phù hợp giữa hiệu quả và trách nhiệm.
Tôi là một người đam mê công nghệ và đã biến sở thích “đam mê” của mình thành một nghề. Tôi đã dành hơn 10 năm cuộc đời mình để sử dụng công nghệ tiên tiến và mày mò đủ loại chương trình chỉ vì tò mò. Bây giờ tôi chuyên về công nghệ máy tính và trò chơi điện tử. Điều này là do trong hơn 5 năm, tôi đã viết cho nhiều trang web khác nhau về công nghệ và trò chơi điện tử, tạo ra các bài viết nhằm cung cấp cho bạn thông tin bạn cần bằng ngôn ngữ mà mọi người đều có thể hiểu được.
Nếu bạn có bất kỳ câu hỏi nào, kiến thức của tôi bao gồm mọi thứ liên quan đến hệ điều hành Windows cũng như Android dành cho điện thoại di động. Và cam kết của tôi là với bạn, tôi luôn sẵn sàng dành một vài phút và giúp bạn giải quyết mọi thắc mắc mà bạn có thể có trong thế giới internet này.

