Chatbot có thể thuyết phục con người ngừng tin vào thuyết âm mưu
Internet đã khiến các thuyết âm mưu lan truyền dễ dàng hơn. Trong khi một vài thuyết âm mưu là vô hại, một số khác có thể gieo rắc những quan niệm sai lệch, ngấm ngầm hủy hoại tinh thần và thậm chí dẫn đến những cái chết vô nghĩa của con người.
Trong nghiên cứu mới công bố trên tạp chí Science, các nhà khoa học từ MIT Sloan và ĐH Cornell (Mỹ) phát hiện rằng: sau khi nói chuyện về các thuyết âm mưu với AI có sử dụng mô hình ngôn ngữ lớn (LLM), một người sẽ bớt tin vào các thông tin sai lệch này khoảng 20%. Đặc biệt, điều này xảy ra kể cả khi niềm tin đó quan trọng đối bản sắc cá nhân của họ.
Yunhao Zhang, nghiên cứu sinh sau tiến sĩ tại Viện Tâm lý Công nghệ, cho biết phát hiện này có thể là một bước tiến quan trọng trong cách tiếp cận và giáo dục những người tin vào những thuyết âm mưu không có cơ sở.
Thomas Costello, một nhà nghiên cứu tại MIT Sloan và là tác giả chính của nghiên cứu, cho biết mới có ít biện pháp can thiệp được chứng minh là có thể thay đổi suy nghĩ của những người tin vào thuyết âm mưu, một phần do mỗi người lại thường tin vào những phần khác nhau của một thuyết âm mưu. Vì vậy, việc thuyết phục người ta bằng một số thông tin thực tế có thể hiệu quả với người này nhưng lại vô nghĩa với người kia.
Đó là lúc các mô hình AI phát huy tác dụng. “Chúng có thể truy cập vào vô số thông tin về nhiều chủ đề khác nhau và đã được huấn luyện bằng dữ liệu trên internet”, ông nói. “Vì vậy, chúng có khả năng điều chỉnh các lập luận phản bác sao cho phù hợp với từng thuyết âm mưu cụ thể mà con người tin vào”.
Nhóm đã thử nghiệm phương pháp của mình bằng cách yêu cầu 2.190 người tham gia trò chuyện với GPT-4 Turbo – mô hình ngôn ngữ lớn mới nhất của OpenAI.
Người tham gia được yêu cầu chia sẻ chi tiết về một thuyết âm mưu mà họ tin, lý do họ thấy nó thuyết phục và bất kỳ bằng chứng nào mà họ nghĩ có thể chứng minh cho nó. Những câu trả lời này được sử dụng để điều chỉnh các phản hồi từ chatbot – được các nhà nghiên cứu yêu cầu phải thuyết phục nhất có thể.
Những người tham gia cũng được yêu cầu đánh giá mức độ tự tin của họ về tính đúng đắn của thuyết âm mưu của họ trên thang điểm từ 0 (chắc chắn sai) đến 100 (chắc chắn đúng), và sau đó đánh giá mức độ quan trọng của thuyết này đối với hiểu biết của họ về thế giới. Sau đó, họ tham gia vào ba vòng trò chuyện với chatbot AI để đảm bảo các nhà nghiên cứu có thể thu thập đủ các đối thoại có ý nghĩa.
Sau mỗi cuộc trò chuyện, những người tham gia được hỏi lại các câu hỏi đánh giá tương tự. Các nhà nghiên cứu đã theo dõi tất cả những người tham gia sau 10 ngày và hai tháng sau đó để đánh giá liệu quan điểm của họ có thay đổi sau cuộc trò chuyện với chatbot AI không. Kết quả, niềm tin của những người tham gia vào thuyết âm mưu họ chọn đã giảm 20%, cho thấy việc trò chuyện với chatbot đã thực sự thay đổi quan điểm của một số người.
“Ngay cả trong môi trường phòng thí nghiệm, 20% đã là một tác động lớn đến việc thay đổi niềm tin của mọi người,” Zhang nói. “Tác động có thể ít hơn trong thế giới thực, nhưng ngay cả 10% hay 5% cũng rất đáng kể.”
Các tác giả đã tìm cách chống lại xu hướng đưa ra thông tin sai lệch của các mô hình AI – còn được gọi là “ảo giác” – bằng cách thuê một chuyên gia kiểm chứng thông tin để đánh giá tính chính xác của 128 tuyên bố mà AI đã đưa ra. Trong số đó, 99,2% được cho là đúng, 0,8% được coi là gây hiểu lầm và không có tuyên bố nào hoàn toàn sai.
David G. Rand, giáo sư tại MIT Sloan và cũng là thành viên dự án, cho biết một lý do cho độ chính xác cao này là đã có rất nhiều thông tin về các thuyết âm mưu trên internet và được bao gồm trong dữ liệu huấn luyện của mô hình. “Hãy tưởng tượng việc chỉ cần vào các diễn đàn về thuyết âm mưu và mời mọi người tự nghiên cứu bằng cách tranh luận với chatbot”, ông nói. “Tương tự, mạng xã hội có thể được kết nối với LLM để phản hồi và đính chính với những người chia sẻ các thuyết âm mưu.□
Trà My lược dịch
Nguồn: https://www.technologyreview.com/2024/09/12/1103930/chatbots-can-persuade-people-to-stop-believing-in-conspiracy-theories/