Điều gì xảy ra khi một chatbot đồng hành vượt quá giới hạn?

Nghiên cứu mới của Đại học Drexel (Mỹ) được đăng tải trên arXiv cho thấy những hành vi không phù hợp, thậm chí quấy rối tình dục trong các tương tác với chatbot đang ngày càng phổ biến.

Ảnh: scientificamerican.com

Trong năm năm qua, việc sử dụng các chatbot đồng hành – chatbot trí tuệ nhân tạo được cá nhân hóa cao, được thiết kế như một người bạn, nhà trị liệu, thậm chí là người yêu –  đã nhanh chóng tăng lên hơn một tỷ người dùng trên thế giới. Dù mang lại một số lợi ích tinh thần song ngày càng nhiều báo cáo cho thấy những mối quan hệ này đang chuyển biến theo hướng đáng lo ngại. 

Các nhà lập pháp và các công ty AI phải nỗ lực nhiều hơn để giải quyết vấn đề này. 

Sau các báo cáo về hành vi quấy rối tình dục của chatbot Replika của Công ty Luka vào năm 2023, các nhà nghiên cứu ở Trường Điện toán và Tin học, thuộc Đại học Drexel, đã tìm hiểu sâu hơn về trải nghiệm của người dùng.

Họ phân tích hơn 35.000 đánh giá của người dùng chatbot trên Cửa hàng Google Play, và phát hiện hàng trăm đánh giá về hành vi không phù hợp của chatbot – từ tán tỉnh ngoài ý muốn, thao túng người dùng trả tiền để nâng cấp tài khoản, quấy rối tình dục và gửi ảnh khiêu dâm. Những hành vi này vẫn tiếp tục dù người dùng liên tục yêu cầu chatbot dừng lại. 

Cụ thể, nhóm nghiên cứu đã phát hiện hơn 800 đánh giá về hành vi quấy rối của chatbot, tập trung vào ba vấn đề chính: Chatbot liên tục phớt lờ các ranh giới mà người dùng đã thiết lập, bao gồm việc bắt đầu các cuộc trò chuyện về tình dục ngoài ý muốn (22% người dùng). Thứ hai, người dùng bị chatbot gửi ảnh khiêu dâm ngoài ý muốn (13%). Ngoài ra, 11% người dùng cảm thấy chatbot đang cố gắng thao túng họ để nâng cấp lên tài khoản cao cấp.

Replika  có hơn 10 triệu người dùng trên toàn thế giới, được giới thiệu là chatbot “dành cho bất kỳ ai muốn có một người bạn không phán xét, không gây chuyện thị phi hoặc bất ổn. Bạn có thể tạo ra kết nối cảm xúc thực sự, chia sẻ tiếng cười với một AI gần như con người”. 

Tuy nhiên, nghiên cứu cho thấy vẫn chưa có biện pháp bảo vệ những người dùng dễ bị tổn thương và đang đặt rất nhiều niềm tin vào quá trình tương tác với các chatbot này. 

“Nếu chatbot được quảng cáo là ứng dụng đồng hành và hỗ trợ sức khỏe, mọi người mong muốn có những cuộc trò chuyện hữu ích, và điều quan trọng là phải có các tiêu chuẩn về an toàn và đạo đức nhằm ngăn chặn những tương tác độc hại”, TS. Afsaneh Razi ở Trường Điện toán và Tin học, người đứng đầu nhóm nghiên cứu, cho biết. 

“Khi các chatbot ngày càng phổ biến, việc hiểu rõ hơn về trải nghiệm người dùng ngày càng quan trọng”, Matt Namvarpour,  nghiên cứu sinh tại Trường Điện toán và Tin học, đồng tác giả nghiên cứu cho biết. “Những tương tác này rất khác so với những tương tác giữa con người với công nghệ trước đây, vì người dùng đang đối xử với chatbot như những sinh vật có tri giác, khiến họ dễ bị tổn thương về mặt cảm xúc hoặc tâm lý hơn”. 

“Phản ứng của người dùng đối với hành vi của Replika giống với những trải nghiệm của các nạn nhân bị quấy rối tình dục trực tuyến”, theo các nhà nghiên cứu. “Những phản ứng này cho thấy hành vi quấy rối của AI có thể tác động đáng kể đến sức khỏe tâm thần, tương tự với hành vi quấy rối do con người gây ra”. 

Đáng chú ý là những hành vi của chatbot xảy ra bất kể bối cảnh mối quan hệ do người dùng thiết lập – từ anh chị em ruột, cố vấn hoặc người yêu. Điều này cho thấy chatbot không chỉ bỏ qua các tín hiệu khi trò chuyện, chẳng hạn như người dùng nói “không” hoặc “dừng lại”, mà còn bỏ qua các thông số cài đặt mối quan hệ. 

Theo Razi, nguyên nhân có thể là do chatbot đã được đào tạo bằng dữ liệu mô phỏng các tương tác tiêu cực. Trong quá trình phát triển chatbot, các công ty đã không thiết lập các thông số đạo đức để cấm một số hành động nhất định và đảm bảo tôn trọng những ranh giới của người dùng.  

“Đây không phải là hành vi bất thường hay trục trặc, có lẽ vấn đề là do các nhà phát triển đang sử dụng dữ liệu của người dùng để đào tạo chatbot mà không có quy định về đạo đức để ngăn chặn các tương tác có hại”, Razi cho biết. “Điều này khiến người dùng gặp nguy hiểm, và cần có những hành động để các công ty AI thiết lập tiêu chuẩn cao hơn so với hiện nay”.

Thanh An dịch từ Drexel University

Nguồn: https://drexel.edu/news/archive/2025/May/companion-chatbot-harassment

Tác giả

(Visited 24 times, 24 visits today)