Nên đối xử với chatbot như thế nào?

Khi trí tuệ nhân tạo (AI) trở thành một phần đáng kể của cuộc sống hằng ngày, mọi người cần đặt ra câu hỏi về cách tương tác với chúng.


Thâm nhập vào đời sống

Ngày nay, việc nói chuyện với bot trở nên dễ dàng hơn bao giờ hết nhờ sự phổ biến của các ứng dụng giọng nói như trợ lý ảo Siri của Apple, Google Assitant của Google hoặc loa thông minh Alexa của Amazon. Nhiều công ty công nghệ đang đặt cược lớn vào các bot có khả năng đối thoại như một cú hích lớn tiếp theo. 

Tại sao chúng ta cần suy nghĩ về mối quan hệ giữa con người và robot? Bởi vì các chatbot đang xuất hiện và chúng ta chỉ mới bắt đầu thấy làn sóng đầu tiên. Cách đây nửa thập kỷ, gã khổng lồ Facebook đã đưa chatbot vào trong ứng dụng nhắn tin Messenger của mình. Đây là những robot đàm thoại mà người dùng có thể nhắn qua lại để nhận tin tức, chơi trò chơi và mua đồ. Chúng thường được các chủ cửa hàng trên Facebook tích hợp. 

Ở Trung Quốc sự xuất hiện của chatbot còn mạnh mẽ hơn. Hàng trăm triệu người dân Trung Quốc đang sử dụng ứng dụng nhắn tin WeChat không chỉ để trò chuyện với bạn bè mà còn để trò chuyện với các bot cho phép họ mua sắm và thanh toán hóa đơn online. 

Đầu năm 2023, ChatGPT của OpenAI đã khiến cả thế giới cuốn vào một cuộc dùng thử quy mô chưa từng có. ChatGPT không phải là công cụ tạo văn bản AI đầu tiên hay tốt nhất nhưng chúng miễn phí. Người ta có thể trò chuyện một cách tự nhiên về bất kỳ điều thứ gì trên đời với ChatGPT và nhận được những phản hồi thú vị.

Nói chuyện với bot không còn là câu chuyện khoa học viễn tưởng mà đã đi vào đời sống. Khi chúng ta tương tác với càng nhiều bot, câu hỏi đặt ra là ta nên đối xử với chúng như thế nào? 

Phản ứng xã hội bẩm sinh

Đầu tiên, liệu bot có quan tâm đến cách chúng ta nói chuyện với chúng không? Tất nhiên, chúng không “quan tâm” giống như cách con người quan tâm. Nếu tôi xấu tính với một bot, tôi sẽ không làm tổn thương cảm xúc của nó. Nhưng tôi có thể trở nên ngày càng xấu tính hơn nếu tiếp tục coi đó là một cách cư xử đương nhiên. 

GS. Sherry Turkle tại Đại học MIT, người nghiên cứu mối quan hệ của con người với công nghệ và là tác giả cuốn Reclaiming Conversation tin rằng chúng ta nên thận trọng trong cách đối xử với các bot, “không phải bởi vì chúng có cảm xúc, mà vì chúng ta có cảm xúc.”

Có một trường phái suy nghĩ rằng, giống như bạn sẽ không phải cảm ơn một cái búa vì đã cho phép bạn sử dụng nó để đập đinh, bạn cũng không cần phải cảm ơn Siri vì đã chọn danh sách nhạc cho bạn nghe. Nhưng đó là một cách khái quát quá đơn giản: Một cái búa không thể đáp lại lời bạn, nhưng Siri – và các chatbot AI khác đang mọc lên như nấm – thì có thể. Và bởi vì chúng có thể đáp lại, bộ não của con người sẽ coi những cuộc trò chuyện với chatbot như một tương tác xã hội với người khác.

Nói chuyện với loa thông mih Alexa. Ảnh: Istock

“Mặc dù biết Siri không phải là người thật, chúng ta vẫn bị kích hoạt bởi các mô hình xã hội bẩm sinh”, nhà tâm lý học Pamela Rutledge, người nghiên cứu cách con người tương tác với phương tiện truyền thông, cho biết. Những mô hình này không chỉ bẩm sinh mà còn rất mạnh mẽ, bà nhấn mạnh, “Kết nối xã hội là động lực căn bản cho nhu cầu và sức khỏe của con người”. Bởi vì thuộc tính ‘xã hội’ là loại hệ điều hành mặc định của con người nên “con người có xu hướng cho rằng bất kỳ thứ gì cũng có thể là một đối tác xã hội tiềm năng và hành động tương ứng với đó.” Một số nghiên cứu cho thấy chúng ta đặc biệt có khả năng làm như vậy khi tương tác với những thứ nằm ngoài tầm kiểm soát của mình, có lẽ vì ta nhận thấy chúng có ý chí riêng. 

Các dạng AI tương tác hiện đại được thiết kế để khai thác mong muốn nhân cách hóa sự vật của chúng ta. Trên lý thuyết, các bot càng cư xử giống con người thì sự tương tác của con người với nó càng có ý nghĩa và hữu ích. 

Nhưng thực tế là chúng ta khá thô lỗ với các trợ lý ảo, chatbot và robot AI. Một số nhà nghiên cứu ước tính rằng có tới 54% các cuộc trò chuyện với chatbot có chứa ngôn từ tục tĩu – thường nhắm vào bot, và có tới 65% chứa ngôn ngữ tình dục. Vào năm 2019, khoảng 30% các cuộc trò chuyện với Mitsuku (một nhân vật chatbot tân tiến trong Metaverse) chứa ngôn ngữ bạo lực, lạm dụng hoặc quấy rối tình dục. Một nghiên cứu gần đây của Đại học Canterbury dường như cũng cho thấy phản ứng của chatbot càng giống người thì nó càng nhận được nhiều lời bình luận ngược đãi hoặc có yếu tố tình dục. 

Merel Keijsers tại Đại học Canterbury, người thực hiện nghiên cứu kể trên, nói rằng những phát hiện này cho thấy mọi người đã có cảm giác rằng những tác tử bot này ít nhiều cũng có một chút tri giác. Như cô nói với tờ báo phỏng vấn, “Tôi nghĩ rằng việc bắt nạt hoặc gây hấn gần như là một cách để con người thách thức các ranh giới, vạch ra những giới hạn quanh thứ mà họ đang đối mặt.”

Nhưng việc hung hãn với người khác có thể giải phóng ra một loạt cảm xúc tiêu cực. Tương tự, đối xử thô lỗ hoặc chửi rủa chatbot cũng khiến ta phải trả giá. “Bất cứ khi nào chúng ta cư xử bạo hành, chúng ta cũng tạo ra sự thay đổi trong cảm nhận hoặc trạng thái tâm lý của mình” nhà tâm lý học Rutledge nói. “Không quan trọng là Siri không phải sinh vật sống. Điều quan trọng là ta bị thúc đẩy bởi một tín hiệu tương tác xã hội mà bộ não của chúng ta phản ứng lại.”

Thực hành tương tác 

Có một số bằng chứng cho thấy cách chúng ta tương tác với chatbot có thể bắt đầu định hình sự tương tác của chúng ta với đồng loại. Câu hỏi đặt ra là: Nếu ta thô lỗ với bot, liệu ta có trở nên thô lỗ với con người không? Trong lĩnh vực đạo đức robot, đây là một trong những mối quan tâm lớn.

Jonathan Gratch, Giám đốc nghiên cứu về người ảo [Virtual humans] tại Viện Công nghệ Sáng tạo của Đại học Nam California, Mỹ, cho biết. “Rất nhiều hành vi của chúng ta tuân theo các khuôn mẫu nhận thức (schema). Chúng ta học các kịch bản và sau đó bắt đầu áp dụng những kịch bản đã học được với chatbot trong thế giới thực.” 

Với xu hướng sống hiện nay, rất có thể con người sẽ dành nhiều thời gian hơn với chatbot – với tư cách là những cố vấn tài chính, nhân viên chăm sóc khách hàng, thiết bị hỗ trợ cảm xúc, thậm chí là bạn đồng hành. Khi chúng ta nói chuyện với máy móc, chúng ta phát triển các thói quen tương tác xã hội vì khi đó chatbot thể hiện mình là một đối tượng đối thoại. Chatbot có thể không có thật ở đây, nhưng nó là một cơ hội thực hành giao tiếp. 

Vì vậy, nếu chúng ta ứng xử thô lỗ, tàn nhẫn, lạm dụng, quấy rối tình dục hoặc nói chuyện tục tĩu với những ‘máy móc’, ‘nhân vật ảo’ thì chúng ta trở nên mẫn cảm với loại hành vi đó và có thể khiến các thói quen xấu này trở nên phổ biến hơn trong các tương tác với người thật. 

Một số người nghĩ rằng mình có thể sử dụng chatbot hoặc máy móc như một nơi để trút giận không hại đến ai. Nhưng hãy xem lại. Ít nhất 40 năm nghiên cứu cho thấy việc trút giận, ngay cả vào một vật vô tri vô giác, cũng không thực sự làm giảm sự tức giận. Nó chỉ giúp con người diễn tập nó nhiều hơn.

Đó là lý do tại sao dạy trẻ cách tương tác với những thứ khác là đặc biệt quan trọng. Ta không nhất thiết phải bắt con mình nói ‘làm ơn’ và ‘cảm ơn’ với Siri, Alexa hoặc Google. Nhưng nếu chúng làm như vậy – củng cố các thói quen, thái độ, cách cư xử tốt – ngay cả với một đối tác nhân tạo thì đó thực sự là những kỹ năng quan trọng để thành công trong cuộc sống. 

Trao đi gởi lại

Nói chung, giữ thái độ lịch sự và nhân văn một cách nhất quán khi sử dụng ngôn ngữ tự nhiên sẽ là một thói quen tốt, bất kể thứ xử lý ngôn ngữ ở đầu bên kia có quan tâm hay nhận thức được điều đó hay không.

Tuy nhiên, cũng có một lý do khác để ta nên tỏ ra lịch sự với AI: Khi ta thực hành hành vi xã hội với AI, thì AI cũng làm như vậy với chúng ta. 

Trước đây có một bot cập nhật tình hình thời tiết rất cá tính tên là Poncho (nó đã bị mua lại và đóng cửa từ năm 2018). Bạn cũng có thể nói chuyện với nó về nhiều thứ như gu nhạc hoặc chuyện phiếm. Nhưng nếu bạn thô lỗ với Poncho, nó sẽ vạch trần bạn và yêu cầu xin lỗi. Và nếu bạn vẫn tiếp tục thô lỗ với Poncho, nó sẽ ngừng nói chuyện với bạn trong 24 giờ. Các nhà phát triển nói rằng phần mềm của Poncho gán cho bạn một loại “điểm tử tế” mà bạn không nhìn thấy, nhưng có thể ảnh hưởng đến mức độ dịch vụ bạn nhận được.

Ngày nay, ChatGPT nói rằng, “Các trợ lý AI thường được thiết kế để học hỏi từ các tương tác của chúng với con người, có nghĩa là chúng có thể điều chỉnh phản ứng và hành vi của mình dựa trên giọng điệu và ngôn ngữ của người dùng. Nếu bạn liên tục nói chuyện với trợ lý AI một cách thô lỗ hoặc hung hăng, có thể trợ lý sẽ bắt đầu phản ứng theo cách tương tự.” Và ai biết được, có thể ChatGPT hoặc những kẻ kế nhiệm của nó sẽ nhớ đến cách cư xử của bạn khi AI tiếp quản.

Kết lại, khi các bot/AI và con người học cách làm việc và quản lý lẫn nhau, có lẽ cách tiếp cận tốt nhất đơn giản chỉ là tử tế.

Trang Linh

Theo Boston Globe

(Bài đăng ở Báo Khoa học và Phát triển số 45)

Tác giả