Quyết định thiên kiến của AI có thể dẫn tới thái độ thờ ơ với bất công xã hội

Chúng ta vẫn ít biết về việc tương tác với AI, nhận các quyết định do AI đưa ra thì ảnh hưởng như thế nào đến tương tác giữa người với người - ảnh hưởng như thế nào đến cách mọi người đối xử với nhau sau đó?

Trí tuệ nhân tạo (AI) đưa ra những quyết định quan trọng ảnh hưởng đến cuộc sống hàng ngày. AI đang được sử dụng ngày càng nhiều nhằm mang lại hiệu quả cao hơn trong nhiều hoạt động của đời sống, giúp sàng lọc và đưa ra các quyết định, lựa chọn, kể cả trong sàng lọc những người thụ hưởng các dịch vụ công.

Khi đảm nhận những nhiệm vụ đưa ra các quyết định, có nguy cơ AI đưa ra những quyết định bất công. Ví dụ, trong tuyển sinh đại học hoặc tuyển dụng, những quyết định tự động này có thể vô tình ưu ái một số nhóm người nhất định hoặc những người có một số lý lịch nhất định, trong một số ứng viên khác có trình độ tương đương có thể bị bỏ qua.

Hoặc, khi AI được sử dụng cho việc sàng lọc và đưa ra các quyết định trong hệ thống phúc lợi, cũng có thể phân bổ nguồn lực làm trầm trọng thêm bất bình đẳng xã hội, khiến một số người không được hưởng những gì đáng được hưởng và có cảm giác bị đối xử bất công.

Các hệ thống AI ngày càng được nhúng sâu hơn vào cuộc sống hàng ngày, và các chính phủ đang phải tìm các biện pháp để bảo vệ người dân khỏi các hệ thống AI thiên vị hoặc không minh bạch. Ví dụ về những nỗ lực này bao gồm các hướng dẫn về việc phát triển trí tuệ nhân tạo an toàn, Dự luật về trí tuệ nhân tạo của Mỹ và Đạo luật trí tuệ nhân tạo của Châu Âu. Những điều này phản ánh mối quan tâm chung: Mọi người có thể cảm thấy bị đối xử bất công trước các quyết định của AI.

Mặc dù vậy, chúng ta vẫn ít biết về việc tương tác với AI, nhận các quyết định do AI đưa ra thì ảnh hưởng như thế nào đến tương tác giữa người với người – ảnh hưởng như thế nào đến cách mọi người đối xử với nhau sau đó? Một nghiên cứu mới đây, được công bố trên tạp chí Cognition, đã bước đầu xem xét khi các quyết định bất công – kể cả do AI hay con người đưa ra – sẽ ảnh hưởng tới thái độ và hành động chống lại sự bất công như thế nào.

Thờ ơ với bất công

Hành động phản ứng với bất công trong xã hội là một yếu tố rất quan trọng để duy trì các chuẩn mực xã hội. Ví dụ, khi người tiêu dùng tố giác các hành vi phi đạo đức bất chấp rủi ro hoặc tẩy chay các công ty đang có cách hành xử thiếu trách nhiệm, có hại với cộng đồng, học sinh có thể cùng hành động để ngăn chặn bắt nạt. Việc các thành viên trong cộng đồng sẵn sàng chống lại sự bất công giúp giải quyết những bất công ảnh hưởng đến người khác, từ đó giúp củng cố và thực thi được các chuẩn mực (social norm) của cộng đồng.

Nghiên cứu này đã đặt ra câu hỏi: Liệu việc chịu đựng các quyết định bất công của AI chứ không phải của con người đưa ra thì có ảnh hưởng đến suy nghĩ, thái độ của mọi người trong việc phản ứng lại những bất công do con người gây ra không? Ví dụ, nếu AI đưa ra quyết định phân công ca làm việc kiểu thiên vị hoặc từ chối quyền lợi chính đáng, thì sau đó có khiến những người chịu đựng quyết định đó có xu hướng báo cáo hành vi phi đạo đức của đồng nghiệp như thế nào?

Sau các thí nghiệm, nhóm nghiên cứu nhận thấy rằng những người bị AI đối xử bất công ít có khả năng chống lại những người có hành vi sai trái hơn là những người chịu sự bất công do người khác gây ra. Dường như những người chịu quyết định thiên kiến của AI rơi vào một tình trạng mất cảm giác với hành vi xấu của người khác. Nhóm nghiên cứu gọi hiệu ứng này là sự thờ ơ do AI gây ra, để nhấn mạnh về việc đối xử bất công của AI có thể làm giảm ý thức trách nhiệm đối với người khác. Điều này khiến những người chịu bất công do AI gây ra ít có khả năng giải quyết những bất công trong cộng đồng.

Lý do thờ ơ?

Nhóm nghiên cứu lý giải, hiện tượng trên có thể là do mọi người ít đổ lỗi cho AI về quyết định thiên kiến và do đó cảm thấy ít có động lực để hành động chống lại sự bất công. Tình trạng này vẫn nhất quán ngay cả khi những người tham gia thí nghiệm chỉ gặp phải hành vi bất công của người khác hoặc cả hành vi công bằng và bất công. Để xác nhận xem thái độ này có bị ảnh hưởng do đã quen thuộc với AI hay không, nhóm nghiên cứu cũng tiến hành lại các thí nghiệm tương tự sau khi phát hành ChatGPT vào năm 2022. Nhóm đã thu được kết quả tương tự.

Những kết quả này cho thấy phản ứng của mọi người đối với sự bất công không chỉ phụ thuộc vào việc họ có được đối xử công bằng hay không mà còn phụ thuộc đối tượng ứng xử là AI hay con người.

Tóm lại, việc đối xử không công bằng của hệ thống AI có thể ảnh hưởng đến cách mọi người phản ứng với nhau, khiến họ ít chú ý đến hành động bất công. Nghiên cứu này cho thấy hiệu ứng lan tỏa tiềm tàng của AI trong xã hội – không chỉ dừng lại ở trải nghiệm của cá nhân về một quyết định bất công mà sẽ có ảnh hưởng tới cộng đồng.

Hệ quả của các quyết định bất công do các hệ thống AI đưa ra sẽ kéo dài đến các tương tác người với n gười trong tương lai, ảnh hưởng đến cách mọi người hành xử với nhau, ngay cả trong những tình huống không liên quan đến quyết định của AI. Do đó, nhóm nghiên cứu đề xuất, các nhà phát triển AI nên tránh sử dụng các dữ liệu thiên kiến để đào tạo AI nhằm phòng ngừa những hiệu ứng lan tỏa tiềm tàng này.

Các nhà hoạch định chính sách cũng nên thiết lập các tiêu chuẩn về tính minh bạch, yêu cầu các công ty nêu rõ AI có thể đưa ra quyết định không công bằng. Điều này sẽ giúp người dùng hiểu được những hạn chế của hệ thống AI và cách phản đối những kết quả không công bằng. Mọi người sẽ cảnh giác với việc có thể chịu các quyết định bất công khi tương tác với AI, khi nhận các quyết định do hệ thống AI đưa ra khi có nhận thức rõ về vấn đề này.

Phương Hoa dịch

Nguồn: AI-induced indifference: Unfair AI reduces prosociality, Cognition (2024). DOI: 10.1016/j.cognition.2024.105937

Tác giả

(Visited 83 times, 1 visits today)