Đạo đức AI chỉ là lời hứa suông ? 

Trong những năm gần đây, các công ty AI bị chỉ trích vì tạo ra các thuật toán học máy phân biệt đối xử với các nhóm yếu thế trong xã hội. Để ứng phó những cáo buộc đó, nhiều công ty cam kết sẽ đảm bảo sản phẩm của họ mang tính công bằng, minh bạch và có trách nhiệm. Nhưng nhiều người lo ngại rằng đây chỉ là những lời hứa suông.


Để kiểm chứng điều này, Sanna Ali, người vừa nhận bằng tiến sĩ Khoa Truyền thông của Trường Khoa học và Nhân văn thuộc Đại học Stanford đã phỏng vấn các nhân viên đảm nhiệm vấn đề đạo đức AI từ một số công ty lớn nhất trong lĩnh vực này. Cô đã báo cáo kết quả thu thập được trong kỷ yếu của Hội nghị ACM về Công bằng, Trách nhiệm giải trình và Minh bạch (FAccT ‘23).

Nghiên cứu cho thấy các sáng kiến và can thiệp đạo đức rất khó thực hiện trong môi trường thể chế của ngành công nghiệp AI. Các nhóm phần lớn thiếu nguồn lực và không được lãnh đạo hỗ trợ. Họ cũng không có đủ thẩm quyền để triển khai giải pháp khắc phục cho những vấn đề mà họ tìm ra. 

Ali đã phỏng vấn 25 người, trong đó có 21 người đang hoặc đã làm việc trong các “sáng kiến AI có trách nhiệm” tại một hoặc nhiều công ty với quy mô nhân viên từ 6.000 đến hàng trăm nghìn người. 

Từ những cuộc phỏng vấn, Ali đưa ra giả thuyết rằng các nhóm chịu trách nhiệm đảm bảo nguyên tắc đạo đức AI không được tham gia chặt chẽ vào quá trình phát triển sản phẩm. Cô so sánh những nhóm này như hiệu trưởng trường học, người đưa ra các tuyên bố chính sách giáo dục nhưng thường có ít quyền kiểm soát với những gì xảy ra trong lớp học của từng giáo viên.

Cô tiếp tục đưa ra giả thuyết, điều này sẽ khiến cho các nhóm đạo đức phải đứng ở vai trò “bán hàng” để bán các dịch vụ tư vấn đạo đức của mình cho những nhóm quản lý sản phẩm. Về bản chất, họ sẽ phải dựa trên nguồn lực của mình để xây dựng quan hệ với các nhà quản lý sản phẩm nhằm đi đến hợp tác trong việc đánh giá đạo đức sản phẩm. 

Từ những cuộc phỏng vấn, Ali đã xác minh được nhiều dự đoán của mình về môi trường thể chế và tác động dự kiến của chúng với các nhóm đạo đức. Vì nhiều lý do, sản phẩm được đưa ra mà không có ý kiến đóng góp của nhóm đạo đức. Đôi khi, một nhóm sản phẩm không muốn làm việc với nhóm đạo đức, và nhóm đạo đức không có cách nào buộc họ phải đánh giá đạo đức cho sản phẩm. 

Đôi khi nhóm đạo đức sẽ được mời cho ý kiến khi mà sản phẩm đã quá gần ngày ra mắt, và họ không có nhiều thẩm quyển để yêu cầu sửa đổi những vấn đề quan trọng liên quan đến đạo đức. Đôi khi các nhóm sản phẩm tin rằng những mục tiêu công bằng mà nhóm đạo đức đưa ra sẽ xung đột với các mục tiêu quan trọng khác. Có lúc, nhóm đạo đức sẽ yêu cầu người quản lý trì hoãn thời gian ra mắt sản phẩm để họ có thể sửa chữa các vấn đề vi phạm đạo đức, nhưng người quản lý đã từ chối yêu cầu.

“Vào những lúc như vậy, cần một người có nhiều thẩm quyền hơn nhân viên đạo đức lên tiếng. Nhưng điều đó không xảy ra bởi vì mọi người chỉ chăm chăm đến việc tung ra sản phẩm ngay lập tức”, Ali nói. 

Ali đề xuất một số giải pháp: Lãnh đạo nên khuyến khích các nhóm sản phẩm kết hợp những cân nhắc về đạo đức vào quy trình phát triển sản phẩm của mình; và công ty nên có sự hỗ trợ để trao quyền cho các nhóm đạo đức thực hiện các sửa chữa đạo đức cần thiết trước khi sản phẩm được ra mắt.

“Rất khó để các công ty giảm thiểu tần suất ra mắt sản phẩm mới”, Ali nhận định. “Nhưng ít nhất họ có thể đưa ra các quy định, trong đó ưu tiên đến vấn đề đạo đức ngay từ đầu”. □

Trang Linh dịch 

Nguồn: https://hai.stanford.edu/news/ethics-teams-tech-are-stymied-lack-support

Tác giả

(Visited 4 times, 1 visits today)