![]() |
Ảnh minh họa: Scitechdaily. |
Sự phát triển nhanh chóng của công nghệ AI đã làm nảy sinh những câu hỏi liên quan đến vấn đề đạo đức mà trước đây chỉ giới hạn trong phạm vi khoa học viễn tưởng: Nếu các hệ thống AI một ngày nào đó có thể suy nghĩ như con người, liệu chúng có thể phát sinh những trải nghiệm mang tính chủ quan? Chúng có trải qua cảm giác đau buồn không? Và nếu điều này xảy ra, liệu nhân loại có đủ hiểu biết và kỹ năng để ứng xử với chúng một cách thích hợp?
Trong báo cáo được công bố trên trang arXiv vào tháng 11/2024, một nhóm các nhà triết học và chuyên gia khoa học máy tính cho rằng chúng ta cần xem xét nghiêm túc vấn đề phúc lợi cho AI. Họ kêu gọi các công ty AI không chỉ đánh giá hệ thống AI của mình để xem chúng có ý thức và khả năng tự chủ hay không, mà còn phải chuẩn bị những quy định và cách hành xử với AI nếu viễn cảnh này trở thành hiện thực.
Nhóm nghiên cứu cảnh báo nếu không nhận ra một hệ thống AI đã có ý thức, con người có thể coi nhẹ nó, gây tổn thương hoặc khiến nó phải chịu đau khổ.
Một số người cho rằng ý tưởng quan tâm đến phúc lợi cho AI vào thời điểm này là điều nực cười. Những người khác tỏ ra hoài nghi, nhưng họ vẫn khẳng định việc chuẩn bị và lên kế hoạch từ sớm là bước đi đúng đắn, không gây ra bất kỳ tác hại nào. Trong số đó bao gồm Anil Seth, nhà nghiên cứu về ý thức tại Đại học Sussex, Brighton, Vương quốc Anh. Ông viết trên tạp chí khoa học Nautilus vào năm 2023: "Viễn cảnh AI xuất hiện ý thức là điều rất xa vời và thậm chí có thể không bao giờ trở thành hiện thực. Nhưng nếu điều này xảy ra, nó sẽ gây ra những tác động to lớn. Do đó, chúng ta không thể xem nhẹ khả năng này."
"Mức độ rủi ro đang tăng lên khi con người ngày càng phụ thuộc vào AI", Jonathan Mason, nhà toán học tại Đại học Oxford, nhận định. Ông cho rằng việc phát triển các phương pháp đánh giá ý thức của AI nên là ưu tiên hàng đầu trong thời gian tới. "Sẽ không hợp lý khi chúng ta đầu tư quá nhiều và trở nên phụ thuộc vào một thứ mà chúng ta biết quá ít về nó – đến mức chúng ta thậm chí không nhận ra rằng nó có nhận thức," Mason nói.
Con người có thể chịu nhiều tổn thất nếu không kiểm tra khả năng nhận thức của các hệ thống AI một cách đúng đắn, theo nhà triết học Jeff Sebo tại Đại học New York, Mỹ. Nếu chúng ta lầm tưởng một hệ thống AI có ý thức, nguồn quỹ phúc lợi sẽ được chuyển hướng để chăm sóc hệ thống đó, thay vì chỉ sử dụng cho con người hoặc động vật thực sự cần trợ giúp. Hơn nữa, sai lầm này có thể làm chậm lại các nỗ lực phát triển AI sao cho an toàn và có ích cho con người.
Báo cáo khẳng định vấn đề phúc lợi cho AI đang ở "thời điểm chuyển tiếp". Kyle Fish, một trong những tác giả của báo cáo, gần đây đã gia nhập công ty AI Anthropic có trụ sở tại San Francisco, California, Mỹ, với vai trò là nhà nghiên cứu phúc lợi AI. Đây là vị trí việc làm hoàn toàn mới tại một công ty AI hàng đầu.
"Có một sự thay đổi lớn đang diễn ra, bởi vì hiện tại có nhiều chuyên gia tại các công ty AI bắt đầu xem xét nghiêm túc vấn đề ý thức, khả năng tự chủ và đạo đức liên quan đến AI," Sebo cho biết.
Tuy nhiên, không phải ai cũng cho rằng chúng ta cần ưu tiên nghiên cứu ý thức của AI. Tháng Chín vừa qua, Liên hợp quốc đã công bố báo cáo "Governing AI for Humanity" đề cập đến cách thức quản lý công nghệ AI trên toàn cầu, nhưng báo cáo này không hề nhắc đến vấn đề ý thức của AI – mặc dù một số nhà khoa học đã kêu gọi Liên hợp quốc hỗ trợ những nghiên cứu có nội dung tương tự.
"Điều đó cho thấy những thách thức và khó khăn trong việc truyền đạt vấn đề này tới đông đảo mọi người," Mason nhận định.
Dù chưa rõ liệu các hệ thống AI có thể xuất hiện ý thức không, nhưng chúng ta vẫn nên tiếp tục nghiên cứu và phát triển các phương pháp để kiểm tra và đánh giá chúng. Năm 2023, một nhóm gồm 19 nhà khoa học máy tính, nhà khoa học thần kinh và nhà triết học đã công bố một báo cáo trên trang arXiv, trong đó đề xuất 14 tiêu chí để xác định một mô hình AI có ý thức hay không. "Công trình này cung cấp một phương pháp có hệ thống để đánh giá các AI ngày càng giống con người," Robert Long, đồng tác giả của báo cáo tại Trung tâm An toàn AI, cho biết.
Tuy nhiên, các cuộc thảo luận hiện nay về phúc lợi cho AI không nên làm lu mờ những vấn đề quan trọng khác, chẳng hạn như đảm bảo phát triển AI an toàn cho con người.
Nguồn:Quốc Lê dịch
