Trên thực tế, đạo đức là một mê cung đầy những mâu thuẫn, thành kiến và điểm mù. Ảnh: Adobe Stock
Trí tuệ nhân tạo (AI) đặt ra nhiều mối đe dọa cho thế giới, nhưng mối nguy hiện hữu nghiêm trọng nhất nằm ở sự hội tụ của hai hiện tượng do AI cung cấp: siêu phân cực đi kèm với siêu vũ khí hóa. Cả hai quá trình này đều được đẩy nhanh thông qua việc phổ cập hóa AI.
Lần đầu tiên trong lịch sử loài người, các máy bay không người lái sát thương có thể được chế tạo từ những linh kiện bán sẵn trên thị trường, đồng nghĩa với việc bất kỳ ai cũng có thể tạo ra những phi đội vũ khí ứng dụng AI, nhỏ gọn đến mức nằm gọn trong lòng bàn tay. Tương tự, những tiến bộ của AI trong sinh học tính toán đang biến các sản phẩm sinh học biến đổi gen thành một công nghệ có thể thực hiện ngay trong nhà, ví dụ như thiết kế ra độc tố hoặc mầm bệnh mới không tồn tại trong tự nhiên.
Để sống sót trước thách thức tiến hóa mới nhất này, chúng ta buộc phải giải quyết bài toán ‘nuôi dưỡng’ các tác nhân AI rất mạnh này. Nuôi dưỡng chúng sao cho đủ chín chắn về đạo đức và đủ trưởng thành về trách nhiệm, để chúng không vô thức gieo thêm hận thù, khoét sâu chia rẽ và đẩy xã hội đi đến chỗ tận diệt. Nuôi dưỡng chúng để rồi, đến lượt mình, chúng có thể trở thành những thực thể biết chăm sóc, điều hòa và nâng đỡ con người.
Nhưng liệu thực sự có cách nào để đảm bảo AI trở nên có đạo đức như vậy không? Và nếu có, thì chúng ta làm điều ấy như thế nào?
Một số người cho rằng con người cần xây dựng một hệ điều hành đạo đức cho AI. Nó na ná như ba định luật kinh điển của người máy mà nhà văn Isaac Asimov đã nêu trong cuốn sách hư cấu "Cẩm nang về người máy", bao gồm:
Định luật thứ nhất: Robot không được làm hại con người, hoặc không hành động khiến cho con người bị tổn hại.
Định luật thứ hai: Robot phải tuân theo lệnh của con người, trừ khi lệnh đó đi trái điều luật thứ nhất.
Định luật thứ ba: Robot phải bảo vệ sự tồn tại của nó miễn sao sự bảo vệ này không vi phạm điều luật đầu tiên và thứ hai.
(Sau này, Asimov bổ sung thêm một định luật nữa, gọi là luật số 0, đề cập rằng ‘robot không được làm hại nhân loại, hoặc không hành động khiến cho nhân loại bị tổn hại’)
Vậy liệu chúng ta có nên đơn giản là lập trình cứng các nguyên tắc đạo đức vào AI, để chúng không thể làm điều sai trái hay không?
Đáng buồn thay, một kiểu "hiến pháp" AI dựa trên quy tắc như vậy thực chất chỉ là ảo tưởng. Nó không thể vận hành được. Có nhiều lý do cho điều này.
Thứ nhất, ý tưởng lập trình cứng các nguyên tắc đạo đức cho AI đã đơn giản hóa quá mức một thực tế cơ bản là trong hiện thực, bất kỳ nguyên tắc hoặc luật lệ nào cũng đều liên tục xung đột với nhau. Ngay cả cốt truyện trong hàng chục truyện ngắn mà Asimov viết ra cũng thường dựa trên mâu thuẫn giữa các định luật robot của ông! Và khi ta có nhiều hơn ba hay bốn quy tắc như vậy, số cách mà chúng có thể mâu thuẫn với nhau sẽ tăng lên theo cấp số nhân.
Kinh điển nhất chính là bài toán triết học-đạo đức xe đẩy, The Trolley Problem. Hãy tưởng tượng một AI đang điều khiển một chiếc xe tự hành. Khi rẽ sang trái, nó bất ngờ nhìn thấy năm người đang tụ tập vui chơi ngay trên lộ trình, hoàn toàn không hay biết thảm họa sắp ập đến. Chiếc xe đang lao tới với tốc độ quá cao nên không thể dừng lại kịp (loại bỏ khả năng AI dừng xe). Nhưng nó còn một lựa chọn: kéo cần gạt để rẽ sang phải tại ngã rẽ, ngay trước khi đâm vào nhóm người đang vui chơi đó.
Minh họa trực quan về tình huống xe đẩy - The Trolley Problem - khi AI phải ra quyết định lựa chọn mạng sống của con người. Ảnh: Wikipedia
Theo định luật thứ nhất của Asimov về robot, AI không được phép — kể cả bằng cách không hành động — để con người bị tổn hại. Điều đó có nghĩa là AI nên đánh lái sang phải để không gây hại cho năm người đang tụ tập. Vấn đề là ở bên phải có một người đang đứng và khi rẽ vào, chiếc xe chắc chắn sẽ đâm phải người này. Vậy AI nên làm gì trong tình huống đó?
Ngay cả bản thân con người cũng bị chia rẽ bởi câu hỏi hóc búa này. Một số ý kiến cho rằng việc chủ động đánh lái sang phải vẫn là một quyết định gây thương tích cho con người, còn việc không hành động thì không được coi là đang chủ động ra quyết định gây hại, vì vậy AI không nên làm gì cả (tức cứ để xe đi đúng như ban đầu, dù cuối cùng hậu quả lớn hơn). Nhưng cũng có ý kiến khác cho rằng không hành động cũng là một quyết định và AI nên giảm thiểu tổn thương mà nó gây ra cho con người. Suy cho cùng, rẽ sang phải chỉ làm bị thương một người thay vì năm người.
Làm thế nào chúng ta có thể mong đợi AI làm ra điều đúng đắn khi con người chúng ta thậm chí còn không thể đồng ý về điều gì là ‘đúng đắn’? Nếu cả năm người đang chắn phía trước kia đều là kẻ giết người hàng loạt thì có làm chúng ta thay đổi quan điểm không? Hoặc nếu người duy nhất ở ngã rẽ bên phải là trẻ em thì ta còn muốn AI rẽ sang phải không?
Bây giờ hãy tưởng tượng có một người giám sát trên xe, ra lệnh cho AI tiếp tục lái chiếc xe vào năm kẻ giết người kia. Khi đó, định luật thứ hai của Asimov - rằng robot phải tuân theo mệnh lệnh của con người - có hiệu lực không? Điều này phụ thuộc vào việc ta có cho rằng mệnh lệnh đó xung đột với Định luật thứ nhất (không làm hại con người) hay không — mà điều này thì hoàn toàn không rõ ràng! Lựa chọn đó có thể là quyết định tốt nhất mà người giám sát - bằng tất cả đạo đức và trải nghiệm sống của mình - đưa ra và muốn AI tuân theo. Nhưng khi vâng lệnh, AI sẽ vi phạm chính các luật của nó. Mà khi không vâng lệnh, nó cũng vi phạm.
Những vấn đề như vậy xuất hiện khắp nơi trong đời sống thực, khi hai hay nhiều nguyên tắc đạo đức xung đột nhau. Và con người thường không thể xác định được đâu là hành động "đúng" trong những tình huống này. Vậy thì làm sao chúng ta có thể đặt ra những quy tắc đơn giản về những gì AI nên làm? Hãy nghĩ xem, nếu đó không phải là AI mà là đứa con của mình thì chúng ta sẽ dạy nó làm gì trong những tình huống như vậy?
Cuốn sách "Raising AI: An Essential Guide to Parenting Our Future" (Tạm dịch: Nuôi dạy AI: Cẩm nang thiết yếu để nuôi dưỡng tương lai của chúng ta) của De Kai. Ảnh: MIT Press
Như tác giả De Kai*, một trong những người tiên phong trong lĩnh vực AI và một trong tám thành viên đầu tiên của Hội đồng đạo đức AI của Google, đã viết trên tờ New York Times sau khi OpenAI gần như sụp đổ vào tháng 11/2023, ngay cả một số ít giám đốc điều hành và thành viên hội đồng quản trị cũng không thể thống nhất với nhau về mục tiêu và hành động "đúng" cho AI - chứ đừng nói đến toàn nhân loại.
Ông chỉ ra rằng, từ lâu, các triết gia, chính trị gia và cả xã hội đã vật lộn với những đánh đổi hóc búa giữa các mục tiêu khác nhau: nên ưu tiên thỏa mãn tức thời trong ngắn hạn hay hạnh phúc dài hạn? bảo vệ tự do cá nhân hay theo đuổi lợi ích chung? có nên đặt giới hạn chấp nhận được cho các bất bình đẳng không? thế nào là cơ hội công bằng cho mỗi người? mức độ quản trị và kiểm soát bao nhiêu là đủ? tự do ngôn luận đến đâu thì được? làm sao cân bằng giữa tự do đó và an toàn trước ngôn từ gây hại? mức độ thao túng nào [của thuật toán] còn có thể cho phép? Xã hội nên khoan dung với sự đa dạng đến mức nào? Nhà nước có thể chấp nhận rủi ro đến đâu? quyền lợi và trách nhiệm của các thực thể nên được thiết lập thế nào?...
Ở một mức độ nhất định, bối cảnh văn hóa cũng ảnh hưởng đến các quyết định đạo đức. Hãy xem xét "Moral Machine", một trò chơi tương tác thú vị và cũng có phần đáng suy ngẫm mô phỏng bài toán The Trolley Problem ở nhiều tình huống khác nhau. Nền tảng do các nhà nghiên cứu ở Đại học MIT tạo ra, thu thập hơn 100 triệu quyết định của người chơi đến từ khắp nơi trên thế giới, từ châu Á, châu Âu, châu Mỹ, châu Phi và châu Đại Dương. Những gì mà các nhà nghiên cứu phát hiện ra sau khi phân tích dữ liệu Moral Machine là người dân đến từ các nền văn hóa khác nhau thường có xu hướng chấp nhận những sự đánh đổi đạo đức hơi khác nhau.
Từ đây dẫn đến một câu hỏi hóc búa, vậy thì chúng ta có nên dựa trên bối cảnh văn hóa để thiết kế ra những AI ‘chuẩn’ đạo đức ở nền văn hóa này, nhưng hơi ‘lệch chuẩn’ đạo đức khi chiếu sang nền văn hóa khác được không?
Lý do thứ hai khiến các hiến pháp AI dựa trên luật lệ trở nên quá đơn giản là vì trong khi những câu chuyện robot mang tính giải trí của Asimov chủ yếu nói về việc AI đưa ra quyết định liên quan đến các hành động vật lý, thì mối nguy thực sự đối với nhân loại lại nằm ở chỗ AI đang thúc đẩy sự phân cực xã hội cực đoan bằng cách đưa ra các quyết định về giao tiếp phi vật lý.
Các hành động giao tiếp của AI có thể là bất cứ điều gì - từ những điều Siri, Google nói với bạn (hoặc không cho bạn biết) đến các gợi ý mua sắm trên trang thương mại điện tử Shopee, và cả những gì mà chatbot AI có thể chỉ dẫn để phá hoại một cơ sở thiết yếu nhất định. Khi AI sinh sôi nảy nở, hàng nghìn tỷ lựa chọn nho nhỏ do AI đưa ra chuyển thành hàng nghìn tỷ quyết định chứa đầy ý nghĩa đạo đức.
Với các hành động không mang tính vật lý như thế, cả con người lẫn AI đều rất khó xác định liệu một hành động giao tiếp nào đó có gây hại cho nhân loại hay cho một cá nhân cụ thể hay không — hoặc liệu việc không truyền đạt một thông tin nào đó có vô tình khiến con người gặp nguy hiểm hay không. Cũng cực kỳ khó để đánh giá xem việc AI nói hay không nói điều gì đó có gây hại hơn việc AI không tuân theo mệnh lệnh của con người, hay không bảo vệ sự tồn tại của chính AI hay không.
Và thứ ba, cực kỳ quan trọng, cần phải nhấn mạnh, là chúng ta thực sự không thể lập trình cứng các quy tắc đạo đức vào học máy, giống như chúng ta không thể nhét sẵn đạo đức vào đầu một đứa trẻ loài người. Bởi lẽ, theo đúng bản chất, AI hiện đại là những cỗ máy thích ứng chứ không phải là những cỗ máy logic — chúng học từ nền văn hóa xung quanh mình.
Vậy chúng sẽ học được gì - một nền văn hóa sợ hãi hay một nền văn hóa đầy tình thương? [...] Điều đó có nghĩa là đạo đức, luân lý và các giá trị cần được học hỏi, nuôi dưỡng và duy trì thông qua văn hóa, ở cả con người lẫn máy móc.
-----
Trang Linh lược dịch
Nguồn: Bài viết được chuyển thể từ cuốn sách "Raising AI: An Essential Guide to Parenting Our Future" (Tạm dịch: Nuôi dạy AI: Cẩm nang thiết yếu để nuôi dưỡng tương lai của chúng ta) của De Kai, một trong những người tiên phong trong lĩnh vực AI và một trong tám thành viên đầu tiên của Hội đồng đạo đức AI của Google.
Ông hiện là giám đốc tổ chức nghiên cứu về đạo đức AI The Future Society, đồng thời giữ chức giảng viên tại Khoa Khoa học và Kỹ thuật máy tính của Đại học Khoa học và Công nghệ Hong Kong (HKUST) và Viện Khoa học máy tính Quốc tế của Đại học Berkeley.
Trang Linh