Kể từ khi các mô hình ngôn ngữ lớn trở nên phổ biến, những câu hỏi nghi vấn về việc ai đó có sử dụng AI để viết hay không cũng được đặt ra thường trực. Ảnh minh họa: Mỹ Hạnh
Năm 2024, Elon Musk khởi kiện OpenAI, cho rằng công ty này đã đi chệch sứ mệnh ban đầu là phát triển AI vì lợi ích nhân loại. Trong các phát biểu công khai, Musk nhiều lần cảnh báo về nguy cơ AI vượt khỏi tầm kiểm soát và thường dùng hình ảnh từ bộ phim The Terminator ("Kẻ hủy diệt") để minh họa kịch bản AI gây thảm họa cho loài người.
Câu nói nổi tiếng của Elon Musk trong phiên tòa, "Chúng ta không muốn lặp lại thảm họa như trong phim Kẻ hủy diệt", hóa ra lại rất giống các màn "bóc phốt" ồn ào của giới văn chương - học thuật trên mạng về việc ai đó âm thầm dùng AI trong các sản phẩm của mình. Quả thật, xã hội ngàn năm nay luôn cần một người đứng canh điều chưa hiểu.
Cẩm nang săn phù thủy thời Trung cổ
Năm 1484, Giáo hoàng Innocent VIII ban hành sắc lệnh Summis desiderantes affectibus - văn bản đặt nền tảng pháp lý cho việc săn lùng phù thủy trên toàn châu Âu.
Hai năm sau, hai tu sĩ dòng Đa Minh xuất bản Malleus Maleficarum (tựa tiếng Việt là Búa phù thủy) - cẩm nang hướng dẫn nhận diện, thẩm vấn và xử lý phù thủy. Cuốn sách trở thành bestseller suốt ba thế kỷ, chỉ sau Kinh Thánh về số lần tái bản.
Điều hấp dẫn của Búa phù thủy nằm ở chỗ nó cực kỳ hệ thống: có bảng phân loại các nhóm phù thủy; danh mục các dấu hiệu nhận diện; quy trình thẩm vấn và khung pháp lý xét xử. Không phải mê tín, Búa phù thủy là cách quản trị rủi ro của thời đại đó, được viết bằng ngôn ngữ quyền lực nhất mà thế kỷ XV có thể huy động: thần học và luật pháp.
Bốn trăm năm sau, các công ty Fortune 500 đang rầm rộ tuyển dụng một chức danh mới: AI ethics officer - chuyên viên về các vấn đề đạo đức liên quan đến trí tuệ nhân tạo. Mô tả công việc gồm xây dựng khung đánh giá rủi ro AI, thiết kế danh mục kiểm tra sự thiên kiến (bias) và khả năng ảo giác hóa (hallucination) trong mô hình; xây dựng quy trình quản trị cho hệ thống tự động; đảm bảo AI hoạt động trong khuôn khổ pháp lý và đạo đức.
Tôi đọc hai văn bản đó cạnh nhau và nhận ra: nhân loại đang lặp lại cùng một vở kịch, chỉ thay đổi trang phục.
Cơn hoảng loạn đạo đức tập thể
Ngành nhân học có một khái niệm rất thời thượng: moral panic - thái độ hoảng sợ hoặc phản ứng thái quá trước một hiện tượng bị xem là đe dọa đến các giá trị đạo đức, văn hóa hay trật tự xã hội, dù mức độ nguy hiểm thực tế có thể không lớn như vậy. Nó xảy ra khi xã hội đối mặt với điều gì đó mà họ chưa có ngôn ngữ để mô tả, chưa có công cụ để kiểm soát, và chưa có thiết chế để quản lý.
Phù thủy xuất hiện đúng vào lúc châu Âu đang trải qua Cái chết đen - dịch hạch xóa sổ một phần ba dân số. Bệnh dịch không có lời giải thích. Cái chết không có nguyên nhân. Và khi sự kinh hoàng không có địa chỉ, xã hội sẽ tạo ra nó: phù thủy. Phù thủy là câu trả lời được đóng gói gọn ghẽ cho vấn đề mà y học đương thời không thể trả lời.
Thợ săn phù thủy, từ góc nhìn đó, không phải kẻ xấu xa. Họ là người cung cấp ý nghĩa trong một bối cảnh mà sự hỗn loạn vượt quá khả năng nhận thức tập thể. Họ nhận ra nỗi sợ, cho nó một cái tên, một hình hài, một cơ chế xử lý - và vì thế, họ được trao quyền lực.
Ở châu Âu thế kỷ XV, đó là Tòa án dị giáo. Ở thung lũng Silicon thế kỷ XXI, đó là AI Safety community. Và ai cũng có sứ mệnh lịch sử của mình.
"Định nghĩa mờ" về phù thủy AI
AI ethics/AI safety ở góc nhìn tiêu cực, có thể là một loại săn phù thủy kiểu mới, được các công ty lớn sử dụng để kiểm soát đối thủ như luận điểm của Elon Musk trong vụ kiện OpenAI.
Nhưng xã hội luôn cần những người gác đền như vậy - những người đứng ở ranh giới giữa điều đã biết và điều chưa biết, định nghĩa rủi ro, thiết lập ngưỡng, xây dựng lớp đệm giữa công nghệ và tác hại. Từ góc này, thợ săn phù thủy và AI ethics officer cùng có một chức năng xã hội thiết yếu.
Tôi tin rằng cả hai chiều đều đúng - chính sự căng thẳng giữa hai chiều đó mới là điều đáng suy nghĩ.
Thợ săn phù thủy phát huy được quyền lực của họ không phải vì sức mạnh - mà vì họ kiểm soát định nghĩa. Ai là phù thủy? Người chữa bệnh bằng thảo mộc. Người sống một mình. Người bị hàng xóm không ưa. Người có con mèo đen. Định nghĩa "nguy hiểm" rộng đến mức gần như bất kỳ ai cũng có thể bị quy vào - và điều đó trao cho thợ săn quyền lực gần như tuyệt đối.
AI bây giờ cũng vậy. Ai định nghĩa AI nào là "an toàn"? Ai quyết định "thiên kiến" là gì và đo như thế nào? Ai thiết lập ngưỡng "rủi ro được chấp nhận"? Ai ngồi trong các ủy ban quản trị AI quốc tế? Phần lớn là một nhóm nhỏ học giả từ các đại học tinh hoa phương Tây, một số kỹ sư từ big tech, và một nhóm think tank được tài trợ bởi chính các công ty đó.
Mọi cổ mẫu (archetype) trong xã hội - từ thầy mo, thợ săn phù thủy, ma búp bê đến AI ethics officer... - đều phục vụ cùng một nhu cầu: làm cho điều không kiểm soát được trở nên có vẻ kiểm soát được. Đây là nhu cầu sinh tồn của cộng đồng. Con người cần ai đó đứng ở ranh giới và nói: "Tôi đang canh, chúng ta an toàn". Vấn đề là họ đứng canh cái gì, cho ai, và với quyền lực được kiểm soát như thế nào.
Thợ săn phù thủy đứng canh quyền lực của Giáo hội và giới quý tộc, dùng nỗi sợ của dân thường làm nhiên liệu. AI Ethics Officer - ở phiên bản lý tưởng - đứng canh cho những người không có tiếng nói trong phòng thiết kế: người dùng nghèo, phụ nữ thiểu số, người lao động phổ thông, người sẽ bị ảnh hưởng nhưng không được hỏi ý kiến.
Liệu phiên bản lý tưởng đó có trở thành thực tế hay không - đó không chỉ là câu hỏi kỹ thuật. Và câu trả lời sẽ phụ thuộc vào việc ai đứng trong phòng thiết kế, ai bị loại ra ngoài, và ai đang trả lương cho người đứng canh.