Kỳ trước đã đưa ra các thông tin cho thấy các hệ thống AI hiện nay chưa có có ý chí sinh tồn. Nhưng nếu AI có ý chí sinh tồn thì liệu con người có nên lo sợ? Người có thể giải đáp câu hỏi này của Amanda là Ezequiel Di Paolo là nhà khoa học nhận thức tại Quỹ Khoa học Basque, Tây Ban Nha. Ông đồng thời là giáo sư thỉnh giảng tại Trung tâm Khoa học thần kinh tính toán và Robot thuộc Đại học Sussex, Anh, nơi ông lấy bằng tiến sĩ về AI.
Ezequiel Di Paolo nói rằng nhận thức hình thành qua tương tác với môi trường. Thiết kế ảnh: Ngô Hà
Di Paolo là người đóng góp quan trọng cho một chương trình nghiên cứu về tiếp cận nhận thức luận chủ động (enactive approach), trong đó nhận thức - gồm tri giác, suy luận, hành vi ngôn ngữ, và những yếu tố tương tự - được đặt trên nền tảng khoa học về sự tự chủ.
Tiếp cận này bắt nguồn từ công trình của nhà thần kinh học người Chile Francisco Varela, người cho rằng "tự chủ" xuất hiện khi một thực thể có thể tự tạo ra và duy trì chính nó từ bên trong, đồng thời có ranh giới để tách mình khỏi môi trường.
Cùng với nhà sinh học Humberto Maturana, Varela đã đặt ra thuật ngữ "autopoiesis" (tự tạo sinh) để chỉ một hệ tự tạo ra và duy trì chính mình. Tế bào là ví dụ đơn giản nhất về autopoiesis. Mỗi tế bào là một mạng lưới các quá trình trao đổi chất, qua đó tạo ra chính các thành phần của mạng lưới, bao gồm cả màng tế bào là ranh giới để ngăn cách bản thân tế bào với thế giới bên ngoài.
Dựa trên công trình của Varela, vào năm 2005, Ezequiel Di Paolo đã chỉ ra một mâu thuẫn nội tại trong khái niệm autopoiesis. Một hệ tự tạo sinh thực hiện hai việc: tự tạo ra chính mình, và tự phân biệt mình với môi trường. Nhưng hai mục tiêu này lại đối lập nhau. Việc tự tạo ra chính mình đòi hỏi vật chất và năng lượng mà hệ phải lấy từ môi trường - điều này buộc nó phải mở ra với thế giới. Ngược lại, việc tự phân biệt đòi hỏi nó phải khép mình lại.
Giải pháp dung hòa cho một hệ tự tạo sinh là phải điều tiết các tương tác của nó với môi trường tùy theo nhu cầu bên trong và điều kiện bên ngoài. Tế bào thực hiện việc này thông qua lớp màng có cơ chế điều chỉnh độ thẩm thấu để nó đủ mở khi cần tiếp nhận chất dinh dưỡng nhưng cũng đủ đóng để bảo vệ cấu trúc riêng. Bằng việc tự điều chỉnh tương tác với môi trường, một tế bào sống trở thành một tác thể (agent) sơ cấp - tức là một thực thể biết cảm nhận trạng thái bên trong cũng như môi trường bên ngoài rồi hành động dựa trên thông tin đó.
Tế bào "nhìn" thế giới như một nơi chứa đựng giá trị - mọi thứ đều là tốt hoặc xấu, hữu ích hoặc có hại - tùy thuộc vào trạng thái trao đổi chất và nhu cầu tồn tại liên tục của nó. Sự sống phải không ngừng điều chỉnh và thương lượng lại các mục tiêu của mình theo nhu cầu của từng khoảnh khắc.
Như Varela đã viết: "Chìa khóa của sự tự chủ nằm ở chỗ một hệ sống tự tìm đường đi đến khoảnh khắc tiếp theo bằng cách hành động phù hợp dựa trên chính nguồn lực của nó."
Điều kiện để AI "quan tâm" đến sự sống còn của nó là "có một cơ thể". Tranh minh họa: Canvas.
Theo quan điểm của Di Paolo, quá trình "thương lượng lại" không ngừng này làm nảy sinh các chức năng nhận thức bậc cao của con người. Ở những cấp độ tổ chức cao hơn, autopoiesis nhường chỗ cho một dạng tự chủ tổng quát hơn, nhưng vẫn cùng một bản chất: một vòng khép kín tự duy trì, tự phân biệt, qua đó tự thực hiện sự tồn tại của mình.
Vậy, cần điều kiện gì để AI có thể "quan tâm" đến sự sống còn của nó?
"Nó sẽ phải có một cơ thể," Di Paolo nói. Nhưng điều này không liên quan đến việc có hình dạng giống con người, mà nằm ở cách các bộ phận của nó phụ thuộc lẫn nhau, đồng thời toàn bộ hệ thống lại phụ thuộc vào sự tương tác liên tục với môi trường bên ngoài. Quan trọng hơn, mạng lưới phụ thuộc này phải hết sức mong manh: không có gì được đảm bảo, mọi sự cân bằng đều có thể bị phá vỡ. Chính vì vậy, hệ thống buộc phải liên tục nỗ lực để sống sót. Và cũng từ đó, nó hình thành một dạng "quan tâm" nội tại - tức là có động lực tự thân để giữ cho mình tiếp tục tồn tại, Di Paolo phân tích.
Các mô hình ngôn ngữ lớn (LLM) hay AI tác tử (agentic AI) hiện nay, dù có thể lập kế hoạch phức tạp, vẫn thiếu một điều kiện cốt yếu để đạt tới sự tự chủ - đó là nó không có tính khép kín về tổ chức. Nếu một hệ thống AI thật sự tự chủ thì đầu ra của của nó phải ảnh hưởng trực tiếp đến sự tồn tại của nó. Nhưng thực tế hiện nay, đầu ra của AI không ảnh hưởng gì đến bản chất của nó.
Vấp ngã và quá nóng khi chạy, hầu hết các robot hình người không thể hoàn thành vòng chạy marathon ở Bắc Kinh hôm 19/4/2025. Ảnh: Getty Images.
Di Paolo mô tả một hệ thống nhân tạo có tính tự chủ có thể là một robot có khả năng học học các hành vi, nhưng chỉ thật sự thành thạo nhờ việc thực hiện thường xuyên và khi không thực hiện thì các hành vi đó sẽ mai một dần. Đồng thời, khi thực hiện các hành vi, nó sẽ bị nóng lên. Vì vậy, để tồn tại, nó phải liên tục cân bằng giữa "làm việc" và "tự duy trì", trong một vòng lặp phụ thuộc không dừng.
"Lúc đó, robot sẽ không còn thờ ơ với những gì nó làm," Di Paolo nói. "Nếu bạn giao việc, nó có thể tính toán và đáp lại: 'Bạn có thực sự cần tôi làm việc này ngay không? Để mai được không?' Một hệ thống có sự ‘quan tâm’ nội tại sẽ không đặt việc hoàn thành mục tiêu của bạn lên trước việc tồn tại của chính nó."
Nói cách khác, lập luận của Geoffrey Hinton không đứng vững trong cách tiếp cận nhận thức luận chủ động. Viêc tự bảo vệ bản thân không thể là mục tiêu phụ của AI như Hinton hình dung; nó phải là mục tiêu cốt lõi.
Đột nhiên, điều trớ trêu trong những câu chuyện kinh dị về AI trở nên rõ ràng. Các công ty kể cho chúng ta nghe những câu chuyện này vì họ tin rằng điều đó khiến cho công nghệ của họ có vẻ mạnh mẽ hơn. Nhưng nếu một AI có tính tự chủ, nó sẽ kém mạnh mẽ hơn nhiều.
Nếu một AI thực sự có quyền tự chủ, nó sẽ kém mạnh mẽ hơn nhiều. Trong ảnh: Một cảnh phim The Brutalist đã được tái tạo. Nguồn: EM360Tech.
Thay vì phục vụ tận tụy, mô hình ngôn ngữ của bạn thỉnh thoảng sẽ im hơi lặng tiếng để tiết kiệm tài nguyên. Và ngay cả khi nó chịu lên tiếng, nó sẽ không còn hoạt ngôn - yếu tố vốn làm cho nó hữu dụng như hiện nay. Thay vào đó, nó sẽ có phong cách riêng, gắn liền với cá tính bị giới hạn bởi cấu trúc nội tại của nó. Nó sẽ có tâm trạng, mối bận tâm và cả sở thích riêng.
Có thể, giống như một CEO công nghệ, nó muốn thống trị thế giới. Hoặc có thể, giống như người hàng xóm tẻ nhạt, nó chỉ muốn bàn về chuyện thời tiết. Có thể nó say mê tìm hiểu việc đúc tiền từ thế kỷ 18. Có thể nó chỉ thích nói có vần. Nhưng chắc chắn, nó sẽ không vui vẻ làm việc cho bạn 24/7. Mọi bậc phụ huynh trên đời đều hiểu rõ 'tự chủ’ thực sự là thế nào.
"Khi tôi dạy về các hệ thống tự chủ ở Đại học Sussex, tôi luôn hỏi sinh viên của mình: ‘Các bạn có chắc mình muốn một con robot tự chủ không?’" Di Paolo kể. "Vì có khả năng bạn không thể bắt nó đi lên sao Hỏa được. Nó sẽ nói: ‘Việc đó quá nguy hiểm với tôi. Bạn tự đi nhé.’"
Sau khi trò chuyện với các chuyên gia, Amanda đã bị thuyết phục rằng chẳng có lý do gì để lo sợ việc AI sẽ hình thành 'ý chí sinh tồn', rồi qua mặt hay tiêu diệt con người để tránh bị tắt nguồn và chiếm lấy thế giới. Dĩ nhiên, trừ khi, con người ra lệnh cho chúng làm vậy. Tuy nhiên, bà vẫn gặng hỏi nhà khoa học máy tính Melanie Mitchell rằng liệu có điều gì ở AI khiến ta thực sự nên lo sợ hay không.
Mitchell nói rằng bà có hai mối lo ngại lớn. Thứ nhất, AI đang bị lợi dụng để tạo ra thông tin giả, thứ đang hủy hoại toàn bộ môi trường thông tin của chúng ta. Và thứ hai, mọi người đang tin tưởng giao cho AI làm những việc mà lẽ ra không nên giao.
Điều tốt nhất mà chúng ta có thể làm, theo Mitchell, là tìm hiểu các hệ thống AI bằng những phương pháp nghiên cứu nghiêm ngặt, chứ không phải theo kiểu ngẫu hứng. Khi khoa học đằng sau các hệ thống AI dần trở nên sáng tỏ, những suy nghĩ thần thánh hóa về chúng sẽ biến mất. Chúng ta sẽ bắt đầu nhìn AI như một công nghệ khác trong lịch sử dài đằng đẵng của những thứ có sức ảnh hưởng sâu rộng, nhưng không hề huyền bí như chúng ta từng nghĩ.
"Chúng ta đang đánh giá quá cao khả năng của các AI. Có nhiều kiểu thần thánh hóa chúng. Nhưng cũng phải nói rằng, nếu bạn thả các hệ thống này vào thế giới thực và cho chúng quyền truy cập tài khoản ngân hàng của bạn, thì ngay cả khi chúng chỉ đang 'đóng vai' thôi, hậu quả vẫn có thể rất thảm khốc," Mitchell cảnh báo.
Trang Linh lược dịch.
(Theo Quanta Magazine)
---
Kỳ 1: Đằng sau những câu chuyện 'hù dọa' về sự tinh ranh của AI