![]() |
Nghiên cứu mang tên "The Illusion of Thinking" (Ảo ảnh của Tư duy) vừa được công bố bởi một nhóm nhà khoa học tại Apple cho thấy, AI biết suy luận vẫn còn là một đích đến xa vời. Ảnh minh họa: Istock |
Trong những năm gần đây, thế giới công nghệ đã chứng kiến một cuộc cách mạng mang tên trí tuệ nhân tạo tạo sinh. Các ông lớn như OpenAI, Google và Anthropic liên tục tung ra những phiên bản AI mới. Cách đây khoảng hai năm, chúng ta đã kinh ngạc trước mô hình ngôn ngữ lớn (LLMs) giúp AI không chỉ trả lời gần như mọi câu hỏi của chúng ta như một người trợ lí thấu hiểu và đầy mẫn cán, mà có thể viết văn và làm thơ. Giờ đây, mô hình lập luận lớn (Large Reasoning Models – LRMs) ra đời, được quảng bá còn vượt xa hơn thế: AI không chỉ trả lời câu hỏi mà còn dẫn dắt chúng ta qua từng bước tư duy để đến được câu trả lời.
Những màn trình diễn ấn tượng này khiến nhiều người tin rằng chúng ta đang tiến rất gần đến Trí tuệ Nhân tạo Tổng quát (AGI) – một AI có trí tuệ tương đương biết suy nghĩ hoặc vượt qua con người. Nhưng nghiên cứu mang tên "The Illusion of Thinking" (Ảo ảnh của Tư duy) vừa được công bố bởi một nhóm nhà khoa học tại Apple lại cho thấy, AI biết suy luận vẫn còn là một đích đến xa vời.
Cú "lật kèo" từ phòng thí nghiệm Apple
Thí nghiệm của Apple xuất phát từ sự hoài nghi về khả năng xảy ra "ô nhiễm dữ liệu" (data contamination). Ví dụ điển hình là đáng lẽ dữ liệu huấn luyện AI không nên chứa câu trả lời trực tiếp cho mọi vấn đề. Tuy nhiên các bộ dữ liệu huấn luyện AI hiện nay (như MATH-500, các kì thi lập trình, bộ dữ liệu hình ảnh Image.net) nhiều khi gồm cả câu hỏi và đáp án. Điều này khiến thành tích của AI không phản ánh đúng hiệu suất thực tế. Nói một cách đơn giản, AI giải được một vấn đề nào đó không hẳn chứng tỏ khả năng suy luận, mà có thể chỉ là một dạng "trí nhớ siêu phàm". Giống như một học sinh đã biết trước đề thi, điểm số cao của họ chưa chắc đã phản ánh năng lực thực sự.
Để tạo ra một sân chơi thực sự công bằng, nhóm nghiên cứu đã thiết kế một phương pháp đánh giá hoàn toàn khác. Họ sử dụng các "môi trường giải đố có thể kiểm soát": AI sẽ phải giải những bài toán logic kinh điển như Tháp Hà Nội (chuyển các đĩa giữa ba cọc theo quy tắc không đặt đĩa to lên đĩa nhỏ), Qua sông (làm sao để đưa một nhóm ba người qua sông, mỗi lần chỉ chở được hai người, trong đó có những người không được phép "ghép cặp" với nhau) với độ khó tăng dần và đáp án không có sẵn trên internet.
Với cách làm này, các nhà nghiên cứu hạn chế tối đa nguy cơ ô nhiễm dữ liệu, kiểm soát tuyệt đối được độ khó của bài toán và phân tích sâu được quá trình tư duy của AI. Họ không chỉ quan tâm đến câu trả lời cuối cùng của AI có đúng hay không mà còn dùng các chương trình giả lập để kiểm tra từng bước trong chuỗi lập luận mà AI đưa ra.
Chính tại bài kiểm tra này, những điểm yếu chết người của AI đã lộ diện.
Ba "đòn chí mạng" vào khả năng lập luận của AI
1. Sự sụp đổ không thể tránh khỏi (The Accuracy Collapse)
Khi độ phức tạp của bài toán còn thấp, các mô hình AI hàng đầu như o3-mini, DeepSeek-R1 hay Claude-3.7-Sonnet-Thinking xử lý khá tốt. Tuy nhiên, khi độ phức tạp tăng lên tới một mức độ nào đó, hiệu suất của AI giảm đột ngột về 0%.
Ví dụ, với bài toán Tháp Hà Nội, mô hình có thể giải gần như hoàn hảo với 7 đĩa, nhưng khi tăng lên 10-15 đĩa, tỷ lệ thành công giảm thẳng đứng xuống con số không. Điều này giống như một người có thể nâng được tạ 50kg, nhưng hoàn toàn bất lực khi đối mặt với tạ 51kg, thay vì chỉ là nâng khó hơn một chút. Sự sụp đổ đột ngột này cho thấy AI không có khả năng khái quát hóa quy tắc một cách bền vững. Chúng không thực sự "hiểu" thuật toán đằng sau, mà dường như chỉ có thể xử lý trong một giới hạn độ sâu tính toán nhất định.
2. Nghịch lý "càng khó, càng lười biếng"
Phát hiện thứ hai thậm chí còn kỳ lạ và phản trực giác hơn. Các nhà nghiên cứu đo lường "nỗ lực lập luận" của AI bằng số lượng token (đơn vị văn bản) mà nó sử dụng trong quá trình "suy nghĩ". Một AI được phép sử dụng khoảng vài chục nghìn token để trả lời một vấn đề nào đó. Logic thông thường cho rằng, bài toán càng khó, AI càng phải "suy nghĩ" nhiều hơn.
Thực tế lại hoàn toàn ngược lại. Khi bài toán trở nên quá khó, AI lại bắt đầu "suy nghĩ" ít đi, tức là tạo ra chuỗi lập luận ngắn hơn, dù vẫn còn được phép dùng tới 64 nghìn token nữa.
Hành vi này giống như một học sinh đối mặt với một bài toán quá tầm. Thay vì cố gắng phân tích, thử và sai, em đó lại bỏ cuộc và viết bừa một vài dòng rồi nộp bài. Điều này cho thấy AI thiếu đi sự kiên trì và chiến lược giải quyết vấn đề linh hoạt của con người. Khi một phương pháp không hiệu quả, chúng không biết cách lùi lại, thay đổi hướng tiếp cận mà chỉ đơn giản là "bỏ cuộc".
3. Chỉ "ưa thích" các bài toán có độ khó trung bình
Từ hai nghịch lý trên, các nhà nghiên cứu đã vạch ra ba vùng hiệu suất riêng biệt của mô hình LRMs. Trong đó, mô hình này thể hiện ưu thế trong những bài toán có độ phức tạp trung bình, vượt xa người anh em "tiền nhiệm" LLMs. Tuy nhiên, với các bài toán có độ phức tạp thấp AI dựa trên LRMs tỏ ra kém cạnh LLMs, chúng có xu hướng "suy nghĩ quá mức", dù tìm ra đáp án đúng sớm nhưng vẫn tiếp tục khám phá những lựa chọn sai, gây lãng phí tài nguyên. Còn với các bài toán có độ phức tạp cao thì tất cả các mô hình AI hiện giờ đều thất bại hoàn toàn. Phát hiện này cho thấy tính năng suy luận của mô hình mới không hoàn toàn ưu việt. Nó chỉ hữu ích trong một phạm vi hẹp và thậm chí còn gây hại trong các tác vụ đơn giản.
"Học vẹt" hay thực sự hiểu?
Các nhà nghiên cứu từ Apple tiếp tục thực hiện các thử nghiệm khác để đánh giá năng lực suy luận của AI. Đầu tiên, họ thử cung cấp thuật toán giải Tháp Hà Nội ở bất kỳ độ khó nào một cách tường minh ngay trong câu lệnh. Về lý thuyết, AI giờ đây không cần phải tự mình tìm ra cách giải, mà chỉ cần thực hiện theo các bước đã cho – một nhiệm vụ đơn giản hơn rất nhiều.
Kết quả? Thứ nhất, hiệu suất của AI không hề được cải thiện. Chúng vẫn thất bại ở cùng một ngưỡng độ phức tạp. Điều này chứng tỏ chúng thậm chí còn không có khả năng tuân thủ một chuỗi logic được hướng dẫn một cách nhất quán. Thứ hai, chúng thể hiện sự thiếu nhất quán trầm trọng giữa các loại câu đố.
Mô hình Claude 3.7 có thể tạo ra một chuỗi gần 100 bước đi đúng trong bài Tháp Hà Nội, nhưng lại thất bại chỉ sau 4-5 bước trong bài Qua Sông – một bài toán có số bước giải ngắn hơn nhiều. Điều này cho thấy "kỹ năng" của chúng không phải là khả năng lập luận tổng quát, mà dường như phụ thuộc nặng nề vào loại dữ liệu mà chúng đã gặp trong quá trình huấn luyện.
Học được gì từ nghiên cứu này?
Cần phải nói rằng, nghiên cứu này cũng có những giới hạn. Các tác giả thừa nhận rằng việc chỉ sử dụng các câu đố logic mới chỉ kiểm tra được một phần nhỏ của khả năng suy luận. Do đó, kết quả nghiên cứu có thể không phản ánh đầy đủ năng lực của AI khi đối mặt với các vấn đề trong thế giới thực.
Ngoài ra, các nhà nghiên cứu cũng không thể "nhìn" vào bên trong AI. Họ chỉ có thể quan sát dựa trên câu hỏi đặt ra cho AI và câu trả lời mà AI trả về, chứ không thể phân tích được trạng thái nội tại hay kiến trúc bên trong của AI. Họ chỉ có thể ghi nhận rằng AI đã thất bại chứ không thể giải thích được vì sao nó lại đưa ra quyết định sai lầm đó.
Phương pháp đánh giá của các tác giả cũng chỉ phù hợp với các bài toán có luật lệ rõ ràng như giải đố, còn khó áp dụng với các loại hình suy luận khác, có tính sáng tạo hay chủ quan hơn (như viết luận hay đánh giá chiến lược).
Tuy vậy, nghiên cứu này vẫn có giá trị trong việc gióng lên hồi chuông cảnh tỉnh, một liều thuốc thực tế cần thiết giữa cơn sốt AI hiện nay. Đối với các nhà phát triển và các tập đoàn công nghệ, nghiên cứu này là lời kêu gọi khẩn thiết về việc phải xây dựng các phương pháp đánh giá AI mới, nghiêm ngặt và đáng tin cậy hơn. Các phương pháp hiện tại dựa trên những bộ dữ liệu quen thuộc là không đủ.
Đối với người dùng cuối, thông điệp rất rõ ràng: Hãy luôn giữ một thái độ hoài nghi có cơ sở: AI có thể nói như đang nghĩ, nhưng điều đó không có nghĩa là nó đang hiểu. Một AI có thể giúp bạn viết email, tóm tắt văn bản hay sáng tác một bài thơ, nhưng đừng vội vàng tin tưởng giao cho nó những nhiệm vụ đòi hỏi sự lập luận logic nhiều bước, có tính rủi ro cao. Khả năng "suy nghĩ" của nó có thể rất mong manh.
Tài liệu:
Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. arXiv. https://doi.org/10.48550/arXiv.2506.06941
*Giảng viên và Nghiên cứu sinh khoa Toán - Thống kê trường Đại học Kinh tế thành phố Hồ Chí Minh (UEH).
Bài đăng KH&PT số 1349 (số 25/2025)
Lê Đức Thọ*
