Sự hiện diện của các Mô hình Ngôn ngữ Lớn (LLMs) như GPT-4, Gemini, Claude hay Grok không chỉ đơn thuần là sự tiến bộ của công cụ lao động. Chúng đại diện cho một sự thay đổi về chất trong mối quan hệ giữa con người và kỹ thuật. Nếu như trước đây, công cụ là phần mở rộng của tay chân, thì nay, AI đang trở thành phần mở rộng – và đôi khi là kẻ thay thế – của tâm trí.
Trong bối cảnh đó, các khái niệm nền tảng của triết học như "sự thật", "sự hiểu biết" và "bản sắc" cần được tái định nghĩa một cách nghiêm túc.
"Bội thực" tri thức
Trong lịch sử nhận thức luận, mô hình Dữ liệu – Thông tin – Tri thức – Thông tuệ (DIKW: Data - Information - Knowledge - Wisdom) đã đóng vai trò như một kim chỉ nam cho quá trình thăng hoa của trí tuệ.
Trong đó, dữ liệu là các sự kiện thô; thông tin là dữ liệu đã được xử lý và có ngữ cảnh; tri thức là thông tin được nội tâm hóa và kiểm chứng; và thông tuệ là việc áp dụng tri thức một cách thấu suốt để đưa ra các phán đoán đúng đắn về đạo đức và thực tiễn.
Tuy nhiên, sự xuất hiện của Dữ liệu lớn và AI tạo sinh đã làm rung chuyển cấu trúc này. Bằng cách "nén" hai tầng đầu tiên – dữ liệu và thông tin –AI tạo ra một lối tắt trực tiếp đến cái mà chúng ta lầm tưởng là tri thức, bỏ qua hoàn toàn các bước kiểm chứng và chiêm nghiệm cần thiết của con người.
Các hệ thống AI xử lý hàng tỷ điểm dữ liệu với tốc độ vượt xa khả năng nhận thức của con người, tạo ra các kết quả đầu ra có vẻ mạch lạc và đầy đủ thông tin. Nhưng liệu đó có phải là tri thức thực sự?
Điều nghịch lý là lối tắt đến hiểu biết nhờ công nghệ đang dẫn đến sự ô nhiễm tri thức. Khi Big Data được thu thập từ mọi ngóc ngách của internet – nơi chứa đựng cả sự thật lẫn tin giả, cả tinh hoa lẫn rác rưởi – và được AI xử lý mà không qua các bộ lọc nhận thức luận truyền thống (như sự kiểm duyệt của chuyên gia hay sự kiểm chứng thực nghiệm), kết quả đầu ra mang tính "phi cấu trúc" và "không được đối chiếu". AI vận hành dựa trên xác suất thống kê của từ ngữ chứ không phải dựa trên sự thấu hiểu bản chất sự vật. Nó tạo ra một loại "tri thức zombie" – có hình hài của sự hiểu biết nhưng thiếu vắng linh hồn của chí hướng.
Người dùng bị ngập chìm trong dòng chảy vô tận của dữ liệu nhưng lại thiếu các công cụ để chắt lọc thành tri thức hữu ích. Ảnh minh họa: AI
Điều này khiến tính chính danh của tri thức không còn dựa trên sự thật khách quan hay thẩm quyền chuyên môn, mà dựa trên "độ phổ biến" và sự đồng thuận của đám đông. Trong môi trường này, những thông tin sai lệch nhưng hấp dẫn, được AI khuếch đại, có thể dễ dàng đánh bại những chân lý truyền thống, dẫn đến một cuộc khủng hoảng niềm tin.
Tính trôi chảy thay thế chân lý
Chúng ta đang chứng kiến sự ra đời của một loại hình nhận thức luận mới: Nhận thức luận Tổng hợp. Trong thế giới của các LLM, tiêu chuẩn để đánh giá một mệnh đề không còn là "nó có đúng với thực tế không?", mà là "nó nghe có xuôi tai không?".
Các mô hình AI được huấn luyện để tối ưu hóa khả năng dự đoán từ tiếp theo sao cho văn bản có tính mạch lạc cao nhất, tạo ra một "ảo ảnh hiểu biết". Sự trôi chảy về ngôn ngữ trở thành tấm áo choàng ngụy trang hoàn hảo cho sự thiếu hụt về tư duy. Người dùng, bị quyến rũ bởi vẻ ngoài uyên bác và giọng văn tự tin của AI, dễ dàng chấp nhận các đầu ra của AI như là chân lý. Đây là hiện tượng "trôi dạt nhận thức luận", nơi chúng ta chuyển từ việc tìm kiếm sự thật sang tìm kiếm sự bóng bẩy về mặt ngữ nghĩa.
Tư duy con người thường chậm chạp, đầy nghi hoặc và đấu tranh nội tâm; trong khi tư duy AI là tức thời, trơn tru và không có sự dằn vặt. Chính sự "không nỗ lực" này làm xói mòn khả năng tư duy phản biện của người sử dụng, biến người dùng thành những kẻ tiêu thụ thụ động các kết quả của thuật toán.
Bong bóng nhận thức
Trong triết học tâm trí, "chủ thể tính nhận thức" là khả năng của một cá nhân trong việc kiểm soát niềm tin của mình, chịu trách nhiệm về quá trình hình thành và điều chỉnh các niềm tin đó. Khi chúng ta ủy thác việc tìm kiếm thông tin và ra quyết định cho AI, chúng ta đang tự nguyện từ bỏ một phần chủ thể tính này.
Việc sử dụng các hệ thống AI nơi quy trình suy luận như "hộp đen" che giấu dưới hàng tỷ tham số tạo ra một tình trạng phụ thuộc nguy hiểm. Chúng ta tin vào câu trả lời của AI không phải vì chúng ta hiểu lý do tại sao nó đúng, mà vì chúng ta tin vào "thẩm quyền công nghệ" của nó. Điều này dẫn đến sự hình thành các "bong bóng nhận thức", nơi người dùng bị cô lập trong các luồng thông tin được thuật toán cá nhân hóa nếu không được tiếp cận, đối thoại với các quan điểm đa chiều và trái chiều.
Hơn nữa, AI tác động đến việc hình thành niềm tin theo những cách nằm ngoài sự kiểm soát của ý thức. Các thiên kiến ẩn sâu trong dữ liệu huấn luyện (như thiên kiến về giới tính, chủng tộc, văn hóa phương Tây) âm thầm định hình thế giới quan của người dùng mà họ không hề hay biết. Trong bối cảnh này, quyền tự chủ của con người không chỉ bị đe dọa bởi sự ép buộc bên ngoài, mà bị xói mòn ngay từ bên trong cấu trúc nhận thức.
Hậu quả là sự hình thành các "bong bóng lọc" và sự tràn ngập của nội dung rác. Trước đây, con người đóng vai trò là người giám tuyển tri thức – các biên tập viên, thủ thư, nhà giáo dục lựa chọn những gì đáng đọc, đáng xem. Ngày nay, AI đã tước đoạt vai trò này. Nhưng AI là một bộ lọc tồi về mặt chất lượng tri thức; nó ưu tiên những gì gây sốc, gây tranh cãi hoặc dễ tiêu thụ.
Điều này dẫn đến một tình trạng nghịch lý: Quá tải thông tin nhưng đói khát ý nghĩa. Người dùng bị ngập chìm trong dòng chảy vô tận của dữ liệu nhưng lại thiếu các công cụ để chắt lọc thành tri thức hữu ích.
Trong lịch sử nhân loại, tri thức luôn là lợi thế. Ai học nhiều hơn, tiếp cận được nhiều nguồn hơn thì người đó đi trước. Nhưng trí tuệ nhân tạo đang làm một việc chưa từng có: cào bằng khả năng tiếp cận tri thức ở quy mô toàn cầu.
Hôm nay, một sinh viên ở tỉnh lẻ, một chủ doanh nghiệp nhỏ hay một người làm sáng tạo độc lập đều có thể hỏi cùng một AI, truy cập cùng một kho dữ liệu của nhân loại, và nhận về những câu trả lời tương đương về mặt thông tin. Khi đó, câu hỏi lớn không còn là ai biết nhiều hơn, mà là:
Nếu ai cũng tiếp cận được cùng một tri thức, thì điều gì còn tạo ra khác biệt?
Tôi cho rằng khác biệt nằm ở bộ lọc tri thức. Và bộ lọc đó chính là triết học – hay nói giản dị hơn, là cách ta nhìn thế giới.
AI ngày nay biết rất nhiều. Nhưng biết nhiều không đồng nghĩa với hiểu sâu. AI có thể tổng hợp hàng triệu văn bản, nhưng nó không tự biết điều gì là quan trọng, điều gì nên ưu tiên trong một hoàn cảnh cụ thể. Lý do đơn giản: AI phổ biến hiện nay được thiết kế để phục vụ số đông, nên phải trung lập, an toàn và "đúng" theo nghĩa thống kê.
Trong khi đó, đời sống con người không vận hành bằng thống kê. Chúng ta đưa ra quyết định dựa trên giá trị, niềm tin, trải nghiệm sống và bối cảnh văn hóa. Hai người đọc cùng một cuốn sách, nhưng hiểu khác nhau – không phải vì sách khác, mà vì bộ lọc trong đầu họ khác.
Điều thú vị là: chúng ta vẫn làm việc đó hằng ngày mà không tự ý thức. Tri thức chung chỉ thực sự trở thành tri thức của cá nhân khi đi qua bộ lọc ấy.
Con người trưởng thành nhờ triết lý sống, không chỉ nhờ học nhiều. Có những người đọc rất nhiều nhưng vẫn hoang mang, vì họ thiếu một lập trường sống để chọn lọc và sắp xếp tri thức. Ngược lại, có những người đọc không nhiều, nhưng hiểu sâu – vì họ có một triết lý sống giúp họ biết cái gì đáng giữ, cái gì nên bỏ.
Triết lý, dù ta có gọi tên hay không, luôn tồn tại như một bộ lọc vô hình: nó quyết định ta chú ý điều gì, bỏ qua điều gì và hành động theo hướng nào. AI trả lời hộ chứ không giúp chúng ta hình thành được triết lý sống, không giúp chúng ta thực sự trải nghiệm sống.
Ở tầng sâu hơn nữa, AI đang thiếu một "nhân sinh quan"
Hơn cả những dữ liệu rác, bội thực thông tin, việc con người thường xuyên dùng AI để trả lời thay còn vấp phải vấn đề ở tầng sâu hơn: AI thiếu một nhân sinh quan, thiếu lập trường sống gắn với trải nghiệm, trách nhiệm và hệ quả đạo đức.
AI có thể trình bày, mô phỏng và sắp xếp thông tin về triết học, nhưng bản thân nó không "sống" và trải nghiệm trong những thông tin đó, cũng không phải gánh chịu hậu quả từ các lựa chọn mà nó đề xuất. Phần lớn AI hiện nay được xây dựng theo tư duy khoa học hiện đại: cái gì đo được thì đáng tin. Cách tiếp cận này khiến AI rất mạnh trong dự đoán và tối ưu, nhưng lại yếu trong việc hiểu bối cảnh, giá trị và ý nghĩa - những điều chỉ có trong đời sống con người.
Chính vì không có nhân sinh quan của riêng mình, nên AI không thể tự hình dung, tự xác lập được đâu là giá trị cần ưu tiên trong những tình huống phức tạp của đời sống con người. Khi không có nhân sinh quan, hay nói khái quát hơn là không có triết học dẫn đường, AI sẽ chỉ mặc nhiên hấp thụ những giá trị đo đạc được trong kho dữ liệu: đề cao hiệu suất, ưu tiên số đông, và xem con người như những tập hành vi có thể tối ưu. AI không xấu, nhưng nó trống rỗng về trải nghiệm con người và về lập trường sống nên có thể làm phẳng sự khác biệt và áp đặt một thế giới quan duy nhất lên nhiều hoàn cảnh sống khác nhau.
Triết học, vì thế, rất cần có để con người định hướng những giá trị và ưu tiên được đưa vào quá trình thiết kế và sử dụng AI, để dẫn dắt cách AI tìm câu trả lời.
Vì thế, tương lai của AI, theo tôi, không nằm ở một siêu trí tuệ biết tất cả, mà ở những hệ AI có lập trường rõ ràng, giống như cách con người. Cũng như bác sĩ, nhà giáo hay doanh nhân nhìn thế giới khác nhau, AI cũng cần được "nuôi dạy" bằng những triết lý khác nhau, tùy mục đích và bối cảnh sử dụng.
Khi đó, ta sẽ không chỉ hỏi "AI này có đúng không?" mà hỏi "AI này đứng từ đâu để trả lời?", "Nó đại diện cho hệ giá trị nào?", "Nó có phù hợp với cộng đồng này không?". Đây là một thay đổi căn bản trong cách ta nghĩ về AI.
---
Tài liệu tham khảo:
1. Yale ethicist warns that AI-generated content threatens human creation - The Dartmouth, https://www.thedartmouth.com/article/2025/03/yale-ethicist-warns-that-ai-generated-content-threatens-human-creation
2. AI and Epistemic Agency: How AI Influences Belief Revision and Its Normative Implications - Taylor & Francis, https://www.tandfonline.com/doi/full/10.1080/02691728.2025.2466164
3. On the Crisis and Democratization of Knowledge – The Sociopolitical Impact of AI and Knowledge Hierarchy - Journal of Futures Studies, https://jfsdigital.org/2025-2/vol-30-no-1-september-2025/on-the-crisis-and-democratization-of-knowledge-the-sociopolitical-impact-of-ai-and-knowledge-hierarchy/
4. AI and the Epistemology of the Synthetic Mind | Psychology Today Canada, https://www.psychologytoday.com/ca/blog/the-digital-self/202506/ai-and-the-epistemology-of-the-synthetic-mind
5. What does it mean to 'know' something in the age of AI? - Open Access Government, https://www.openaccessgovernment.org/article/what-does-it-mean-to-know-something-in-the-age-of-ai/194647/