Điều đó đặt ra câu hỏi: ai/cái gì quyết định chất lượng đầu ra của văn bản do AI tạo ra; và khi các AI, với khả năng tiếp tục nhân bản văn bản chóng mặt, thao túng internet bằng nội dung nó tạo ra gấp nhiều lần dữ liệu của con người, thì điều gì sẽ xảy ra?
Con rắn tự ăn đuôi hay "dữ liệu cận huyết"
Các AI phổ thông do mô hình ngôn ngữ lớn tạo ra (như ChatGPT, Gemini,...) truy cập Internet rồi trả về một văn bản – thứ được tổng hợp từ nhiều văn bản đã có dựa trên phương pháp xác suất. Nhưng AI đã dần được huấn luyện bằng chính những dữ liệu nó từng tạo ra [1]. Lý do là, Internet không còn cung cấp nguồn dữ liệu thuần con người và việc lọc sạch nội dung AI trong quá trình thu thập dữ liệu mới là điều không thể. Ngoài ra, giải pháp rẻ nhất để đáp ứng nhu cầu dữ liệu liên tục của các mô hình AI chính là tái sử dụng dữ liệu do nó tạo ra.
Thực tế này làm phát sinh hiện tượng "cận huyết" dữ liệu. Và giống như sinh học, nó báo trước sự sụp đổ từ bên trong.
Nghiên cứu AI models collapse when trained on recursively generated data (Ilia Shumailov, Đại học Oxford, tác giả chính) [2] trên tạp chí Nature khẳng định, về cơ bản, khi một mô hình AI "ăn thịt" dữ liệu do AI tạo ra, kết quả đầu ra của nó trở nên ngày càng kỳ lạ, méo mó và vô nghĩa - trái ngược với dữ liệu chất lượng cao do con người tạo ra ban đầu.
Một minh họa về việc AI tái sử dụng dữ liệu khiến hình ảnh biến đổi như thế nào qua các vòng tái tạo. Ảnh: Unsplash + AI
Một mặt, phát hiện từ nghiên cứu này cung cấp bằng chứng định lượng cho trực giác thông thường là các mô hình AI đặc biệt nhạy cảm với nguồn dữ liệu được dùng để huấn luyện; và việc để mô hình AI thâm nhập vào dữ liệu do chính nó tạo ra có thể dẫn tới tình trạng ô nhiễm nội dung nghiêm trọng đối với cả hệ thống AI lẫn các tập đoàn trị giá hàng tỷ đô đang phát triển chúng.
Mặt khác, kết quả này cho thấy "cơn khát" dữ liệu chất lượng cao do con người tạo ra – một nguồn tài nguyên đang dần trở nên khan hiếm và vì thế ngày càng có giá trị, thậm chí có thể trở thành yếu tố kìm hãm đà phát triển của AI tạo sinh.
Nhóm tác giả bài báo đã sử dụng một mô hình LLM được huấn luyện trước, rồi hiệu chỉnh nó bằng tập dữ liệu chứa các mục nhập trên Wikipedia. Sau đó, họ cho mô hình trải qua một loạt vòng thử nghiệm; ở mỗi vòng, kết quả do mô hình tạo ra ở vòng trước được bổ sung vào tập dữ liệu huấn luyện của vòng tiếp theo.
Kết quả thật đáng kinh ngạc.
Ví dụ, với câu hỏi về các tòa nhà ở Somerset, Anh - có dữ liệu đầu vào là đoạn văn lấy từ trang Wikipedia nhân tạo chuyên biệt cho thử nghiệm này - ban đầu AI đưa ra phản hồi tương đối bình thường, dù vẫn còn lỗi. Nhưng đến vòng lặp thứ chín, phản hồi của mô hình hoàn toàn vô nghĩa.
"Kiến trúc," AI ‘viết’ một cách khó hiểu, "ngoài việc là nơi sinh sống của một số quần thể thỏ rừng đuôi đen, thỏ rừng đuôi trắng, thỏ rừng đuôi xanh, thỏ rừng đuôi đỏ, thỏ rừng đuôi vàng lớn nhất thế giới..."
Dù kết quả có kỳ lạ đến đâu, quá trình sụp đổ của mô hình thực chất khá đơn giản. Một hệ thống AI chỉ có quyền truy cập vào dữ liệu được cung cấp; dữ liệu gốc do con người tạo ra thường giúp hệ thống AI tạo sinh hoạt động tốt hơn nhờ sự đa dạng.
Ngược lại, việc cung cấp cho mô hình các nội dung do AI tạo ra sẽ hạn chế sự đa dạng không chỉ về nội dung mà cả từ vựng, ngữ pháp, văn phong, cấu trúc... Mô hình sẽ tích lũy lỗi của chính nó, lờ đi một số từ và hiện vật ít xuất hiện trong quá trình huấn luyện, và cuối cùng tự sụp đổ do nhân bội sự lặp lại cái đa số.
Nghiên cứu trên không phải là đầu tiên bởi từ năm 2022, khi AI bắt đầu phổ biến đại chúng, nhà nghiên cứu Jathan Sadowski đã đặt tên cho quá trình tự hủy này là "AI Habsburg", trong đó một mô hình AI được cung cấp nội dung do AI tạo ra về cơ bản trở thành một "đột biến cận huyết". Đó là ẩn dụ về gia tộc Habsburg nổi tiếng với các cuộc hôn nhân cận huyết, dẫn đến vô sinh và suy tàn.
Nói một cách hình tượng như Ted Chiang trên The New Yorker [3] các mô hình LLM như một thuật toán nén dữ liệu có mất mát (lossy compression). Khi AI bắt đầu học từ chính những nội dung "mờ nhòe" do nó tạo ra trước đó, hiện tượng này giống như việc chụp lại một bản sao từ một bản sao: các chi tiết then chốt nhưng không sắc nét trên bề mặt có thể nhòe đến tan biến, trong khi một vài chi tiết ít ý nghĩa có thể vô tình được phóng đậm lên, và cuối cùng chỉ còn lại một kết quả mông lung.
Cái còn lại chỉ là những kết quả rỗng, nghe rất hợp lý nhưng bị tách ra khỏi bối cảnh làm cho nó hợp lý. Sau vô số lần lặp đi lặp lại nhờ sức mạnh bất tận của cơ giới; chiều sâu lịch sử, ngữ cảnh văn hóa hay những trải nghiệm hiện hữu ẩn sau dữ liệu vật lý bị tước bỏ hoàn toàn, chỉ còn lại các thực thể thống kê trên bề mặt văn bản.
Những dữ liệu dị hợm như nghiên cứu của Shumailov đề cập bắt đầu xuất hiện, nhưng đáng lo ngại là cái ngày nay ta thấy dị hợm, liệu ngày mai có thể được chấp nhận bởi sức mạnh của cơ giới hóa tự động tạo nội dung trên Internet?
Chân lý thuộc về cái trung bình
Sự sụp đổ mô hình nêu trên không đơn thuần là lỗi kỹ thuật, mà là dấu hiệu của một cuộc chuyển giao quyền lực tri thức đáng quan ngại.
Với sự xuất hiện của AI, quyền lực tri thức trở thành một vòng lặp kín. Ảnh: CC
Trong thời kỳ "tiền AI", tri thức mang tính quyền lực được kiến tạo qua diễn ngôn (discourses), nơi các chủ thể con người tranh đấu, thương lượng, và thỏa hiệp để cùng nhau xác lập ý nghĩa. Tuy nhiên, trong lý thuyết của Foucault (như Archeology of Knowledge), mạng lưới diễn ngôn này luôn có sự tham gia của chủ thể con người và vì thế không bao giờ khép kín hoàn toàn. Chính từ những kẽ hở nằm sâu trong cấu trúc quyền lực - những điểm mà diễn ngôn chưa kịp khép lại, nơi con người còn có thể nói khác, hiểu lệch - mà cái mới có cơ hội nảy sinh.
Trái lại, trật tự tri thức trong thời đại AI báo trước sự thống trị của cái đa số đang được diễn đạt ở quy mô cơ giới hóa tự động, với tốc độ chóng mặt: trên Internet, AI dùng chưa đầy 5 năm để tạo ra nội dung bằng toàn thể nhân loại trong gần 30 năm.
Trật tự này dẫn đến hai sự đổi khác cơ bản với cơ chế tạo nghĩa cũ:
• Sự biến mất của chủ thể: Quyền lực tri thức không còn nằm ở việc "ai" tranh đấu để duy trì quyền/cách được nói, mà nằm ở việc "xác suất nào chọn cái gì để lặp lại". Xác suất này, đến lượt mình, lại nằm trọn trong máy chủ của các đế chế công nghệ.
• Độc tài thống kê: Chân lý không còn được xác lập qua logic hay đạo đức, mà qua tần suất xuất hiện. Nếu một điều được AI lặp lại đủ nhiều, nó trở thành "trung vị" của tri thức. Nếu tri thức có tính quyền lực kiểu Foucault vẫn cho phép sự tồn tại của "cái dị biệt" để định nghĩa "cái chuẩn mực", thì AI có xu hướng xóa sổ luôn cái dị biệt vì nó không đủ trọng số thống kê.
Tóm lại, quyền lực tri thức giờ đây trở thành một vòng lặp kín (closed loop). AI tạo ra nội dung -> Con người đọc và tin -> AI lại học từ nội dung đó. Đây là một dạng "thống soát của cái trung bình" được thực thi bằng máy móc.
Nó khiến sự khác biệt, điều đem lại sự đổi mới, thậm chí đột phá trong xã hội, biến mất vì không đủ trọng số thống kê để được AI ghi nhớ.
Và về phía con người, một là chủ thể sẽ biến mất: tri thức được tạo ra bởi "hư không" (máy móc) dựa trên "dữ liệu cũ". Và hai là sự sụp đổ của phê phán: khi những văn bản quá mượt ở bề mặt xuất hiện áp đảo, khả năng truy vấn "lớp nền ẩn sau" của con người bị cùn mòn đi. Chúng ta bắt đầu chấp nhận cái "trung bình" của AI như là chân lý duy nhất.
Nguy cơ "chế độ phong kiến dữ liệu"
Nếu tương lai được vẽ ra đáng sợ như vậy, giải pháp là gì?
Nghiên cứu của Shumailov cho rằng các công ty AI phải đánh dấu các nội dung do AI tạo và nội dung do người tạo ra để làm màng lọc dữ liệu đầu vào. Đã qua hai năm, có vẻ giải pháp đó vẫn chưa được thực hiện dù một số liên minh về xác thực dữ liệu đã được thành lập. Các công ty vẫn chưa vượt ra qua rào cản kỹ thuật cơ bản nhất: làm thế nào để phát hiện nội dung do máy tạo ra trên quy mô lớn và có độ chính xác cao.
Tờ The Atlantic [4] nhắc đến làn sóng nghiên cứu mới nhất về trí tuệ nhân tạo tự cải tiến chỉ sử dụng một lượng nhỏ dữ liệu tổng hợp, được hướng dẫn bởi một nhà phát triển phần mềm là con người. Cách tiếp cận này dựa vào một số loại kiểm tra bên ngoài, tách biệt với chính AI, để đảm bảo chất lượng phản hồi - có thể là các định luật vật lý, nguyên tắc đạo đức, hoặc một số tiêu chí độc lập khác đã được coi là đúng. Các nguyên lý nguồn này được gọi là "hiến pháp AI", làm nền cho mọi suy luận trả kết quả đằng sau.
Nhưng tựu trung, phản hồi do máy tính tạo ra, dù con người có thể điều chỉnh nó theo nhiều cách, vẫn có thể mang lại "cảm giác sai trái về kiểm soát", Dylan Hadfield-Menell, một nhà khoa học máy tính tại MIT, đã nói với tờ The Atlantic. Tức là ở đâu có kiểm soát cứng nhắc và áp đặt từ bên ngoài, ở đó tiềm tàng những bước tư duy sai lầm về sau.
Vậy nên, những đột phá trong huấn luyện học tăng cường cho AI đến nay vẫn chủ yếu dựa vào sự kết hợp và kiểm soát của con người; và phiên bản tích cực ấy vẫn còn nhiều khiếm khuyết, chứ chưa cần bàn đến viễn cảnh các AI huấn luyện lẫn nhau.
Do đó, chúng ta đang đứng trước một thế nan giải về kinh tế và triết lý. Một mặt, các công ty Big Tech đang chạy đua để chứng minh "AI có thể làm hết mọi thứ". Mặt khác, chính mô hình kinh doanh này đang triệt tiêu nguồn sống của AI: dữ liệu từ con người.
Khi những nội dung có kinh phí gần như bằng không do máy móc tạo ra tràn ngập Internet, những bài phân tích sâu sắc do con người thực hiện có nguy cơ không được trả thù lao xứng đáng bởi "lạm phát nội dung". Hệ quả là mức độ công nhận dành cho các nội dung "hand-made" giảm đi, những người sáng tạo thực thụ sẽ dần rời bỏ cuộc đua không cân sức.
Còn các công ty AI có thực sự muốn khuyến khích nội dung con người, dù nó cần thiết để huấn luyện AI chất lượng cao? Có lẽ là không. Việc lọc dữ liệu chất lượng cao gây tốn kém về chi phí và làm chậm cuộc đua mở rộng mô hình. Họ sẽ có xu hướng chấp nhận một hệ sinh thái "đóng" nơi AI tự học từ AI để tối ưu hóa tốc độ và quy mô, tức là tối đa hóa lợi nhuận, bất chấp việc điều đó dẫn đến sự suy thoái lâu dài của tri thức cho toàn thể.
Gần đây, OpenAI hay Google bắt đầu có động thái trả tiền cho các tổ chức tạo nội dung (News Corp, Reddit). Nhưng đây có thể là động thái mua "bảo hiểm pháp lý" (tránh kiện tụng bản quyền) nhiều hơn là thực lòng muốn duy trì sự đa dạng tri thức của nhân loại. Một phản ví dụ là các hệ thống trí tuệ nhân tạo đang khai thác triệt để Wikipedia mà không hề đóng góp lại bất kỳ cái gì.
Nếu sự suy thoái nội tại của các mô hình AI tiếp tục bị bỏ qua, trong khi quyền kiểm soát dữ liệu và hạ tầng tri thức ngày càng tập trung, xã hội có nguy cơ trượt vào một dạng phân tầng mới của cái gọi là "chế độ phong kiến dữ liệu".
Trong đó, tầng lớp quý tộc là những người có đủ nguồn lực để tiếp cận nguồn tri thức từ tài liệu nhân tạo gốc, thảo luận trực tiếp giữa người với người và tiêu thụ các nội dung "hand-made" đắt đỏ.
Tầng lớp phổ thông tiêu thụ những nội dung rác do AI tạo ra (AI Slop) miễn phí hoặc với giá rẻ, sống trong một mạng lưới nghĩa được lập trình sẵn và dần mất đi khả năng truy vấn "lớp nền ẩn sau" của văn bản.
Hẳn là không ai trong chúng ta trông đợi viễn cảnh như thế.
---
Tài liệu tham khảo:
[1] More than half of new articles on the internet are being written by AI – is human writing headed for extinction? The Conversation, 24/11/2025. https://theconversation.com/more-than-half-of-new-articles-on-the-internet-are-being-written-by-ai-is-human-writing-headed-for-extinction-268354
[2] AI models collapse when trained on recursively generated data. Nature, 24/7/2024. https://www.nature.com/articles/s41586-024-07566-y
[3] ChatGPT Is a Blurry JPEG of the Web. The New Yorker, 9/2/2023. https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web
[4] Things Get Strange When AI Starts Training Itself. The Atlantic, 16/2/2024. https://www.theatlantic.com/technology/archive/2024/02/artificial-intelligence-self-learning/677484/
[5] The academic community failed Wikipedia for 25 years — now it might fail us. Nature, 13/1/2026. https://www.nature.com/articles/d41586-026-00075-0