Các nhà công nghệ và nhà khoa học máy tính đã có những phản ứng trái chiều về Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao, kể từ khi bản Dự thảo được đưa ra lấy ý kiến từ ngày 9/2/2026.
Trong khi một số cho rằng việc phân loại rủi ro là "bước đi cần thiết" để bảo đảm sự phát triển bền vững của các hệ thống AI về lâu dài, thì một số khác lại bày tỏ lo ngại đối với các ngưỡng cứng về số lượng người dùng/người chịu ảnh hưởng hay tỷ lệ tự động hóa mà Dự thảo đưa ra và đánh giá cách làm này sẽ cản trở đà phát triển, thậm chí "có thể đặt dấu chấm hết cho AI Việt Nam".
Theo Luật Trí tuệ nhân tạo, những hệ thống AI có rủi ro cao phải được đánh giá, kiểm định trước khi đưa vào sử dụng, và chịu sự giám sát thường xuyên trong suốt vòng đời. Trong ảnh: Robot MISA được tích hợp AI nhận diện để có thể đưa ra cách chào hỏi phù hợp. Ảnh: Ngô Hà
Startup sẽ nặng gánh chi phí tuân thủ?
Cụ thể, các ý kiến không đồng tình chỉ ra, ngưỡng về số lượng người dùng/người chịu ảnh hưởng đang được đặt khá thấp, khiến nhiều ứng dụng phổ biến nhanh chóng rơi vào diện kiểm soát.
Chẳng hạn, theo Dự thảo, một hệ thống AI dùng để hỗ trợ ra quyết định chỉ cần liên quan trực tiếp đến 500 lao động mỗi năm trong lĩnh vực nhân sự, 500 học sinh mỗi năm trong lĩnh vực giáo dục, 1.000 khách hàng mỗi năm trong lĩnh vực tài chính là đủ để được xếp vào nhóm rủi ro cao. Điều này đồng nghĩa với việc startup có thể rơi vào vùng kiểm soát ngay khi mới bắt đầu mở rộng quy mô của AI.
"AI sinh ra để xử lý những công việc lặp đi lặp lại - nghĩa là càng phục vụ được nhiều người thì càng phát huy giá trị. Nhưng nếu chỉ cần ảnh hưởng đến hơn 500 người đã bị xếp vào nhóm rủi ro cao thì doanh nghiệp có lẽ phải... cầu mong AI của mình ít người dùng thôi cho an toàn," một nhà sáng lập startup AI chuyên về đánh giá kết quả học tập online của học sinh phổ thông trao đổi với Tia Sáng.
Luật Trí tuệ nhân tạo, có hiệu lực vào ngày hôm nay, 1/3/2026, xếp các hệ thống AI hoạt động tại Việt Nam thành ba loại rủi ro – cao, trung bình và thấp. Trên thực tế, so với Dự thảo hồi cuối năm ngoái, Luật đã bỏ mức phân loại cao nhất là ‘rủi ro không thể chấp nhận’ để loại trường hợp cấm hoàn toàn một hệ thống AI.
Hệ thống rủi ro cao là các AI có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng hoặc an ninh quốc gia. Chúng được xếp vào "vùng đỏ", chịu sự quản lý chặt chẽ và thường xuyên, thậm chí đánh giá sự phù hợp trước khi đưa ra thị trường nếu thuộc một số chuyên ngành mà pháp luật yêu cầu như y tế, thực phẩm, cơ khí, xây dựng v.v
Hệ thống rủi ro trung bình là hệ thống có khả năng gây nhầm lẫn, tác động hoặc thao túng người sử dụng do không nhận biết được chủ thể tương tác là hệ thống trí tuệ nhân tạo hoặc nội dung do hệ thống tạo ra. Các hệ thống này thường chỉ cần gán nhãn để minh bạch, và thực hiện giải trình khi có sự cố, yêu cầu.
Các hệ thống còn lại được xếp vào nhóm rủi ro thấp. Đây là "vùng xanh" của AI, tại đó nhà cung cấp hoặc triển khai AI tự chịu trách nhiệm về hoạt động sử dụng của mình, và chỉ phải giải trình khi có sự cố.
Về nguyên tắc, mục tiêu của chính sách quản lý AI rủi ro cao là hợp lý. AI đang được triển khai nhanh và sâu vào các lĩnh vực nhạy cảm như sinh trắc học, nhận diện, tuyển dụng, đánh giá tín dụng... Nếu thiếu can thiệp, thị trường dễ xuất hiện các sản phẩm kém chất lượng, gây ra sai lệch về dữ liệu, thiên kiến trong việc ra quyết định hoặc rủi ro pháp lý. Nhưng mặt khác, việc tuân thủ, đánh giá độc lập, tư vấn pháp lý và vận hành theo chuẩn mới đòi hỏi nguồn lực đáng kể – thứ mà phần lớn các startup không có sẵn.
Với ngưỡng về số lượng người dùng/người chịu ảnh hưởng mà Dự thảo nêu ra, các startup phát triển nền tảng cá nhân hóa học tập, lọc hồ sơ ứng viên, hay định giá bảo hiểm dựa trên AI đều có thể phải tuân thủ những quy trình nghiêm ngặt và tốn kém – bao gồm các yêu cầu về đào tạo và quản trị dữ liệu, tài liệu kỹ thuật, tính minh bạch, khả năng giám sát và can thiệp của con người.
"Với doanh nghiệp lớn, đây có thể là chi phí vận hành thông thường tiêu chuẩn. Nhưng với các startup nhỏ, đó có thể là rào cản sinh tồn trước khi AI của họ được thương mại hóa," nhà sáng lập nêu trên bày tỏ lo lắng. Theo bà, trong tình cảnh đó, các startup công nghệ nội địa có thể bị chậm lại đúng thời điểm cần tăng tốc.
Một nhà sáng lập startup AI đề nghị giấu tên khác nói với Tia Sáng rằng việc bảo vệ người dân trước rủi ro công nghệ là cần thiết. Tuy nhiên, cách đo lường rủi ro bằng những ngưỡng cứng như số lượng người dùng hay tỷ lệ tự động hóa có thể chưa phản ánh đúng bản chất kỹ thuật.
Theo ông, mức độ rủi ro thực sự phụ thuộc nhiều hơn vào nhiều yếu tố khác như dữ liệu có nhạy cảm hay không, hệ thống có quyền ảnh hưởng đến việc ra quyết định ở mức nào, và con người có còn giữ vai trò kiểm soát cuối cùng trong quy trình hay không.
Cuộc trao đổi giữa hơn 12 chuyên gia công nghệ, diễn ra ngay chiều mùng Một Tết tại Hà Nội, do ông Nguyễn Thành Nam, nguyên Tổng giám đốc FPT, khởi xướng, cũng cho thấy những lo ngại tương tự. Kết quả cuộc gặp sau đó được ông chia sẻ trên trang cá nhân vào ngày 18/2.
Nhìn chung, các ý kiến tại buổi thảo luận chỉ ra rằng, thông tin về Dự thảo Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao còn rất mới mẻ với các nhà công nghệ nhỏ. Rất ít người nghe đến những tiêu chí phân loại, mặc dù ảnh hưởng sát sườn. Quan trọng hơn, danh mục phân loại có nguy cơ tạo ra gánh nặng tuân thủ và thu hẹp không gian đổi mới trong bối cảnh thị trường trong nước còn nhỏ.
Một nguồn tin giấu tên, theo lời ông Nam, cho biết các ngưỡng áp dụng trong Dự thảo đang được điều chỉnh liên tục. Tuy vậy, vẫn chưa rõ những thay đổi này có đủ để đáp ứng kỳ vọng của cộng đồng công nghệ hay không.
Tuy nhiên, không phải ai trong giới công nghệ cũng lo ngại việc siết phân loại rủi ro. "Đầu những năm 2000, thế giới đã cấm nhân bản vô tính người. Dù có tranh cãi rằng cấm sẽ đóng cánh cửa khoa học, nhưng đạo đức đã thắng, nghiên cứu y học vẫn tiến bộ. Tôi ủng hộ khoa học và công nghệ, nhưng cũng phải lấy phục vụ con người và đặt đạo đức lên trước," theo Trần Hữu Nhân - chuyên gia dữ liệu và AI tại công ty Green Future, giảng viên tại Trường Đào tạo lập trình Aptech Việt Nam.
Xung quanh các thảo luận trực tuyến về Dự thảo, Tia Sáng quan sát thấy một số CTO bày tỏ mong muốn được quản lý "hậu kiểm" - tức cho phép triển khai trước rồi giám sát và xử lý sau nếu xảy ra vấn đề - thay vì kiểm soát chặt ngay từ đầu như cách tiếp cận hiện nay. Tuy nhiên, điều này khó có thể xảy ra vì Quốc hội đã thống nhất khung pháp lý.
Một số ý kiến khác thì cho rằng nên tạo ra các sandbox với những AI rủi ro để cơ quan quản lý vừa quan sát rủi ro thực tế vừa điều chỉnh chính sách linh hoạt, chứ không nên đặt ngưỡng từ đầu.
Nhìn rộng ra bối cảnh triển khai Khung đạo đức AI quốc gia
Một số kỹ sư và nhà khoa học máy tính tin rằng việc xác định các tiêu chí để phân loại hệ thống trí tuệ nhân tạo có rủi ro cao nên được nhìn rộng hơn trong bối cảnh Việt Nam sẽ triển khai Khung đạo đức trí tuệ nhân tạo quốc gia, được quy định tại Điều 26 trong Luật Trí tuệ nhân tạo.
Dự thảo Thông tư Hướng dẫn Khung đạo đức trí tuệ nhân tạo quốc gia, mà Bộ KH&CN lấy ý kiến song song với Dự thảo Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao, yêu cầu các hệ thống phục vụ hoạt động quản lý nhà nước và cung cấp dịch vụ công phải chứng minh sự an toàn, công bằng, minh bạch và khả năng giải trình trong toàn bộ vòng đời – từ dữ liệu huấn luyện, kiểm thử kỹ thuật đến quy trình vận hành và lưu vết sự cố.
Trong làn sóng ứng dụng AI, khu vực công thường đi chậm hơn doanh nghiệp. Nhưng khi đã bước vào, họ phải đáp ứng một yêu cầu mà thị trường tư nhân ít khi đặt nặng là niềm tin ở quy mô xã hội. Một hệ thống AI gây mất lòng tin khi vận hành có thể dẫn đến những tổn hại không đo đếm được.
Với những công ty muốn cung cấp AI cho khu vực công, họ bắt buộc phải đánh giá rủi ro ngay từ khâu thiết kế (Ethics by Design) vì đó là điều kiện để được tham gia đấu thầu. Nghĩa là, thay vì phát triển sản phẩm trước rồi chạy theo để xử lý sự cố, bổ sung kiểm soát hay giải trình khi có yêu cầu, các yếu tố tuân thủ đã được tích hợp ngay từ đầu. Các khâu như ghi vết (logging), kiểm toán, quản trị dữ liệu, hay khả năng can thiệp của con người không còn là phần "vá thêm" sau khi sản phẩm đã vận hành. Khi đó, tuân thủ không phải là chi phí phát sinh bất ngờ, mà trở thành một phần tự nhiên của chi phí phát triển sản phẩm. Doanh nghiệp sẽ chủ động kiểm soát rủi ro, thay vì bị động xử lý khủng hoảng.
Về mặt kinh tế, điều này tạo ra sự khác biệt rất rõ ràng. Chi phí tuân thủ sớm là chi phí kỹ thuật có thể dự đoán được, thậm chí có thể tối ưu. Khi có yêu cầu hoặc sự cố xảy ra, doanh nghiệp đã có sẵn thông tin, quy trình để nhanh chóng báo cáo và xử lý hậu quả. Còn tuân thủ muộn thường đi kèm rất nhiều chi phí khắc phục, phát sinh rắc rối pháp lý, vận hành bị gián đoạn và tổn thất uy tín khó lường.
Mặc dù theo Dự thảo, Khung đạo đức trí tuệ nhân tạo quốc gia chỉ áp dụng đối với các doanh nghiệp cung cấp giải pháp AI cho khu vực công, nhưng các doanh nghiệp AI trong khu vực tư nhân được khuyến khích tham chiếu và cân nhắc làm theo.
Đối với việc tuân thủ các yêu cầu kiểm soát AI rủi ro cao, các startup sẽ là những doanh nghiệp chịu áp lực nhiều hơn trong ngắn hạn. Nhưng nếu xây dựng sản phẩm theo hướng "compliance-native" - tức sinh ra đã sẵn khả năng lưu trữ, giải trình và kiểm soát rủi ro - chắc chắn họ sẽ nâng cao khả năng cạnh tranh của mình.
"Bổ sung khả năng giải thích cho những mô hình AI đã vận hành nhiều năm là việc không hề dễ. Trong nhiều trường hợp, startup xây dựng một hệ thống mới từ đầu còn đơn giản hơn việc chỉnh sửa các hệ thống cũ," một kỹ sư hạ tầng AI thuộc tập đoàn công nghệ trong Top 10 của Việt Nam nói với Tia Sáng.