Giao diện tính năng nhận diện khuôn mặt trên một thiết bị kiểm soát ra vào. Ảnh: Thọ Trần/ VNE
Như vậy, sau giai đoạn thử nghiệm ban đầu, Việt Nam đang bước vào giai đoạn mới của quản trị công nghệ - xây dựng hàng rào đối với một số công nghệ có thể khuếch đại sai lầm ở quy mô xã hội.
Phân loại theo tác động, không theo công nghệ
Dự thảo Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao (gọi tắt là Danh mục) được mở lấy ý kiến công khai trên Cổng Thông tin Chính phủ trong vòng một tháng, từ ngày 9/2 đến 9/3/2026.
Theo đó, một hệ thống trí tuệ nhân tạo (AI) được xếp vào nhóm rủi ro cao không phải vì nó dùng mạng nơ-ron hay mô hình ngôn ngữ lớn, mà vì kết quả của nó có thể ảnh hưởng trực tiếp đến quyền sống, quyền được bảo vệ sức khỏe, quyền riêng tư, cơ hội học tập, khả năng tiếp cận các dịch vụ thiết yếu, hay tự do cá nhân.
Tương tự, nếu hệ thống AI có khả năng gây ra các hậu quả nghiêm trọng, khó khắc phục đối với cá nhân, xã hội hoặc lợi ích công cộng thì chúng cũng được xếp vào dạng rủi ro cao.
Đáng chú ý, Danh mục nhấn mạnh bối cảnh sử dụng quan trọng hơn bản thân công nghệ. Cùng một thuật toán nhận dạng khuôn mặt có thể vô hại trong việc mở khóa điện thoại, nhưng trở thành rủi ro cao nếu được triển khai trên diện rộng trong không gian công cộng.
Dự thảo Danh mục đưa ra những "ngưỡng" áp dụng mà theo đó, hệ thống được coi là rủi ro cao.
Ví dụ, AI dùng trong tuyển dụng hoặc quản lý nhân sự sẽ được coi là rủi ro cao nếu áp dụng cho từ 500 lao động mỗi năm trở lên, hoặc khi kết quả do AI đưa ra trở thành căn cứ chính để công ty quyết định tuyển dụng, đánh giá, chấm dứt hợp đồng lao động với nhân viên.
Các loại AI này thường bao gồm: AI sàng lọc hồ sơ ứng tuyển, tự động chấm điểm dựa trên kỹ năng, kinh nghiệm, từ khóa trên hồ sơ, rồi chọn ra các ứng viên phù hợp nhất cho vòng phỏng vấn; phần mềm chấm điểm video phỏng vấn dựa trên giọng nói, nét mặt, tốc độ phản hồi; hệ thống phân tích email nội bộ và dữ liệu hiệu suất để dự đoán nhân viên nào có nguy cơ nghỉ việc trong ba tháng tới. v.v
Dự thảo Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao đang lấy ý kiến từ ngày 9/2 đến 9/3/2026 tại Cổng thông tin Chính phủ, gồm 13 dạng hệ thống AI thuộc bốn nhóm khác nhau. Đồ họa: Ngô Hà
Tương tự, hệ thống phân loại cá nhân - như chấm điểm và xếp hạng công dân, dự báo cá nhân có khả năng phạm tội v.v - được xếp vào nhóm rủi ro cao khi ảnh hưởng đến hơn 1.000 người mỗi tháng hoặc 10.000 người mỗi năm. Các hệ thống AI triển khai quy mô lớn, có khả năng gây tác động dây chuyền, hậu quả kéo dài, có thể ảnh hưởng trên 50.000 người cũng được đưa vào nhóm này.
Trong ngành tài chính, chỉ cần AI tự động hóa từ 30% quy trình trở lên là đủ để bị coi là rủi ro cao và kích hoạt cơ chế giám sát chặt hơn.
Điều này cho thấy các nhà quản lý Việt Nam đặc biệt cảnh giác với các dây chuyền quyết định không có con người trong quy trình, vốn từng gây tranh cãi ở Mỹ và châu Âu khi các hệ thống chấm điểm tín dụng, cho vay, định giá bảo hiểm bị cáo buộc thiên lệch.
Cách tiếp cận dựa trên rủi ro này đặt Việt Nam vào cùng quỹ đạo với Liên minh châu Âu. Để tránh các rủi ro dẫn tới hệ quả sâu rộng, Việt Nam đang đặt ra các hàng rào kiểm soát và tuân thủ ngay từ đầu, nhằm phòng ngừa tác động tiêu cực.
Điều này cũng phù hợp với tinh thần của dự thảo hướng dẫn triển khai "Khung đạo đức trí tuệ nhân tạo quốc gia" mà Bộ KH&CN đang lấy ý kiến song song trên cổng thông tin của Bộ.
Theo Luật Trí tuệ nhân tạo sắp có hiệu lực thi hành từ 1/3/2026 thì những hệ thống trí tuệ nhân tạo có rủi ro cao phải được đánh giá sự phù hợp hoặc kiểm định (bởi bên thứ ba) trước khi đưa vào sử dụng.
Đồng thời, các hệ thống AI này phải được kiểm tra định kỳ trong suốt vòng đời sử dụng, bao gồm cả việc triển khai những biện pháp kiểm soát và bảo đảm khả năng giám sát, can thiệp của con người.
Các lĩnh vực mặc định chịu giám sát
Danh mục các hệ thống AI có rủi ro cao xác định một số lĩnh vực gần như mặc định phải chịu giám sát đặc biệt:
Thứ nhất, các AI nhận dạng sinh trắc học từ xa trong không gian công cộng được yêu cầu chứng nhận sự phù hợp trước khi đưa vào sử dụng.
Thứ hai, các AI hỗ trợ chẩn đoán, phân loại bệnh nhân, hay phân bổ nguồn lực y tế đều được xếp loại rủi ro cao và phải qua cơ chế chứng nhận.
Lý do là các quyết định của AI trong y tế có thể tác động trực tiếp đến tính mạng, cơ hội điều trị công bằng và sự an toàn của toàn bộ hệ thống chăm sóc sức khỏe. Đã có trường hợp ở Mỹ, hệ thống ưu tiên phân bổ nguồn lực chăm sóc thấp hơn cho bệnh nhân da màu vì thuật toán dùng "chi phí y tế trong quá khứ" làm tham chiếu cho mức độ bệnh - mà chi phí này lại phản ánh bất bình đẳng xã hội.
Thứ ba, với những hạ tầng xương sống của nền kinh tế như giao thông, năng lượng, cấp nước, viễn thông, AI chỉ cần gây ra nguy cơ gián đoạn dịch vụ như mất điện, mất nước, ùn tắc giao thông, mất internet hay sóng 4G/5G trên diện rộng, làm ảnh hưởng đến từ 10.000 người sử dụng trở lên hoặc phạm vi từ hai đơn vị hành chính cấp tỉnh trở lên là đủ để bước vào "vùng đỏ" kiểm soát.
Các nguyên tắc xác định hệ thống AI có rủi ro cao đang lấy ý kiến từ ngày 9/2 đến 9/3/2026 tại Cổng thông tin Chính phủ. Đồ họa: Ngô Hà
Các ví dụ rõ nhất về AI trong mảng hạ tầng này là những hệ thống AI quản lý lưới điện thông minh có khả năng dự đoán nhu cầu tiêu thụ điện theo giờ để cho phép các nguồn tái tạo như điện mặt trời, điện gió phát lên lưới. Hoặc, các dạng AI kết nối với camera giao thông, có thể giám sát lưu lượng xe cộ đi lại và tự động điều chỉnh đèn tín hiệu để giảm ùn tắc.
Những vụ tấn công mạng vào cơ sở hạ tầng ở nhiều nước cùng với các sự cố liên quan đến hệ thống điều phối tự động trong ngành điện đã góp phần làm tăng mối lo ngại về an toàn và kiểm soát AI, từ đó thúc đẩy nhiều chính phủ xây dựng khung pháp lý chặt chẽ hơn.
Thứ tư, các hệ thống AI hỗ trợ quyết định hành chính và hoạt động tư pháp đều được xếp loại rủi ro cao, bất kể quy mô triển khai. Khi AI tham gia phân bổ quyền lợi pháp lý với các tổ chức, cá nhân - như cấp phép, xử phạt, tính thuế, đánh giá rủi ro tái phạm... - thì rủi ro không nằm ở số lượng hồ sơ mà ở bản chất quyền lực được trao cho máy móc.
Qua nội dung dự thảo, có thể thấy định hướng quản trị AI được đặt ra cho toàn bộ hệ thống, bao gồm cả khu vực công chứ không chỉ khu vực tư nhân.
Thách thức với các startup AI
Với dự thảo mới này, các startup AI trong lĩnh vực fintech, HR-tech, govtech hay healthtech sẽ phải nghiên cứu, đánh giá rủi ro, thiết kế cơ chế can thiệp của con người, lưu vết quyết định, và trong một số trường hợp cần chứng nhận bắt buộc trước khi triển khai.
Trong ngắn hạn, điều này có thể làm chậm việc thương mại hóa một số sản phẩm. Nhưng về dài hạn, nó cũng có thể tạo ra lợi thế cạnh tranh cho những doanh nghiệp sớm đầu tư vào an toàn và minh bạch.
Với động thái mới, Việt Nam dường như đang chọn con đường siết sớm để tránh những cú sốc điều tiết về sau. Nếu được triển khai rõ ràng và nhất quán, khung pháp lý này có thể giúp thị trường AI trong nước phát triển theo hướng "chậm mà chắc", đồng thời tạo thêm niềm tin cho nhà đầu tư.
Tuy vậy, vẫn tồn tại rủi ro giống như bài học từ châu Âu: nếu chi phí tuân thủ quá cao, các startup nhỏ có thể bị đẩy ra khỏi cuộc chơi vì không kham nổi thủ tục và yêu cầu kiểm soát phức tạp. Khi đó, lợi thế có thể nghiêng về những doanh nghiệp lớn trong nước, thậm chí là các tập đoàn toàn cầu.
Nếu thành công, Việt Nam có thể trở thành một trong những quốc gia Đông Nam Á đầu tiên xây dựng được khung quản trị AI tương đối toàn diện - một dấu hiệu cho thấy cuộc đua AI đang bước sang giai đoạn trưởng thành, nơi không chỉ hiệu năng mà cả trách nhiệm xã hội mới quyết định đến sự phát triển của doanh nghiệp.
Trong các thảo luận về sự phát triển của công nghệ AI thời gian qua, Tia Sáng đã nỗ lực cảnh báo về những rủi ro mà công nghệ này có thể gây ra đối với các quyền của cá nhân hoặc lợi ích công cộng qua Chuyên đề Thuật toán theo dõi chúng ta như thế nào.