Những hình ảnh do các công cụ trí tuệ nhân tạo (AI) sản xuất ngày càng phổ biến và giống thật đến mức nhiều người xem không thể nhận ra. Nếu những hình ảnh này không được gắn nhãn là "ảnh AI", khiến người dùng nhầm lẫn, thì đó có phải là hành vi lừa dối, và trách nhiệm của các bên liên quan như thế nào?
Đây chỉ là một trong vô số vấn đề nảy sinh trong quá trình phát triển và ứng dụng AI mà Việt Nam đang phải đối mặt trên con đường trở thành trung tâm đổi mới sáng tạo, phát triển các giải pháp và ứng dụng AI trong khu vực Đông Nam Á và thế giới vào năm 2030 - theo chiến lược AI của Việt Nam đặt ra cách đây bốn năm. Sự phát triển nhanh chóng của AI đang đặt ra nhiều thách thức đạo đức và pháp lý, đòi hỏi Việt Nam cũng như các quốc gia phải có một khuôn khổ pháp lý phù hợp để cân bằng giữa mục tiêu đổi mới và quản trị rủi ro.
Giải pháp của Việt Nam là xây dựng Luật Trí tuệ nhân tạo - hiện đang được Bộ KH&CN chủ trì xây dựng dự thảo, dự kiến trình Quốc hội cho ý kiến vào kỳ họp thứ 10, cũng là kỳ họp cuối cùng của nhiệm kỳ Quốc hội khóa XV, diễn ra vào tháng 10/2025. "Mục tiêu của chúng ta là ưu tiên phát triển và ứng dụng AI, nhưng để làm được điều này, chúng ta phải có luật dành cho AI", Thứ trưởng Bộ KH&CN Phạm Đức Long phát biểu trong hội thảo góp ý hoàn thiện Dự thảo Luật Trí tuệ nhân tạo vào ngày 15/10.
Quản trị dựa trên rủi ro
Dù mới được bắt đầu cách đây hơn một tháng, các chuyên gia trong hội thảo đánh giá nội dung dự thảo khá toàn diện, bao trùm từ vấn đề phân loại và quản lý hệ thống AI, phát triển hạ tầng, đảm bảo chủ quyền AI quốc gia, phát triển hệ sinh thái, nguồn nhân lực và thị trường AI, cho đến vấn đề đạo đức, trách nhiệm và xử lý vi phạm liên quan đến AI. "Tôi thấy dự thảo luật này rất xuất sắc, viết rất kỹ và rất tốt", bà Trần Vũ Hà Minh, Cố vấn trưởng về Trí tuệ nhân tạo có trách nhiệm của FPT Software, nhận xét. "Tuy nhiên, để thực hiện tôi nghĩ rất khó khăn và thách thức".
Vấn đề lớn nhất có lẽ nằm ở ngay cách tiếp cận của Việt Nam - quản lý dựa trên rủi ro với các biện pháp tiền kiểm. Theo dự thảo, mọi hoạt động liên quan đến hệ thống trí tuệ nhân tạo tại Việt Nam phải tuân thủ một số nguyên tắc cơ bản, bao gồm quản lý dựa trên rủi ro. Cụ thể, các hệ thống AI sẽ được chia thành bốn cấp độ: rủi ro không chấp nhận được; rủi ro cao; rủi ro trung bình và rủi ro thấp. Nhà nước áp dụng biện pháp quản lý tương xứng với cấp độ rủi ro của hệ thống AI. Tất cả nội dung về trách nhiệm của nhà phát triển, người sử dụng hay xử lý vi phạm, bồi thường đều căn cứ vào mức độ rủi ro này. Chẳng hạn các hệ thống AI được đánh giá là có rủi ro cao chỉ được phép đưa ra thị trường hoặc đưa vào sử dụng sau khi có chứng nhận hợp quy theo pháp luật về tiêu chuẩn và quy chuẩn kỹ thuật hoặc các biện pháp đánh giá sự phù hợp khác. Trong khi đó, với các hệ thống có rủi ro trung bình và thấp, Nhà nước chỉ khuyến khích áp dụng tiêu chuẩn, quy chuẩn kỹ thuật chứ không bắt buộc.
Cách tiếp cận này khá tương đồng với châu Âu. Năm 2024, Liên minh châu Âu (EU) ban hành Đạo luật AI của EU (EU AI Act), quản lý AI theo cấp độ rủi ro, chia hệ thống AI thành bốn nhóm: bị cấm, rủi ro cao, rủi ro hạn chế, và rủi ro tối thiểu. "Điểm đặc sắc của EU không chỉ nằm ở cấu trúc kỹ thuật, mà ở triết lý: AI phải phục vụ con người, không thay thế con người. Bởi vậy, luật nhấn mạnh các nguyên tắc về minh bạch, trách nhiệm giải trình (accountability) và bảo vệ dữ liệu cá nhân", tác giả Đào Trung Thành, chuyên gia tư vấn chiến lược CNTT, CĐS và AI và tác giả Nguyễn Lan Phương, viết trênTạp chí KH&CN Việt Nam. "Theo cách này, châu Âu đặt cược vào ‘niềm tin’ hơn là ‘tốc độ’: hy vọng tạo ra một môi trường AI đáng tin cậy (trustworthy AI) như nền tảng cho đổi mới bền vững".
Việc kiểm soát rủi ro có nguy cơ phát sinh từ hệ thống AI chắc chắn là điều cần thiết. Tuy nhiên, các chuyên gia cho rằng Việt Nam nên hạn chế quản lý rủi ro bằng biện pháp tiền kiểm để cân bằng giữa kiểm soát rủi ro và thúc đẩy đổi mới. "Chúng ta nên xem xét lại các quy định mang tính chất tiền kiểm trong dự thảo như phải đăng ký, thử nghiệm cũng như các thủ tục cần làm trước khi đưa vào thị trường. Điều này sẽ làm tăng chi phí tuân thủ, khiến các doanh nghiệp e ngại khi vào thị trường Việt Nam", bà Nguyễn Việt Hà, Phó Chủ tịch Hiệp hội Thương mại Hoa Kỳ tại Hà Nội (AmCham Hanoi) nhận xét.
Thực tế đang diễn ra ở EU đã bộc lộ rõ hạn chế của các biện pháp tiền kiểm trong quản trị rủi ro AI. "Có những sản phẩm AI mới được cung cấp trên thị trường toàn cầu nhưng khi tiến vào EU, phải đợi mất cả năm mới làm xong thủ tục, đánh giá tất cả rủi ro mới đưa vào thị trường EU. Điều này có thể ảnh hưởng đến năng suất lao động của EU", ông Nguyễn Minh Đức, chuyên gia từ Hội đồng Kinh doanh Hoa Kỳ - ASEAN, nhận xét. Tương tự ở Việt Nam, "các quy định này có thể dẫn đến một hệ quả là một số nhà cung cấp dịch vụ AI trên thế giới sẽ bỏ qua luôn thị trường Việt Nam. Họ thấy vào thị trường này quá phức tạp, phải làm nhiều thủ tục, chịu sự phân loại, kiểm tra... thì họ sẽ ngần ngại. Như vậy, người dùng Việt Nam sẽ không được sử dụng các sản phẩm, dịch vụ mới trên thế giới. Điều này sẽ ảnh hưởng rất lớn nếu trong nước chưa có các sản phẩm khác thay thế".
Do vậy, các chuyên gia khuyến nghị Việt Nam nên quản trị rủi ro theo hướng hậu kiểm. Chẳng hạn theo quy định về phân loại hiện nay, trước khi đưa ra thị trường hoặc triển khai, nhà cung cấp hoặc bên nhập khẩu có trách nhiệm tự đánh giá, tự phân loại hệ thống AI theo quy định trong luật, lưu giữ hồ sơ kỹ thuật và chịu trách nhiệm trước pháp luật về kết quả tự phân loại. Nếu không xác định được chắc chắn rủi ro, nhà cung cấp có quyền gửi yêu cầu tham vấn và đề nghị xác nhận bằng văn bản kèm theo hồ sơ kỹ thuật đến cơ quan thường trực của Ủy ban Quốc gia về AI. "Để giảm bớt gánh nặng phân loại, lưu trữ hồ sơ, chúng ta có thể đưa ra quy định nếu không thực hiện phân loại sẽ mặc định là rủi ro thấp. Nếu sau này cơ quan nhà nước tiến hành phân loại là rủi ro cao thì sẽ phải chịu phạt. Việc quy định theo hướng này sẽ đơn giản hóa các thủ tục cho các sản phẩm AI đơn giản, nghe qua đã biết là rủi ro thấp", ông Nguyễn Minh Đức nói. "Cách tiếp cận dựa trên hậu kiểm như vậy giúp giảm chi phí gia nhập thị trường lúc ban đầu. Điều này đặc biệt quan trọng với những ngành mới như AI - tất cả chi phí, thủ tục phải làm trước khi đưa sản phẩm ra thị trường phải được cắt giảm một cách tối đa".
Mô hình "hổ giấy"
Các quốc gia và khu vực trên thế giới đã ban hành rất nhiều khuôn khổ pháp lý khác nhau về AI. Vậy Việt Nam nên đi theo mô hình nào? "Kinh nghiệm từ các quốc gia trên thế giới cho thấy Việt Nam khó đi theo một cực nào hoàn toàn", tác giả Đào Trung Thành và các cộng sự viết trênTạp chí KH&CN Việt Nam. "Nếu luật hóa quá chi tiết như EU, có nguy cơ làm chậm tốc độ đổi mới, nhất là khi doanh nghiệp trong nước còn yếu. Nhưng nếu thả lỏng như Hoa Kỳ, sẽ thiếu năng lực quản lý rủi ro, dễ bị lạm dụng dữ liệu và lan truyền nội dung độc hại. Nếu kiểm soát hành chính như Trung Quốc, ta có thể đảm bảo an ninh, nhưng đánh đổi tự do sáng tạo và hợp tác quốc tế".
Theo các chuyên gia, Việt Nam nên xây dựng Luật AI theo kiểu "hổ giấy": "Giữa những đối cực đó, hướng phù hợp nhất có thể là Luật khung về AI (AI Framework Law), một đạo luật ràng buộc ở nguyên tắc, nhưng linh hoạt trong thực thi. Mô hình này có thể học hỏi từ Hàn Quốc và Singapore, nhưng được điều chỉnh theo điều kiện Việt Nam". Đây là hướng tiếp cận hợp lý trong bối cảnh "công nghệ AI đang phát triển cực kỳ nhanh, các nhà làm chính sách luôn trong trạng thái phải đuổi theo để quản trị các vấn đề đó", theo luật sư Nguyễn Tuấn Linh ở Công ty Luật Baker McKenzie, nhận xét. "Chúng ta nên xây dựng Luật AI theo hướng quản trị linh hoạt, cho phép cập nhật linh hoạt các phương thức tuân thủ thay thế".
Đây là con đường mà nhiều quốc gia châu Á như Hàn Quốc, Nhật Bản và Singapore đang theo đuổi. Năm 2023, Hàn Quốc trở thành quốc gia thứ hai trên thế giới (sau EU) thông qua Đạo luật Khung về AI (AI Basic Act). Trong đó, thiết lập hệ thống đánh giá rủi ro tương tự EU, nhưng có mức linh hoạt cao hơn, với các nghị định của Tổng thống và bộ, ngành để kịp thích ứng với tốc độ thay đổi của công nghệ. Hàn Quốc cũng thành lập Hội đồng AI quốc gia để điều phối chiến lược giữa nhà nước, giới học thuật và doanh nghiệp. "Mô hình của Hàn Quốc là kiểu ‘hổ giấy’, họ xây dựng vỏ bọc cứng giống EU để thể hiện trách nhiệm với quốc tế nhưng cốt lõi là luật mềm. Cơ chế của họ là có luật nhưng chế tài thực hiện rất yếu, mang tính biểu tượng, mức phạt tối đa chỉ khoảng 500 triệu đồng", ông Nguyễn Tử Quảng, CEO Tập đoàn Công nghệ BKAV cho biết. "Họ gửi một thông điệp rõ ràng cho doanh nghiệp: hãy cứ tự do đổi mới, nhà nước sẽ không cản đường. Tất nhiên, họ vẫn phải có quy định ngăn chặn các mối nguy hiểm".
Ngay cả khu vực đi đầu về luật AI như EU cũng đang cân nhắc đến việc chuyển hướng theo mô hình này. "Đạo luật AI của EU dẫn đến một gánh nặng tuân thủ rất nặng nề đối với doanh nghiệp ở châu Âu. Theo thống kê, các doanh nghiệp ở châu Âu phải dành một nửa ngân sách thuế của mình để dành cho việc tuân thủ các quy định này. Trong khi với cách tiếp cận làm luật mềm mỏng như Hàn Quốc, Nhật Bản, họ chỉ mất khoảng 20% ngân sách để thực hiện tuân thủ thôi", ông Frederico do Nascimento Costa, Giám đốc chính sách AI và dữ liệu của Amazon Website Service cho biết. "Nhiều người ở châu Âu hiện nay cũng đề xuất nên đình chỉ việc áp dụng đạo luật AI để xây dựng một cách tiếp cận tốt hơn, học hỏi từ các khu vực khác như Nhật Bản, Hàn Quốc với mong muốn có một đạo luật AI mang tính chất cân bằng hơn".
Việc xây dựng các quy định theo hướng linh hoạt là điều mà ban soạn thảo vẫn luôn hướng tới, với các phiên bản dự thảo thay đổi qua từng ngày dựa trên các ý kiến đóng góp. "Thực ra chúng tôi đang theo cách tiếp cận của Hàn Quốc, cố gắng quản lý ở mức tối thiểu, chỉ những gì cần mới quản lý, còn lại thiên về hướng thúc đẩy phát triển. Nếu các quy định chưa thể hiện được rõ điều này thì chúng ta sẽ tiếp tục sửa đổi trong dự thảo", Thứ trưởng Phạm Đức Long cho biết.