Rủi ro deepfake ở Việt Nam chưa được ngăn chặn từ gốc

Pháp luật hiện nay mới xử lý deepfake sau khi vi phạm đã xảy ra, chưa ngăn ngừa rủi ro ngay từ khâu thiết kế, huấn luyện và vận hành hệ thống AI.

Chỉ trong hai năm gần đây, tràn lan hình ảnh, video giả mạo, hoàn toàn được dàn dựng bằng AI (deepfake). Chẳng hạn gần đây ca sĩ Khắc Việt bức xúc vì bị dựng clip giả mạo để quảng cáo cờ bạc. Các cơ quan chức năng liên tục cảnh báo các hình thức sử dụng hình ảnh, video deepfake mạo danh người thân, ngân hàng hoặc công an để lừa đảo.

Trên thế giới, nhiều nền tảng lớn đã vấp phải tranh cãi khi AI bị lạm dụng để tạo deepfake gây hại. Việc Grok bị điều tra tại Australia và TikTok phải tăng cường gắn nhãn nội dung AI cho thấy áp lực quản lý đang gia tăng trên toàn cầu.

Ngay trong tuần này, Grok đang bị Cơ quan an toàn trực tuyến Australia điều tra, yêu cầu làm rõ trách nhiệm khi người dùng sử dụng Grok để tạo deepfake liên quan đến hình ảnh mang tính khiêu dâm của phụ nữ và trẻ em.

Thậm chí, nhiều hình ảnh, video deepfake không chỉ xâm phạm quyền riêng tư cá nhân mà còn chạm tới các lĩnh vực nhạy cảm như an ninh thông tin, pháp luật quốc tế và chủ quyền quốc gia.

Những ví dụ này cho thấy deepfake không phải hiện tượng cá biệt, không chỉ xâm phạm quyền riêng tư cá nhân, mà đã trở thành rủi ro có tính hệ thống, vượt ra ngoài khả năng kiểm soát bằng các biện pháp xử lý vi phạm truyền thống.

Các quy định còn gián tiếp và phân tán

Để ứng phó với tin giả nói chung và deepfake, các cơ quan quản lý trong nước đã liên tục ban hành nhiều quy định.

Gần đây nhất, Luật Trí tuệ nhân tạo năm 2025 đã thiết lập các nguyên tắc nền tảng về bảo vệ quyền riêng tư và an toàn dữ liệu trong toàn bộ vòng đời của hệ thống AI, từ thu thập dữ liệu đến khai thác đầu ra. Cách tiếp cận này phản ánh sự chuyển dịch quan trọng trong tư duy lập pháp của Việt Nam, khi quyền riêng tư được xác lập như một trụ cột của quản trị AI, đặc biệt đối với các công nghệ AI tạo sinh có nguy cơ tác động trực tiếp đến quyền con người như deepfake.

Tuy nhiên, các nguyên tắc này vẫn chưa được cụ thể hóa bằng một cơ chế điều chỉnh trực tiếp đối với hành vi deepfake, mà chủ yếu được thực thi thông qua các quy định pháp luật hiện hành mang tính gián tiếp và phân tán.

Luật An ninh mạng năm 2018 nghiêm cấm hành vi tung tin sai sự thật, xuyên tạc, vu khống gây hoang mang trong nhân dân. Tương tự, Luật Công nghệ thông tin năm 2006 (sửa đổi 2018) quy định các nhóm hành vi bị nghiêm cấm trong đó bao gồm việc trao đổi, truyền, sử dụng thông tin số để xuyên tạc, danh dự nhân phẩm của công dân hay lưu hành sản phẩm công nghệ thông tin trái pháp luật.

Ở cấp độ chế tài hình sự, Bộ luật Hình sự năm 2015 (sửa đổi 2017) cũng có các quy định liên quan. Nếu chứng minh được yếu tố xúc phạm danh dự cá nhân, có thể áp dụng Điều 155 về tội làm nhục người khác hoặc Điều 156 về tội vu khống. Trong trường hợp sử dụng nội dung video để gây hoang mang trong xã hội, Điều 288 về tội đưa hoặc sử dụng trái phép thông tin trên mạng viễn thông có thể được viện dẫn. Nếu như video bị lợi dụng để chống phá Nhà nước, thậm chí Điều 117 về tội tuyên truyền chống Nhà nước cũng có thể đặt ra.

Ở góc độ xử phạt hành chính, việc cung cấp và chia sẻ video giả mạo vẫn thuộc nhóm hành vi bị cấm, bất kể nội dung đó có vẻ phù hợp với quan điểm “đúng đắn” hay không. Việc giả mạo này có thể bị phạt tiền từ 10.000.000 đồng đến 20.000.000 (Điều 101 của Nghị định 15/2020/NĐ-CP ngày 3/2/2020 của Chính phủ về quy định xử phạt vi phạm hành chính trong lĩnh vực bưu chính, viễn thông, tần số vô tuyến điện, công nghệ thông tin và giao dịch điện tử).

Một cách tiếp cận khác là căn cứ theo Luật Bảo vệ dữ liệu cá nhân năm 2025: hình ảnh và giọng nói là dữ liệu cá nhân nhạy cảm, chỉ được xử lý khi có sự đồng ý rõ ràng của chủ thể dữ liệu. Việc sử dụng hình ảnh, giọng nói của giáo sư Harvard để dựng video mà không có sự chấp thuận chủ thể dữ liệu cá nhân là hành vi vi phạm quyền dữ liệu cá nhân.

Cùng với đó, Bộ luật Dân sự năm 2015 quy định quyền của cá nhân đối với hình ảnh, danh dự, nhân phẩm, uy tín. Bất kỳ sự xâm phạm nào cũng có thể dẫn đến quyền yêu cầu gỡ bỏ nội dung, xin lỗi, cải chính và bồi thường thiệt hại.

Như vậy, hệ thống pháp luật hiện hành đã có khá nhiều “hàng rào” để xử lý hành vi sản xuất và lan truyền sản phẩm deepfake. Tuy nhiên, cách tiếp cận hiện nay của pháp luật Việt Nam đối với deepfake vẫn mang tính phản ứng sau khi vi phạm đã xảy ra, tập trung vào việc xử lý hậu quả hơn là kiểm soát rủi ro ngay từ khâu thiết kế, huấn luyện và vận hành hệ thống AI.

Từ những khoảng trống này, trong thời gian tới, hệ thống pháp luật Việt Nam cần xem xét xây dựng cơ chế trách nhiệm pháp lý trực tiếp đối với hành vi tạo lập, vận hành và khai thác các hệ thống deepfake gây thiệt hại. Phòng ngừa ở tầng công nghệ (thiết kế – huấn luyện – phát triển) hiệu quả hơn chỉ xử phạt sau khi lan truyền.

Các hành vi thiết kế, huấn luyện, chỉnh sửa hoặc sử dụng AI để tạo ra nội dung giả mạo xâm phạm quyền và lợi ích hợp pháp của cá nhân cần được xác định rõ là hành vi bị cấm và gắn với chế tài cụ thể trong Luật Trí tuệ nhân tạo cùng các văn bản hướng dẫn thi hành. Cách tiếp cận này sẽ góp phần chuyển trọng tâm quản lý từ xử lý hậu quả sang phòng ngừa rủi ro ngay từ giai đoạn phát triển công nghệ.

Các nền tảng số không thể vô can

Deepfake cho phép tạo ra hoặc chỉnh sửa hình ảnh, giọng nói, và video một cách tinh vi, khiến người xem khó phân biệt thật giả. Ảnh minh họa: Mỹ Hạnh

Bên cạnh người trực tiếp tạo ra deepfake, vai trò của các nền tảng số – môi trường lan truyền chủ yếu của nội dung giả mạo – cũng đặt ra nhiều câu hỏi pháp lý. Nhưng đối với bên cung cấp nền tảng công nghệ – môi trường lan truyền chủ yếu của video giả mạo, hiện nay, pháp luật Việt Nam vẫn chưa quy định rõ nghĩa vụ pháp lý trong việc phát hiện và quản lý các sản phẩm deepfake.

Gần đây, một số nền tảng số đã có động thái đối phó với các video giả mạo, ví dụ TikTok đã gắn nhãn nội dung do AI tạo ra (AI-generated content) đối với sản phẩm deepfake nhằm tránh gây hiểu nhầm hoặc lan truyền thông tin sai lệch. Theo đó, TikTok hướng dẫn khi phát hiện nội dung do AI tạo ra vi phạm nguyên tắc cộng đồng, người dùng có thể báo cáo và chọn mục “Thông tin sai lệch” và “Deepfake, truyền thông nhân tạo và truyền thông thao túng” để gửi đến TikTok.

Nhưng nhìn chung, việc gắn nhãn deepfake không bắt buộc đối với các nền tảng, do Việt Nam chưa có quy định pháp luật cụ thể điều chỉnh vấn đề này. Kết quả là việc gắn nhãn chủ yếu phụ thuộc vào mức độ chủ động của từng nền tảng.

Bởi vậy, bên cạnh trách nhiệm của người trực tiếp tạo ra deepfake, pháp luật còn cần tăng cường trách nhiệm của các nền tảng số. Kinh nghiệm quốc tế cũng cho thấy việc chỉ xử lý người trực tiếp tạo ra deepfake là chưa đủ sức răn đe. Xu hướng hiện nay là áp đặt “nghĩa vụ cẩn trọng” đối với các nhà cung cấp dịch vụ trực tuyến, yêu cầu họ chủ động đánh giá rủi ro, phát hiện, gỡ bỏ và hạn chế lan truyền các nội dung gây hại, bất kể nền tảng có trực tiếp tạo ra nội dung hay không.

Sau cùng, deepfake không chỉ là thách thức công nghệ mà còn là phép thử đối với năng lực quản trị pháp lý trong kỷ nguyên số.

Luật Trí tuệ nhân tạo 2025 mở ra khuôn khổ quan trọng, nhưng chỉ khi được cụ thể hóa bằng các quy định đồng bộ và có tính phòng ngừa, pháp luật mới thực sự bảo vệ được quyền con người và giữ vững niềm tin xã hội. Đây cũng là điều kiện cần thiết để Việt Nam phát triển AI một cách an toàn, có trách nhiệm và bền vững.

Tác giả

(Visited 64 times, 10 visits today)