Deepfake đang trở thành một trong những biểu hiện rõ nét nhất của trí tuệ nhân tạo tạo sinh nhờ khả năng tái tạo hình ảnh, giọng nói và cử chỉ con người với độ chính xác ngày càng cao. Song hành với khả năng đó là nguy cơ bị lạm dụng để lừa đảo, bôi nhọ danh dự, xâm phạm đời sống riêng tư hoặc thao túng thông tin. Thực tế này đặt ra một câu hỏi pháp lý then chốt: liệu có cần cấm deepfake hay không?
Tuy nhiên, việc áp dụng biện pháp cấm đoán mang tính tuyệt đối có nguy cơ dẫn đến cách tiếp cận quá đơn giản đối với một hiện tượng công nghệ phức tạp. Trên thực tế, không phải mọi sản phẩm deepfake đều xâm phạm quyền con người hoặc lợi ích công cộng.
Chẳng hạn, trong nghệ thuật giễu nhại (parody), yếu tố "giả" được khai thác như một thủ pháp châm biếm xã hội. Trong giáo dục và nghiên cứu, deepfake có thể được sử dụng để mô phỏng nhân vật lịch sử, tái hiện các tình huống pháp lý hoặc bối cảnh xã hội phức tạp. Trong truyền thông và quảng cáo, nhiều nội dung lấy cảm hứng từ hình ảnh quen thuộc.
Deepfake vừa tiềm ẩn nguy cơ gây nhầm lẫn, vừa mở ra không gian mới cho sáng tạo và biểu đạt. Ảnh: Tom Kotov on Unsplash
Bởi vậy, nếu câu hỏi về pháp lý được đặt ra với deepfake thì nó không nằm ở vấn đề nội dung là "giả", mà ở khả năng gây nhầm lẫn và mức độ xâm phạm quyền, lợi ích hợp pháp của chủ thể liên quan.
Kinh nghiệm quốc tế
Trên thế giới, vấn đề deepfake đã sớm thúc đẩy sự vào cuộc của pháp luật ở nhiều quốc gia, khi những thiệt hại do công nghệ này gây ra không còn mang tính giả định mà đã hiện hữu rõ ràng.
Trong khi đó, Việt Nam chưa có các tiêu chí cụ thể để phân định giữa deepfake hợp pháp và deepfake gây hại, làm tăng rủi ro của cơ chế quản lý tùy nghi, khi trao cho cơ quan quản lý nhà nước quyền cân nhắc đáng kể thay vì bị ràng buộc bởi những chuẩn mực định lượng rõ ràng.
Bởi vậy, việc tham khảo kinh nghiệm và thực tiễn xét xử quốc tế trở nên hết sức cần thiết, nếu Việt Nam muốn nâng cao hiệu quả thực thi pháp luật và bảo đảm không gian cho sáng tạo và đổi mới.
Kinh nghiệm quốc tế cho thấy, trong nhiều hệ thống pháp luật, việc đánh giá khả năng gây nhầm lẫn nội dung deepfake thường dựa trên tiêu chuẩn của người tiếp nhận hợp lý. Đây là khái niệm dùng để đánh giá cách một người bình thường, có lý trí và hiểu biết ở mức trung bình sẽ hiểu, cảm nhận hoặc phản ứng trước một thông tin, hành vi hay sản phẩm nào đó.
Theo tiêu chuẩn này, việc xem xét một nội dung có gây nhầm lẫn trái pháp luật hay không phụ thuộc vào cảm nhận chủ quan của người tiếp nhận hợp lý, thay vì của một cá nhân cụ thể.
Nếu một nội dung deepfake có khả năng khiến người tiếp nhận hợp lý tin rằng hình ảnh, âm thanh hoặc thông tin được thể hiện là thật, hoặc phản ánh đúng hành vi, phát ngôn của cá nhân liên quan, thì có thể coi nội dung đó tiềm ẩn nguy cơ gây nhầm lẫn.
Cách tiếp cận này giúp hạn chế yếu tố cảm tính trong đánh giá, đồng thời tạo ra cơ sở khách quan và thống nhất hơn cho việc áp dụng và thực thi pháp luật. Trên thực tế, tiêu chuẩn của người tiếp nhận hợp lý đã được sử dụng khá phổ biến trong pháp luật và thực tiễn xét xử của nhiều quốc gia, đặc biệt trong các vụ việc liên quan đến quảng cáo gây nhầm lẫn, mạo danh hình ảnh hoặc lan truyền thông tin sai lệch.
Chẳng hạn, tại Mỹ, trong các vụ việc về quảng cáo mạo nhận sự ủng hộ của người nổi tiếng ("false endorsement"), các tòa án thường xem xét liệu một người tiêu dùng hợp lý (reasonable consumer) có thể tin rằng người nổi tiếng đó thực sự tham gia hoặc đồng ý với nội dung quảng cáo hay không. Nếu câu trả lời là có, nội dung đó có thể bị coi là gây nhầm lẫn trái pháp luật, kể cả khi có chú thích nhỏ hoặc lời giải thích không đủ rõ ràng.
Tại Liên minh châu Âu, trong lĩnh vực bảo vệ người tiêu dùng và truyền thông, Tòa án Công lý EU (CJEU) cũng thường xuyên áp dụng tiêu chuẩn người tiêu dùng trung bình (average consumer) tương đương với "người tiếp nhận hợp lý", để xác định khả năng gây nhầm lẫn của thông tin. Theo đó, việc đánh giá không dựa trên phản ứng của những người quá cả tin hoặc quá am hiểu, mà dựa trên cách hiểu của một người tiêu dùng trung bình, được coi là có mức độ cẩn trọng và hiểu biết hợp lý.
Cách xử lý cũng tương tự với các vụ việc sử dụng công nghệ AI để tạo video hoặc giọng nói giả của chính trị gia hoặc người nổi tiếng nhằm quảng bá sản phẩm hoặc lan truyền thông tin sai lệch. Nếu khả năng gây hiểu nhầm, dựa trên đánh giá của người xem thông thường, là đáng kể, nội dung sẽ bị coi là vi phạm pháp luật, bất kể người tạo ra có chủ ý "giải trí" hay không.
Không chỉ bản thân mức độ "giống" của deepfake, mà bối cảnh xuất hiện của nội dung cũng có ý nghĩa quyết định đối với hệ quả pháp lý. Cùng một mức độ "giống", nhưng đặt trong các bối cảnh khác nhau có thể dẫn đến hệ quả pháp lý khác nhau. Nội dung xuất hiện trong bản tin thời sự, quảng cáo thương mại hoặc thông điệp chính trị có khả năng gây nhầm lẫn cao hơn nhiều so với khi xuất hiện trong tác phẩm nghệ thuật hoặc giải trí.
Một video deepfake mô phỏng phát ngôn của một nghệ sĩ nếu được gắn trong quảng cáo sản phẩm mà không có sự đồng ý, sẽ có nguy cơ xâm phạm quyền hình ảnh. Trong khi đó, cùng hình ảnh đó được sử dụng trong một vở diễn sân khấu hoặc phim truyện, với bối cảnh rõ ràng là tác phẩm hư cấu, thì khả năng bị coi là vi phạm sẽ thấp hơn.
Một yếu tố quan trọng khác để phân biệt giữa hành vi hợp pháp và hành vi gây hại là mục đích sử dụng deepfake. Việc tạo lập nội dung nhằm phục vụ nghiên cứu, giáo dục hoặc sáng tạo nghệ thuật có bản chất khác với việc tạo lập nhằm lừa đảo, trục lợi hoặc bôi nhọ danh dự cá nhân.
Theo đó, việc sử dụng công nghệ AI để tái hiện giọng nói của một nhân vật lịch sử trong tài liệu giảng dạy có thể được xem là hợp lý, nếu không nhằm xuyên tạc lịch sử hoặc gán cho nhân vật những phát ngôn sai lệch. Ngược lại, việc dựng video deepfake của một cá nhân để kêu gọi đầu tư hoặc chuyển tiền rõ ràng mang mục đích lừa dối và cần bị xử lý nghiêm.
Cuối cùng, việc có hay không các biện pháp minh bạch như gắn nhãn "nội dung do AI tạo ra", cảnh báo rõ ràng hoặc tuyên bố công khai về tính hư cấu của nội dung là yếu tố quan trọng để giảm khả năng gây nhầm lẫn cho người tiếp nhận.
Ví dụ, một video quảng cáo sử dụng giọng nói được mô phỏng từ một ca sĩ nổi tiếng, nhưng ngay từ đầu video cho hiển thị rõ dòng chữ "Giọng nói do AI tạo ra, không phải người thật" và phần mô tả nội dung cũng tuyên bố đây là sản phẩm hư cấu, sẽ giúp người xem nhận thức đúng bản chất của nội dung và hạn chế nguy cơ bị hiểu nhầm là sự tham gia thật của người nổi tiếng đó. Trong trường hợp này, dù mức độ "giống" về giọng nói là cao, khả năng gây nhầm lẫn về mặt pháp lý đã được giảm thiểu đáng kể nhờ biện pháp minh bạch.
Ngược lại, nếu một video deepfake sử dụng hình ảnh và giọng nói của một cá nhân, được dàn dựng dưới hình thức thông báo chính thức, phỏng vấn hoặc phát ngôn nghiêm túc, nhưng không hề có bất kỳ cảnh báo nào về việc nội dung do AI tạo ra, thì nguy cơ người xem tin đó là thật là rất lớn.
Việc cố tình che giấu yếu tố AI hoặc tạo dựng bối cảnh như nội dung xác thực sẽ làm gia tăng đáng kể trách nhiệm pháp lý của người tạo lập và người phát tán, kể cả khi họ không trực tiếp đưa ra thông tin sai sự thật bằng lời.
Việc đánh giá mức độ giống và khả năng gây nhầm lẫn trong các trường hợp này không thể giao hoàn toàn cho cảm nhận chủ quan của dư luận hoặc cho quyết định đơn phương của các nền tảng số. Thay vào đó, cần đặt dưới thẩm quyền của cơ quan quản lý chuyên môn và cơ quan giải quyết tranh chấp khi có tranh chấp phát sinh như Tòa án.
Cách tiếp cận này giúp bảo đảm việc áp dụng pháp luật được thực hiện một cách khách quan, nhất quán, đồng thời tạo ra khả năng dự đoán cho các chủ thể sáng tạo và kinh doanh khi sử dụng công nghệ AI trong thực tiễn.
Quản trị từ gốc
Một hạn chế phổ biến trong tư duy quản lý hiện nay là kỳ vọng pháp luật có thể giải quyết rủi ro deepfake chủ yếu bằng cách bổ sung các điều cấm và chế tài, trong khi bản chất deepfake lại là sản phẩm của công nghệ. Quản trị rủi ro hiệu quả vì thế đòi hỏi sự kết hợp giữa công cụ pháp lý và các giải pháp kỹ thuật phù hợp, như áp dụng watermark hoặc dấu nhận dạng đối với nội dung do AI tạo sinh, xây dựng hệ thống xác thực nguồn gốc nội dung nhằm truy vết quá trình tạo lập và chỉnh sửa, cũng như triển khai các cơ chế xác thực danh tính số trong các lĩnh vực nhạy cảm như gọi video, giao dịch tài chính hoặc cung cấp dịch vụ công trực tuyến.
Cách tiếp cận này tương đồng với xu hướng quốc tế, khi Liên minh châu Âu không lựa chọn cấm đoán tuyệt đối deepfake mà áp dụng mô hình quản trị dựa trên mức độ rủi ro trong Đạo luật Trí tuệ Nhân tạo (EU AI Act), đồng thời đặt trọng tâm vào trách nhiệm chủ động của các nền tảng số trong Đạo luật dịch vụ số (Digital Services Act). So với việc xử phạt sau khi nội dung đã lan truyền, phòng ngừa rủi ro ngay từ khâu thiết kế, huấn luyện và vận hành hệ thống AI cho thấy hiệu quả bền vững hơn, đồng thời giúp cân bằng giữa bảo vệ quyền con người và bảo đảm không gian đổi mới sáng tạo trong kỷ nguyên số.
Tựu trung, deepfake không chỉ là một thách thức công nghệ, mà còn là phép thử đối với tư duy lập pháp trong kỷ nguyên số. Một khuôn khổ pháp lý hiệu quả không thể dừng ở câu hỏi "có cấm hay không", mà cần làm rõ ranh giới giữa sáng tạo hợp pháp và hành vi xâm hại quyền, đồng thời thiết kế cơ chế phòng ngừa rủi ro ngay từ khâu phát triển và vận hành công nghệ.