Luật mềm: Công cụ hữu hiệu nhưng không là phép màu trong điều chỉnh AI

“Luật mềm” (soft law) được xem như một công cụ hữu ích trong điều chỉnh trí tuệ nhân tạo: từ những bộ quy tắc đạo đức, tiêu chuẩn ngành, hướng dẫn ứng xử, cho đến các tuyên bố tự nguyện giữa chính phủ và doanh nghiệp. Trong bối cảnh AI phát triển nhanh hơn khả năng ban hành luật cứng, luật mềm xuất hiện như một lựa chọn linh hoạt, ít tốn kém và dễ thích ứng. Nó giúp các quốc gia kịp thời phản ứng trước những rủi ro tiềm ẩn, đồng thời mở ra không gian cho đổi mới công nghệ.

Liệu có cách nào quản trị sự phát triển của AI nhưng không cản trở đổi mới sáng tạo?

Sự phù hợp của luật mềm trong điều chỉnh AI 

Luật mềm không xa lạ trong đời sống pháp lý và quản trị toàn cầu, nhưng khi đặt cạnh luật cứng, sự khác biệt hiện rõ. Luật cứng là các quy định chính thức do cơ quan có thẩm quyền ban hành, có hiệu lực pháp lý trực tiếp và đi kèm cơ chế cưỡng chế bắt buộc; đạo luật, nghị định hay bộ quy tắc pháp lý ràng buộc đều thuộc phạm trù này. Ngược lại, luật mềm không mang tính cưỡng chế tuyệt đối mà gồm nguyên tắc, khuyến nghị, hướng dẫn ứng xử hay cam kết tự nguyện giữa các bên. Giá trị của luật mềm nằm ở việc tạo ra ngôn ngữ chung, khung tham chiếu và định hướng hành vi. Bên cạnh chức năng định hướng, luật mềm còn có vai trò khuyến nghị và giáo dục, giúp doanh nghiệp và công chúng hiểu rõ hơn về trách nhiệm xã hội cũng như các chuẩn mực đạo đức cần thiết.

Trong lịch sử, có nhiều trường hợp về việc sử dụng luật mềm để điều chỉnh. Quản trị môi trường là ví dụ nổi bật: Tuyên bố Rio 1992 hay Thỏa thuận Paris 2015, dù không ràng buộc pháp lý chặt chẽ, vẫn trở thành nền tảng cho chính sách khí hậu toàn cầu. Trong nhân quyền, Tuyên ngôn Thế giới về Nhân quyền 1948 của Liên Hợp Quốc cũng là một dạng luật mềm. Dù không có cơ chế cưỡng chế, tuyên ngôn này đã trở thành chuẩn mực tham chiếu cho hàng loạt hiệp ước và đạo luật khác. Thương mại quốc tế cũng vận dụng luật mềm qua các nguyên tắc, hướng dẫn của WTO, tạo khung chung nhưng cho phép quốc gia linh hoạt thực thi. Trong tài chính, luật mềm xuất hiện qua các chuẩn mực Basel do Ủy ban Basel ban hành. Các bộ chuẩn mực như Basel II hay Basel III không phải điều ước quốc tế có tính cưỡng chế nhưng trở thành thước đo toàn cầu về quản trị rủi ro ngân hàng, buộc nhiều quốc gia phải điều chỉnh pháp luật trong nước cho phù hợp.


Luật mềm phù hợp với bản chất toàn cầu của AI, vốn đòi hỏi một “ngôn ngữ chung” vượt ranh giới.

Từ kinh nghiệm này, luật mềm được xem như lựa chọn quan trọng trong điều chỉnh AI. Thứ nhất, tốc độ phát triển AI vượt xa tiến trình lập pháp truyền thống. Trong khi một đạo luật cứng có thể mất nhiều năm để hình thành, các công ty AI lại liên tục tung ra mô hình mới, sản phẩm mới, thay đổi thị trường, hành vi người dùng và hệ sinh thái đạo đức. Luật mềm, nhờ tính linh hoạt, có thể xuất hiện kịp thời dưới dạng quy tắc đạo đức, khuyến nghị hay thỏa thuận tự nguyện, cho phép nhà quản lý và doanh nghiệp phản ứng nhanh.

Thứ hai, luật mềm tạo ra “không gian thử nghiệm” cho chuẩn mực xã hội và kỹ thuật. Thay vì áp đặt nghĩa vụ cứng nhắc, nó khuyến khích tự nguyện, cho phép nhà quản lý quan sát, đo lường phản ứng của doanh nghiệp và xã hội. Các nguyên tắc về minh bạch thuật toán hay hướng dẫn đạo đức sử dụng dữ liệu chính là công cụ thử nghiệm, giúp xác định chuẩn mực có thể được chấp nhận trước khi chuyển hóa thành luật cứng. Thứ ba, luật mềm phù hợp với bản chất toàn cầu của AI, vốn đòi hỏi một “ngôn ngữ chung” vượt ranh giới. Việc xây dựng luật cứng đang gặp khó khăn: luật pháp riêng của mỗi quốc gia dễ xung đột, tạo rào cản; trong khi một hiệp ước toàn cầu lại quá phức tạp và chậm chạp. Ngược lại, luật mềm, nhờ tính linh hoạt và tự nguyện, dễ được chấp nhận rộng rãi, đóng vai trò nền tảng tạo chuẩn mực chung và thúc đẩy hài hòa pháp luật.

Bộ Quy tắc Thực hành AI là một phần trong chiến lược phát triển AI của toàn châu lục này. Ảnh: Getty Images.

Trên thế giới, Liên minh châu Âu cùng nhiều quốc gia, khu vực khác đã chọn luật mềm – dưới dạng nguyên tắc, bộ quy tắc hay hướng dẫn – thay vì ngay lập tức ban hành luật cứng cho AI. Từ năm 2019, Ủy ban châu Âu đã ban hành Bộ Hướng dẫn về AI đáng tin cậy – khuôn khổ quản trị mềm khuyến khích doanh nghiệp hành động có trách nhiệm, minh bạch và tôn trọng nhân quyền1. Giai đoạn “thử nghiệm mềm” này giúp EU xây dựng nền tảng chuẩn mực rộng rãi, tạo cơ sở cho Đạo luật AI – văn bản luật cứng đầu tiên trên thế giới về trí tuệ nhân tạo. Ở Mỹ, chính phủ liên bang không áp dụng một đạo luật AI toàn diện mà ban hành AI Bill of Rights (2022) dưới dạng khuyến nghị, thúc đẩy minh bạch, công bằng và bảo vệ quyền riêng tư2. OECD thông qua Bộ Nguyên tắc về AI (2019) với hơn 40 quốc gia thành viên, tạo bộ khung chuẩn mực toàn cầu về tính minh bạch, trách nhiệm giải trình và lấy con người làm trung tâm3. Nhật Bản và Singapore cũng theo hướng này khi ban hành hướng dẫn đạo đức AI và khung quản trị dữ liệu để khuyến khích đổi mới nhưng vẫn đảm bảo chuẩn mực xã hội.

Như vậy, luật mềm trong điều chỉnh AI không chỉ đóng vai trò “chữa cháy” khi luật cứng chưa kịp hình thành, mà còn là công cụ định hướng, thử nghiệm, khuyến nghị và giáo dục. Nó cho phép duy trì tốc độ đổi mới, từng bước hình thành các chuẩn mực xã hội và kỹ thuật. Tuy nhiên, cần nhìn nhận tỉnh táo: luật mềm mạnh ở khả năng kiến tạo nhưng yếu trong cưỡng chế. Nếu chỉ dựa vào luật mềm mà không song hành với luật cứng, xã hội dễ rơi vào “ảo tưởng an toàn” – nơi chuẩn mực được khuyến khích nhưng không đủ sức ngăn chặn vi phạm.


Luật mềm thường dựa vào sức ép chuẩn mực – uy tín xã hội, kỳ vọng cộng đồng, áp lực thị trường – để thúc đẩy tự nguyện tuân thủ. Tuy nhiên, khi đối diện với tập đoàn có nguồn lực khổng lồ, các động lực này trở nên yếu ớt.

Big Tech quay lưng và điểm yếu của luật mềm

Ngày 18/7/2025, Meta tuyên bố không ký Bộ Quy tắc Thực hành AI đa mục đích (General-Purpose AI Code of Practice) do Liên minh châu Âu đề xuất4. Thông báo này được đưa ra chỉ vài tuần trước khi các quy định mới đối với mô hình AI tổng quát có hiệu lực, khiến giới công nghệ và chính sách chú ý. Joel Kaplan, Giám đốc Quan hệ Toàn cầu của Meta, viết trên LinkedIn rằng sau khi xem xét kỹ lưỡng, Meta nhận thấy bộ quy tắc này gây ra “bất ổn pháp lý” và đưa ra các yêu cầu “vượt quá phạm vi luật cứng”. Theo nội dung bộ quy tắc, các công ty AI phải thường xuyên cập nhật tài liệu liên quan đến công cụ và dịch vụ, không dùng dữ liệu vi phạm bản quyền để huấn luyện mô hình và tôn trọng yêu cầu của chủ sở hữu nội dung. Kaplan cho rằng các yêu cầu này có thể “ngăn chặn sự phát triển” của các mô hình AI tiên tiến tại châu Âu và làm tổn hại khả năng cạnh tranh của các công ty nội khối.

Ở chiều ngược lại, Ủy ban châu Âu khẳng định Bộ Quy tắc là khung tự nguyện nhằm giúp các nhà phát triển AI tuân thủ Đạo luật AI mới có hiệu lực từ tháng tám. Khung này đặt ra trách nhiệm cao hơn với mô hình AI có rủi ro hệ thống, yêu cầu báo cáo, quản lý chất lượng và bảo đảm hệ thống đáp ứng tiêu chuẩn về độ tin cậy và an toàn. Nói cách khác, Bộ Quy tắc đóng vai trò “vùng đệm” chuẩn mực để doanh nghiệp thử nghiệm và chuẩn bị trước nghĩa vụ pháp lý. Tuy nhiên, việc Meta từ chối ký đã trở thành tâm điểm tranh luận: liệu luật mềm có đủ sức điều chỉnh hành vi của Big Tech khi cơ chế ràng buộc chỉ dựa vào sự tự nguyện và uy tín xã hội?

Meta từ chối ký vào Bộ Quy tắc Thực hành AI. Ảnh: Pool/Getty Images.

Vụ việc trên đã phơi bày nghịch lý của luật mềm. Khi quyền lực kinh tế và ảnh hưởng vượt biên giới quốc gia, sự tự nguyện vốn là cốt lõi của luật mềm trở nên mong manh. Hạn chế lớn nhất là không có cơ chế cưỡng chế pháp lý rõ ràng. Thiếu biện pháp chế tài, các nguyên tắc hay khuyến nghị chỉ là “lời khuyên” hơn là nghĩa vụ, khiến hiệu lực thực tế phụ thuộc vào thiện chí của doanh nghiệp. Dù Bộ Quy tắc của EU được thiết kế để hỗ trợ thích ứng Đạo luật AI và đã có nhiều công ty khác tham gia, Meta vẫn công khai đứng ngoài mà không chịu hậu quả pháp lý. Điều này cho thấy doanh nghiệp càng lớn càng có khả năng biến chuẩn mực tự nguyện thành lựa chọn tùy nghi thay vì cam kết chung.

Luật mềm thường dựa vào sức ép chuẩn mực – uy tín xã hội, kỳ vọng cộng đồng, áp lực thị trường – để thúc đẩy tự nguyện tuân thủ. Tuy nhiên, khi đối diện với tập đoàn có nguồn lực khổng lồ, các động lực này trở nên yếu ớt. Trường hợp Meta minh chứng rõ: dù EU xây dựng Bộ Quy tắc công phu, có nhiều công ty ký kết như OpenAI hay Microsoft, Meta vẫn có thể công khai từ chối và phản biện rằng châu Âu “đang đi sai đường”. Khi một “người gác cổng” – theo thuật ngữ của chính luật EU – chọn không tham gia, luật mềm rơi vào trạng thái “bất lực mềm”: tồn tại trên giấy nhưng không đủ sức thay đổi hành vi thực tế. Khoảng trống quyền lực này buộc nhà làm luật phải xem xét cách chuyển hóa chuẩn mực tự nguyện thành nghĩa vụ pháp lý nếu không muốn chuẩn mực đó bị phớt lờ.


Thay vì vội vàng xây dựng một đạo luật AI toàn diện khi chuẩn mực còn chưa định hình, Việt Nam có thể áp dụng mô hình “luật mềm có giám sát”.

Một hạn chế khác ít được nhắc tới là chi phí tuân thủ phát sinh từ việc áp dụng luật mềm. Không có cơ quan duy nhất định chuẩn, các bộ nguyên tắc và hướng dẫn tự nguyện dễ dẫn tới chồng chéo, trùng lặp, thậm chí mâu thuẫn. Doanh nghiệp, nhất là doanh nghiệp vừa và nhỏ, phải bỏ nhiều nguồn lực để theo dõi, cập nhật và đáp ứng đồng thời nhiều chuẩn mực không ràng buộc nhưng nặng về danh tiếng. Ngay cả các tập đoàn lớn như Meta cũng phản đối rằng bộ quy tắc “tạo ra nhiều bất ổn pháp lý” – doanh nghiệp có thể phải bỏ ra nhiều chi phí và nguồn lực để tuân thủ các chuẩn mực tự nguyện; tuy nhiên, khi luật cứng chính thức ban hành, những nỗ lực này đôi khi không còn phù hợp hoặc không được công nhận, dẫn đến cảm giác gánh nặng kép. Kỳ vọng luật mềm giảm chi phí và tăng linh hoạt có thể bị đảo ngược: trong một số trường hợp, nó trở thành “gánh nặng mềm” đè lên vai doanh nghiệp.

Cuối cùng, luật mềm có thể vô tình tạo ra trạng thái nửa vời: vừa thiếu sức mạnh cưỡng chế để bảo đảm tuân thủ, vừa gây áp lực ngầm lên doanh nghiệp vì lo sợ mất uy tín hoặc thị trường nếu không tham gia. Trong bối cảnh AI, điều này khiến nhiều công ty lớn lúng túng giữa đổi mới công nghệ và đáp ứng chuẩn mực chưa ổn định. Sự kiện Meta từ chối ký nhưng nhiều đối thủ lại ký tạo ra “hố sâu” về hình ảnh: bên ký lo mình tự buộc vào nghĩa vụ vượt mức luật cứng, bên không ký lo bị đánh giá thiếu trách nhiệm xã hội. Ranh giới mong manh này khiến luật mềm vừa không đủ “mềm” để tự nguyện hoàn toàn, vừa không đủ “cứng” để bảo đảm hiệu lực – điểm yếu mà các nhà hoạch định chính sách cần nhận diện nếu muốn dùng luật mềm như công cụ điều chỉnh hiệu quả trong kỷ nguyên AI.

Đâu là lời giải?

Trước những hạn chế của luật mềm truyền thống, nhiều học giả và nhà hoạch định chính sách đã tìm cách đặt công cụ này vào một khung điều chỉnh rộng hơn. Thay vì coi luật mềm là giải pháp duy nhất, các lý thuyết điều chỉnh hiện đại đều nhấn mạnh rằng luật mềm chỉ phát huy hiệu quả khi được đặt trong một cấu trúc đa tầng. Trong cấu trúc này, luật mềm đóng vai trò “lớp đầu” khuyến nghị và thử nghiệm, còn luật cứng, tiêu chuẩn kỹ thuật và biện pháp kinh tế là “lớp sau” bảo đảm tuân thủ khi chuẩn mực đã chín muồi. Ngay từ khâu thiết kế luật mềm, cơ quan quản lý đã dự kiến những nguyên tắc nào có khả năng trở thành nghĩa vụ bắt buộc, đồng thời xây dựng cơ chế giám sát, báo cáo và đo lường để bảo đảm sự nối tiếp. Nhờ vậy, doanh nghiệp khi tuân thủ luật mềm sẽ không phải “làm lại từ đầu” mà những nỗ lực ban đầu trở thành bước chuẩn bị cho luật cứng. Cách tiếp cận này giúp giảm gánh nặng cưỡng chế ngay từ đầu nhưng vẫn tạo “điểm hạ cánh” rõ ràng cho nghĩa vụ pháp lý, tránh tình trạng “bất lực mềm” trước các tập đoàn công nghệ khổng lồ như Meta. Luật mềm trở thành bậc thang đầu tiên khuyến khích tự nguyện và đối thoại, nhưng luôn có “lớp đệm” là luật cứng ở bậc cao hơn – một mô hình đặc biệt phù hợp với AI, nơi công nghệ thay đổi nhanh và đòi hỏi đối thoại liên tục giữa nhà quản lý, doanh nghiệp và xã hội dân sự.

Song song với các khung lý thuyết vừa nêu, giới học thuật gần đây cũng đề cập đến khái niệm “luật mềm 2.0” (soft law 2.0)5 – một nỗ lực tái thiết kế luật mềm nhằm khắc phục điểm yếu cố hữu “không ràng buộc” bằng cách tăng cường minh bạch, nâng cao khả năng giám sát và bổ sung cơ chế khuyến khích tuân thủ. Luật mềm 2.0 không chỉ dừng lại ở những tuyên bố hay nguyên tắc chung mang tính định hướng mà được thiết kế như một hệ thống công cụ cụ thể, có thể đo lường được. Nó tích hợp các nền tảng và công cụ kỹ thuật số, cơ chế báo cáo mang tính bắt buộc, những biện pháp thúc đẩy, định hướng hành vi và các chỉ số đánh giá để theo dõi mức độ thực hiện chuẩn mực.

Trong lĩnh vực trí tuệ nhân tạo, luật mềm 2.0 có thể xuất hiện dưới dạng các bộ quy tắc đạo đức đi kèm cơ sở dữ liệu chia sẻ, nhãn tín nhiệm hoặc tiêu chuẩn chứng nhận. Những yếu tố này tạo ra áp lực thị trường và áp lực xã hội rõ rệt, khiến các doanh nghiệp khó “đứng ngoài” mà không phải trả giá về uy tín hay khả năng tiếp cận khách hàng và đối tác. Luật mềm 2.0 nhờ vậy trở thành một cơ chế trung gian mạnh mẽ, không chỉ giúp củng cố sự tự nguyện mà còn từng bước hình thành cơ chế tuân thủ có thể kiểm chứng. Đây cũng chính là bước đệm giúp các chuẩn mực tự nguyện chuyển hóa suôn sẻ, trật tự hơn thành nghĩa vụ pháp lý ràng buộc khi luật cứng được ban hành, thay vì tạo ra cú sốc hoặc gánh nặng bất ngờ cho doanh nghiệp.

Đối với Việt Nam, những kinh nghiệm và khung lý thuyết trên mở ra hướng tiếp cận linh hoạt và chủ động hơn trong quản trị AI. Thay vì vội vàng xây dựng một đạo luật AI toàn diện khi chuẩn mực còn chưa định hình, Việt Nam có thể áp dụng mô hình “luật mềm có giám sát” – khuyến khích doanh nghiệp tự xây dựng cơ chế tuân thủ dựa trên các nguyên tắc, hướng dẫn và khung chuẩn mực quốc tế, đồng thời thiết lập các “điểm leo thang” rõ ràng sang luật cứng hoặc biện pháp kinh tế khi cần. Cách tiếp cận đa tầng này vừa giúp Nhà nước theo kịp tốc độ đổi mới công nghệ, vừa chuẩn bị nền tảng pháp lý vững chắc, hài hòa với chuẩn mực toàn cầu, tránh rơi vào “ảo tưởng an toàn” khi chỉ dựa vào luật mềm truyền thống mà không có cơ chế ràng buộc kèm theo. Đây cũng là cơ hội để Việt Nam thử nghiệm các yếu tố của “luật mềm 2.0” – như cơ sở dữ liệu công khai, chứng nhận tin cậy hoặc chỉ số đánh giá – nhằm tạo áp lực xã hội và thị trường, khuyến khích doanh nghiệp tuân thủ trước khi các nghĩa vụ pháp lý chính thức được ban hành.□

——

*Hai tác giả hiện công tác tại Khoa Luật, Đại học Kinh tế TP.HCM. (UEH)

Tài liệu tham khảo

1 European Commission. Ethics guidelines for trustworthy AI. 2019. Available from: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai 

2OSTP. Blueprint for an AI Bill of Rights. The White House. Available from: https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/ 

3 OECD. 2019. AI principles. Available from: https://www.oecd.org/en/topics/ai-principles.html 

4 Jess Weatherbed. The Verge. 2025. Meta snubs the EU’s voluntary AI guidelines. Available from: https://www.theverge.com/news/710576/meta-eu-ai-act-code-of-practice-agreement 

5 Marchant G, Gutierrez CI. Soft Law 2.0: An Agile and Effective Governance Approach for Artificial Intelligence. Minn J Law Sci Technol. 2023 May 6;24(2):375. 

Bài đăng Tia Sáng số 20/2025

Tác giả

(Visited 13 times, 1 visits today)