Ngay trước ngày Mỹ và Israel phát động cuộc tấn công, Anthropic, một công ty trí tuệ nhân tạo hàng đầu thế giới có trụ sở tại San Francisco, California, đã từ chối ký hợp đồng với Lầu Năm Góc. Nếu hợp đồng đó được ký, quân đội Mỹ sẽ được "truy cập không hạn chế" vào công nghệ của Anthropic cho "mọi mục đích hợp pháp".
Dario Amodei - Giám đốc điều hành của Anthropic - chỉ đồng ý ký thỏa thuận nếu được đáp ứng hai điều kiện, trong đó có điều kiện không triển khai vũ khí hoàn toàn tự động nếu thiếu sự giám sát của con người (điều kiện còn lại là không giám sát hàng loạt người dân Mỹ).
Quyết định của Amodei gây thiệt hại nặng nề cho Anthropic. Pete Hegseth, Bộ trưởng Quốc phòng Mỹ, đã xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng", và điều này có thể ảnh hưởng đến các cơ hội hợp đồng khác của công ty. Trong khi đó, công ty đối thủ OpenAI nhanh chóng thế chỗ, ký thỏa thuận với Lầu Năm Góc.
Máy bay không người lái tự hành ngày càng được sử dụng nhiều hơn trong quân sự. Ảnh: Captechu.
Rủi ro của vũ khí hoàn toàn tự động...
Bản thân các AI không phải là vũ khí độc lập, nhưng chúng có thể trở thành một phần của hệ thống vũ khí. Dù không trực tiếp khai hỏa tên lửa hay điều khiển máy bay không người lái, các kỹ sư vẫn có thể tích hợp chúng vào những hệ thống quân sự lớn hơn để làm những việc như tóm tắt thông tin tình báo, lọc ra những mục tiêu quan trọng nhất, đánh giá mức độ nguy hiểm hoặc cấp bách của từng mục tiêu, và đề xuất phương án tấn công.
Rủi ro lớn nhất nằm ở chỗ toàn bộ quá trình - từ thu thập dữ liệu bằng các cảm biến đến dùng AI phân tích và diễn giải dữ liệu, rồi lựa chọn mục tiêu và kích hoạt vũ khí - có thể diễn ra với rất ít hoặc thậm chí không có sự kiểm soát của con người.
Vũ khí tự động hoàn toàn là những nền tảng mà một khi được kích hoạt sẽ tự động thực hiện các hoạt động quân sự, không cần sự can thiệp của con người. Chúng dựa vào các cảm biến như camera, radar và thuật toán AI để phân tích môi trường, tìm kiếm, lựa chọn và tấn công mục tiêu.
Ví dụ, một số trực thăng tiên tiến nhất hiện nay có thể hoạt động mà không cần con người điều khiển trực tiếp. Với các loại vũ khí tự hành, sự kiểm soát và giám sát của con người sẽ dần biến mất, nhường chỗ cho AI tự đưa ra các quyết định tấn công cuối cùng trên chiến trường.
Điều này gây lo ngại sâu sắc khi một nghiên cứu gần đây của GS Kenneth Payne ở King's College London (KCL) cho thấy trong mô phỏng các kịch bản chiến tranh, những mô hình AI tiên tiến như GPT 5.2, Gemini 3 Flash và Claude Sonnet 4 đã lựa chọn sử dụng vũ khí hạt nhân trong 95% trường hợp. Kết quả nghiên cứu của họ vừa được công bố trên trang arXiv vào tháng trước.
Các luật nhân đạo hiện hành yêu cầu vũ khí tự hành phải có khả năng phân biệt giữa mục tiêu quân sự và dân sự. AI xác định mục tiêu rất chính xác nên nhiều người cho rằng nó có thể giúp giảm số dân thường thiệt mạng trong chiến tranh.
Tuy nhiên, trong các cuộc xung đột hiện nay ở Ukraine và Dải Gaza - nơi AI được sử dụng để hỗ trợ xác định mục tiêu, điều hướng máy bay không người lái và nhiều ứng dụng khác - số lượng dân thường tử vong vẫn rất cao.
"Không có bằng chứng nào cho thấy AI giúp giảm số dân thường thiệt mạng hoặc giảm các quyết định tấn công nhầm mục tiêu, và có thể thực tế còn hoàn toàn ngược lại," Craig Jones, nhà địa lý chính trị tại Đại học Newcastle (Anh), nhận định.
...có ngăn được các hợp đồng béo bở?
Trường hợp của công ty Anthropic gợi nhớ đến Dự án Maven của Google vào năm 2018.
Khi đó, Google ký hợp đồng với Lầu Năm Góc để hỗ trợ phân tích hình ảnh giám sát các đoạn video từ máy bay không người lái. Bốn nghìn nhân viên Google đã phản đối dự án này, cho rằng hoạt động giám sát không phù hợp với sứ mệnh của công ty. Sau đó, Google tuyên bố không gia hạn hợp đồng và ban hành bộ nguyên tắc AI, bao gồm các cam kết liên quan đến vũ khí và hoạt động giám sát. Vụ việc đã trở thành một trường hợp điển hình về sức mạnh đấu tranh của người lao động và áp lực dư luận.
Tuy nhiên, ví dụ về Dự án Maven cũng nhắc nhở chúng ta rằng đạo đức doanh nghiệp và vấn đề an toàn AI có thể thay đổi theo thời gian. Đầu năm 2025, Google đã âm thầm từ bỏ các cam kết không phát triển AI cho một số loại vũ khí và thận trọng với công nghệ giám sát, nhằm giành được các hợp đồng quốc phòng béo bở mới.
Tình hình hiện tại của Anthropic có một số điểm tương đồng với Dự án Maven của Google: nó cho thấy nỗ lực của một doanh nghiệp trong việc đặt ra giới hạn sử dụng AI vào lĩnh vực quân sự. Sự việc này còn là một minh họa rõ ràng cho những căng thẳng nảy sinh khi các giá trị cốt lõi mà doanh nghiệp theo đuổi hoặc công khai ủng hộ va chạm với những yêu cầu về an ninh quốc gia từ phía Chính phủ.
Nhưng trường hợp của Anthropic cũng khác biệt ở chỗ AI tạo sinh vào năm 2026 đã mạnh hơn nhiều so với cách đây chỉ vài năm. Dự án Maven khi đó chỉ tập trung vào phân tích hình ảnh video do máy bay không người lái ghi nhận. Còn các mô hình AI hiện nay có thể được sử dụng cho nhiều nhiệm vụ khác nhau, vì vậy nguy cơ chúng được sử dụng lệch khỏi mục đích ban đầu cũng lớn hơn.
Các mô hình ngôn ngữ lớn như Claude của Anthropic có khả năng tự cải thiện bằng cách học từ những phản hồi của người dùng và tinh chỉnh hành động thông qua vòng lặp phản hồi liên tục. Vì vậy, điều khiến người ta lo ngại chính là những gì khách hàng Lầu Năm Góc có thể làm với một Claude không có giới hạn về cách sử dụng.
Vụ thương thảo giữa Anthropic và Lầu Năm Góc về việc sử dụng AI vào các mục đích quân sự cho thấy vấn đề đạo đức AI phức tạp như thế nào khi đi vào thực tiễn. Các nguyên tắc và tuyên bố về đạo đức AI ngày càng nhiều. Tuy nhiên, trên thực tế, đạo đức AI lại được định hình thông qua các hợp đồng, quy định mua sắm, cách các bên hành động và mức độ giám sát đối với họ.
Các sự kiện nêu trên phản ánh một vấn đề sẽ luôn lặp lại khi AI ngày càng mạnh hơn: ai là người đặt ra giới hạn cho việc sử dụng AI khi yếu tố an ninh quốc gia xuất hiện? Nếu cụm từ "mọi mục đích hợp pháp" trở thành tiêu chuẩn mặc định, các hàng rào ngăn chặn rủi ro sẽ hoàn toàn phụ thuộc vào góc nhìn chính trị và cách diễn giải luật pháp.
Hiện nay, nhiều quốc gia và tổ chức trên thế giới đang cố gắng thống nhất các quy định chung về cách sử dụng AI trong chiến tranh để tuân theo luật pháp quốc tế và các nguyên tắc đạo đức.
Tuy nhiên, những nỗ lực này đang bị cản trở bởi sự thiếu hợp tác từ các bên tham gia chính. "Các quốc gia có chương trình tác chiến AI đang hoạt động - gồm Mỹ, Israel và Trung Quốc - nhìn chung đều phản đối việc ban hành thêm các quy định quản lý," Craig Jones cho biết.
Quốc Hùng tổng hợp
---
Nguồn:
From Anthropic to Iran: Who sets the limits on AI’s use in war and surveillance? The Conversation, 3/3/2026. https://theconversation.com/from-anthropic-to-iran-who-sets-the-limits-on-ais-use-in-war-and-surveillance-277334
How AI is shaping the war in Iran – and what’s next for future conflicts. Nature, 5/3/2026. https://www.nature.com/articles/d41586-026-00710-w