Anthropic đối đầu Lầu Năm Góc vì từ chối vũ khí tự hành và theo dõi công dân
Ngày 26/2/2026, Dario Amodei, người sáng lập kiêm giám đốc điều hành Anthropic, công bố tuyên bố phản bác yêu cầu gỡ bỏ các giới hạn an toàn từ Bộ Chiến tranh Hoa Kỳ. Sự việc này cho thấy mức căng thẳng hiếm thấy giữa một doanh nghiệp công nghệ tư nhân và cơ quan quân sự lớn nhất thế giới.
![]() |
| Ông Dario Amodei sáng lập kiêm giám đốc điều hành Anthropic. Ảnh: effectivealtruism.org |
Ông Amodei khẳng định ông tin vào tầm quan trọng sống còn của việc vận dụng trí tuệ nhân tạo để bảo vệ Hoa Kỳ cùng các quốc gia dân chủ khác, đồng thời đánh bại các đối thủ độc tài. Tuy nhiên, niềm tin này đi kèm những ranh giới mà công ty quyết tâm giữ vững.
Anthropic tự nhận mình là công ty công nghệ đầu tiên triển khai các mô hình ngôn ngữ lớn vào mạng lưới mật của chính phủ Mỹ. Công ty còn đi đầu trong việc đưa sản phẩm đến các Phòng thí nghiệm Quốc gia và cung cấp mô hình tùy chỉnh cho khách hàng an ninh quốc gia.
Claude là sản phẩm chủ chốt của Anthropic được vận hành trong Bộ Chiến tranh và nhiều cơ quan an ninh quốc gia khác. Các nhiệm vụ trải dài từ phân tích tình báo, xây dựng mô hình mô phỏng, lập kế hoạch tác chiến, vận hành không gian mạng đến hàng loạt ứng dụng thiết yếu khác.
Anthropic còn chứng tỏ quyết tâm bảo vệ vị thế dẫn đầu của Mỹ trong cuộc đua công nghệ toàn cầu, ngay cả khi điều này đi ngược lợi ích tài chính trước mắt. Anthropic đã từ chối nguồn thu hàng trăm triệu USD để cắt đứt các công ty liên kết với Trung Quốc tiếp cận Claude. Một số trong những công ty này đã bị Bộ Chiến tranh Mỹ gắn mác Công ty quân sự Trung Quốc.
Anthropic cũng đã chặn đứng các cuộc tấn công mạng do Trung Quốc tài trợ nhằm lạm dụng Claude. Công ty ủng hộ các biện pháp kiểm soát xuất khẩu chip chặt chẽ để đảm bảo lợi thế cho dân chủ.
Anthropic thừa nhận Bộ Chiến tranh nắm quyền quyết định các hoạt động quân sự. Anthropic chưa bao giờ phản đối bất kỳ chiến dịch quân sự cụ thể nào hay cố gắng hạn chế cách sử dụng công nghệ theo kiểu tùy tiện.
Tuy vậy, Anthropic cho rằng trong một số tình huống rất hẹp, trí tuệ nhân tạo có thể làm xói mòn thay vì bảo vệ các giá trị dân chủ. Một số hướng sử dụng còn vượt quá khả năng mà công nghệ hiện nay có thể vận hành an toàn và tin cậy. Hai nội dung này chưa từng xuất hiện trong hợp đồng với Bộ Chiến tranh Hoa Kỳ và Anthropic khẳng định không nên đưa vào.
Anthropic ủng hộ việc vận dụng trí tuệ nhân tạo cho các nhiệm vụ thu thập tình báo nước ngoài và phản gián hợp pháp. Nhưng việc triển khai các hệ thống này để giám sát người dân trong nước đi ngược hoàn toàn với các nguyên tắc dân chủ.
Giám sát trên diện rộng dựa vào trí tuệ nhân tạo đặt ra những rủi ro mới và nghiêm trọng đối với các quyền tự do căn bản. Nếu loại hình này hiện được coi là hợp pháp, nguyên nhân duy nhất là luật pháp chưa kịp theo tốc độ phát triển của công nghệ.
Ông Amodei cho hay, theo luật hiện hành, chính phủ có thể mua hồ sơ chi tiết về di chuyển, lịch sử duyệt web và các mối quan hệ của công dân Mỹ từ các nguồn công khai mà không cần lệnh của tòa án. Cộng đồng Tình báo đã thừa nhận thực tế này gây lo ngại về quyền riêng tư và đã châm ngòi cho sự phản đối từ cả hai đảng tại Quốc hội.
Sức mạnh của trí tuệ nhân tạo hiện đại cho phép ghép nối những mảnh dữ liệu rải rác, tưởng như vô hại khi đứng riêng lẻ thành bức tranh toàn cảnh về cuộc sống của bất kỳ người nào, diễn ra tự động và ở quy mô rất lớn
Các loại vũ khí tự hành một phần, giống như những vũ khí đang hoạt động ở Ukraine hiện nay, đóng vai trò thiết yếu trong việc bảo vệ nền dân chủ. Ngay cả vũ khí tự hành hoàn toàn, loại đưa con người ra khỏi vòng kiểm soát và tự động hóa toàn bộ quá trình chọn lựa cũng như tấn công mục tiêu, có thể chứng tỏ tính then chốt cho quốc phòng.
Nhưng thực tế hiện nay, các hệ thống trí tuệ nhân tạo tiên tiến nhất vẫn chưa đủ tin cậy để vận hành vũ khí tự hành hoàn toàn. Anthropic sẽ không cung cấp sản phẩm đặt lính chiến và dân thường Mỹ vào nguy cơ. Công ty đã đề nghị hợp tác trực tiếp với Bộ Chiến tranh về nghiên cứu và phát triển nhằm cải thiện độ tin cậy của các hệ thống này, nhưng đề xuất chưa được chấp nhận.
Thêm vào đó, nếu thiếu sự giám sát phù hợp, vũ khí tự hành hoàn toàn không thể dựa vào để đưa ra những phán đoán quan trọng mà các quân nhân được đào tạo bài bản, chuyên nghiệp thể hiện mỗi ngày. Chúng cần được triển khai kèm các biện pháp bảo vệ thích hợp, thứ hiện chưa tồn tại.
Theo hiểu biết của Anthropic, hai ngoại lệ này chưa từng cản trở việc đẩy nhanh quá trình chấp nhận và sử dụng các mô hình của công ty trong lực lượng vũ trang.
Bộ Chiến tranh tuyên bố họ chỉ ký hợp đồng với các công ty trí tuệ nhân tạo chấp nhận "mọi cách sử dụng hợp pháp" và gỡ bỏ các biện pháp bảo vệ trong hai trường hợp trên. Họ doạ loại Anthropic khỏi hệ thống nếu công ty duy trì những giới hạn an toàn này.
Bộ Chiến tranh còn doạ gắn cho Anthropic nhãn "nguy cơ chuỗi cung ứng", cách phân loại dành riêng cho các đối thủ của Hoa Kỳ, chưa bao giờ áp dụng với một công ty Mỹ. Họ cũng doạ viện dẫn Đạo luật sản xuất quốc phòng để ép buộc gỡ bỏ các biện pháp bảo vệ.
| Hai lập luận này về bản chất tự mâu thuẫn với nhau: một bên dán nhãn Anthropic là nguy cơ an ninh, bên kia lại coi Claude là yếu tố thiết yếu cho an ninh quốc gia. Ông Amodei nói. |
Dù vậy, các sức ép này không làm thay đổi lập trường của Anthropic. Dario Amodei khẳng định công ty không thể vì lương tâm mà chấp nhận yêu cầu của Bộ Chiến tranh Hoa Kỳ.
Bộ Chiến tranh có toàn quyền chọn các nhà thầu phù hợp nhất với tầm nhìn của họ. Nhưng xét đến giá trị to lớn mà công nghệ của Anthropic mang lại cho lực lượng vũ trang, công ty hy vọng Bộ sẽ xem xét lại.
Anthropic mong muốn tiếp tục phục vụ Bộ Chiến tranh Hoa Kỳ với hai biện pháp bảo vệ được yêu cầu vẫn còn nguyên vẹn. Nếu Bộ quyết định chấm dứt hợp đồng với Anthropic, công ty sẽ làm việc để đảm bảo quá trình chuyển giao suôn sẻ sang nhà cung cấp khác, tránh mọi gián đoạn đối với kế hoạch quân sự, hoạt động tác chiến hay các nhiệm vụ then chốt khác đang diễn ra. Các mô hình của Anthropic sẽ sẵn sàng theo những điều khoản rộng rãi mà công ty đề xuất trong thời gian cần thiết.
Anthropic vẫn sẵn sàng tiếp tục công việc hỗ trợ an ninh quốc gia của Hoa Kỳ.
Xung đột giữa Anthropic và Lầu Năm Góc đặt ra câu hỏi sâu sắc về vai trò của các công ty công nghệ tư nhân trong vấn đề quốc phòng và an ninh. Trong khi các công ty này nắm giữ những công nghệ then chốt cho sức mạnh quân sự, họ cũng phải đối mặt với trách nhiệm đạo đức đối với xã hội.
Mới đây, Công ty trí tuệ nhân tạo (AI) Anthropic phát hiện nhóm tin tặc sử dụng AI thực hiện 80-90% chiến dịch tấn công ... |
CEO của Anthropic, ông Dario Amodei, vừa đưa ra cảnh báo nghiêm trọng về tác động của trí tuệ nhân tạo đối với thị trường ... |
Anthropic cáo buộc DeepSeek, Moonshot AI và MiniMax tạo hơn 24.000 tài khoản giả mạo sử dụng mô hình AI Claude, thực hiện 16 triệu ... |
Có thể bạn quan tâm
Chiến lược AI của Meta và hướng nâng tầm giá trị công nghệ Việt
AI
Cisco vừa tuyên bố gì tại Hội nghị Cisco Live ở Amsterdam?
AI
Anthropic cáo buộc DeepSeek, Moonshot AI và MiniMax khai thác dữ liệu từ Claude
Công nghệ số


