OpenAI ký hợp đồng với Lầu Năm Góc sau khi Anthropic từ chối hợp tác
Sau khi Anthropic từ chối hợp tác, Bộ Chiến tranh Hoa Kỳ chuyển sang ký thỏa thuận với OpenAI để triển khai hệ thống trí tuệ nhân tạo phục vụ an ninh quốc gia. OpenAI khẳng định thỏa thuận thiết lập nhiều lớp bảo vệ hơn các thỏa thuận trước đó.
OpenAI cho biết, công ty vừa hoàn tất thỏa thuận với Lầu Năm Góc để triển khai các hệ thống trí tuệ nhân tạo tiên tiến phục vụ quốc phòng. Thỏa thuận này diễn ra sau khi Bộ Chiến tranh Hoa Kỳ không thể đạt được sự đồng thuận với Anthropic về các điều khoản bảo vệ. OpenAI yêu cầu Lầu Năm Góc cung cấp các điều khoản tương tự cho tất cả các công ty trí tuệ nhân tạo khác.
![]() |
| UAV bay theo đội hình bên cạnh logo OpenAI. Ảnh minh họa: ChatGPT |
OpenAI khẳng định thỏa thuận của họ thiết lập nhiều lớp bảo vệ hơn bất kỳ thỏa thuận nào trước đây về triển khai trí tuệ nhân tạo phục vụ quốc phòng, kể cả thỏa thuận ban đầu mà Anthropic đã từ chối ký kết.
OpenAI xác định ba ranh giới đỏ hướng dẫn công việc với Bộ Chiến tranh. Các ranh giới này nhiều công ty công nghệ hàng đầu khác cũng tuân thủ.
| Mỹ thử nghiệm bầy UAV 'nghe lệnh bằng giọng nói' nhờ công nghệ OpenAI |
Ranh giới thứ nhất cấm sử dụng công nghệ của OpenAI cho giám sát hàng loạt đối với công dân trong nước. Ranh giới thứ hai ngăn chặn việc sử dụng công nghệ để điều khiển trực tiếp các hệ thống vũ khí tự động. Ranh giới thứ ba cấm triển khai công nghệ cho các quyết định tự động có tầm quan trọng cao như hệ thống tín dụng xã hội.
Nhiều công ty công nghệ khác đã giảm hoặc loại bỏ các lớp bảo vệ và chỉ dựa vào chính sách sử dụng làm biện pháp bảo vệ chính trong các dự án an ninh quốc gia. OpenAI tin rằng cách tiếp cận của họ bảo vệ tốt hơn trước các hành vi sử dụng không thể chấp nhận.
Thỏa thuận mới bảo vệ ba ranh giới đỏ thông qua cách tiếp cận mở rộng và nhiều lớp. OpenAI giữ toàn quyền kiểm soát hệ thống bảo vệ của mình, triển khai qua nền tảng đám mây, nhân viên OpenAI có giấy phép bảo mật tham gia vào quy trình giám sát, và thiết lập các điều khoản hợp đồng chặt chẽ. Tất cả các biện pháp này bổ sung cho các quy định bảo vệ mạnh mẽ sẵn có trong luật pháp Mỹ.
OpenAI khẳng định niềm tin sâu sắc vào dân chủ. Công ty cho rằng con đường phát triển duy nhất đúng đắn đòi hỏi sự hợp tác sâu rộng giữa các nỗ lực phát triển trí tuệ nhân tạo và thể chế dân chủ. OpenAI cũng nhận thức rõ công nghệ của họ sẽ tạo ra các rủi ro mới trên thế giới, và mong muốn những người bảo vệ Hoa Kỳ có được các công cụ tốt nhất.
Thông báo cho biết kiến trúc triển khai trong thỏa thuận chỉ hoạt động trên nền tảng đám mây, với hệ thống bảo vệ do OpenAI vận hành theo các nguyên tắc đã nêu. OpenAI không cung cấp cho Bộ Quốc phòng Mỹ các mô hình không có lớp bảo vệ hoặc chưa qua huấn luyện về an toàn. Công ty cũng không triển khai mô hình trên các thiết bị đầu cuối nơi có khả năng sử dụng cho vũ khí sát thương tự động.
Kiến trúc triển khai này cho phép OpenAI xác minh độc lập rằng ba ranh giới đỏ không bị vi phạm, bao gồm việc vận hành và cập nhật các bộ phân loại.
OpenAI cho biết, hợp đồng quy định Bộ Quốc phòng chỉ sử dụng hệ thống trí tuệ nhân tạo cho các mục đích hợp pháp, phù hợp với luật hiện hành, yêu cầu vận hành và các quy trình an toàn giám sát đã thiết lập rõ ràng. Hệ thống sẽ không điều khiển độc lập vũ khí tự động trong bất kỳ trường hợp nào mà luật pháp, quy định hoặc chính sách của Bộ yêu cầu sự kiểm soát của con người. Hệ thống cũng không thay thế các quyết định có tầm quan trọng cao mà yêu cầu phê duyệt bởi người ra quyết định theo các quy định tương tự.
Theo Chỉ thị 3000.09 của Bộ Quốc phòng Hoa Kỳ ban hành ngày 25 tháng 1 năm 2023, bất kỳ việc sử dụng trí tuệ nhân tạo nào trong các hệ thống tự động và bán tự động phải trải qua quá trình xác minh, kiểm chứng và thử nghiệm nghiêm ngặt để đảm bảo hoạt động đúng như dự định trong môi trường thực tế trước khi triển khai.

Đối với các hoạt động tình báo, việc xử lý thông tin cá nhân phải tuân thủ Tu chính án thứ Tư, Đạo luật An ninh Quốc gia năm 1947 và Đạo luật giám sát tình báo và ngoại giao năm 1978, Sắc lệnh hành pháp 12333 và các chỉ thị của Bộ Quốc phòng yêu cầu mục đích tình báo nước ngoài được xác định rõ ràng. Hệ thống sẽ không giám sát không hạn chế thông tin cá nhân của công dân Mỹ theo các quy định này. Hệ thống cũng không phục vụ các hoạt động thực thi pháp luật trong nước trừ khi Đạo luật Posse Comitatus và các luật hiện hành cho phép.
OpenAI triển khai các kỹ sư có giấy phép bảo mật làm việc trực tiếp với chính phủ, cùng với các nhà nghiên cứu về an toàn và điều chỉnh có giấy phép bảo mật tham gia vào quy trình giám sát.
Thông báo cho biết, OpenAI ban đầu không ký hợp đồng triển khai trong lĩnh vực quốc phòng vì cảm thấy các biện pháp bảo vệ và hệ thống chưa sẵn sàng. OpenAI đã làm việc chăm chỉ để đảm bảo rằng việc triển khai trong lĩnh vực quốc phòng có thể diễn ra với các biện pháp bảo vệ đảm bảo không vượt qua các ranh giới đỏ.
OpenAI từ chối loại bỏ các biện pháp bảo vệ kỹ thuật chính để nâng cao hiệu suất trong công việc an ninh quốc gia. Công ty khẳng định đây không phải cách tiếp cận đúng đắn để hỗ trợ quân đội Mỹ.
OpenAI muốn giảm căng thẳng giữa Bộ Chiến tranh và các công ty công nghệ Hoa Kỳ. Tương lai tốt đẹp đòi hỏi sự hợp tác thực sự và sâu rộng giữa chính phủ và các công ty công nghệ. Trong thỏa thuận này, OpenAI yêu cầu các điều khoản tương tự cung cấp cho tất cả các công ty công nghệ, và đặc biệt yêu cầu chính phủ nỗ lực giải quyết vấn đề với Anthropic. Tình hình hiện tại là cách rất tồi tệ để khởi đầu giai đoạn hợp tác tiếp theo giữa chính phủ và các công ty công nghệ.
OpenAI tin rằng quân đội Hoa Kỳ hoàn toàn cần các mô hình trí tuệ nhân tạo hiệu năng cao để hỗ trợ nhiệm vụ của họ, đặc biệt trước các mối đe dọa ngày càng tăng từ các đối thủ tiềm năng đang tích hợp ngày càng nhiều công nghệ trí tuệ nhân tạo vào hệ thống của họ.
Dựa trên những thông tin OpenAI nắm được, hợp đồng của OpenAI cung cấp các đảm bảo tốt hơn và các biện pháp bảo vệ có trách nhiệm hơn so với các thỏa thuận trước đó, bao gồm cả hợp đồng ban đầu của Anthropic. OpenAI cho rằng các ranh giới đỏ của họ có thể thực thi tốt hơn vì việc triển khai giới hạn chỉ trên đám mây thay vì ở đầu cuối, giữ hệ thống bảo vệ hoạt động theo cách công ty cho là tốt nhất, và giữ nhân sự OpenAI có giấy phép bảo mật trong vòng giám sát.
OpenAI không biết tại sao Anthropic không đạt được thỏa thuận này, và hy vọng Anthropic cùng nhiều công ty khác sẽ xem xét nó. OpenAI khẳng định họ đã làm rõ lập trường với chính phủ rằng không nên chỉ định Anthropic là rủi ro chuỗi cung ứng.
Trong thông báo của mình, Anthropic nêu hai ranh giới đỏ và giải thích lý do họ cho rằng các hợp đồng từ Bộ Quốc phòng vào thời điểm đó không đảm bảo duy trì những ranh giới này. OpenAI cũng thiết lập hai ranh giới đỏ tương tự như Anthropic, nhưng bổ sung thêm ranh giới thứ ba liên quan đến việc ra quyết định tự động có tầm quan trọng cao.
| Anthropic đối đầu Lầu Năm Góc vì từ chối vũ khí tự hành và theo dõi công dân |
Về giám sát quy mô lớn trong nước, trong quá trình tương tác, Bộ Chiến tranh xem giám sát quy mô lớn trong nước là bất hợp pháp và không có kế hoạch sử dụng cho mục đích này. OpenAI đảm bảo rằng việc này không nằm trong mục đích sử dụng hợp pháp được ghi rõ trong hợp đồng.
Về vũ khí hoàn toàn tự động, hình thức triển khai chỉ trên đám mây trong hợp đồng của OpenAI không cho phép điều khiển vũ khí hoàn toàn tự động vì điều này đòi hỏi triển khai trên các thiết bị đầu cuối.
Ngoài các biện pháp bảo vệ này, hợp đồng của OpenAI cung cấp thêm các biện pháp bảo vệ nhiều lớp bao gồm hệ thống bảo vệ và các chuyên gia kỹ thuật của OpenAI tham gia vào quy trình giám sát.
OpenAI giữ toàn quyền kiểm soát hệ thống bảo vệ mà họ triển khai và sẽ không triển khai mà không có các rào cản bảo vệ. Các nhà nghiên cứu về an toàn và điều chỉnh của công ty sẽ tham gia vào quy trình và giúp cải thiện hệ thống theo thời gian. OpenAI biết rằng các công ty công nghệ khác đã giảm các rào cản bảo vệ của mô hình và dựa vào các chính sách sử dụng làm biện pháp bảo vệ chính, nhưng công ty tin rằng cách tiếp cận nhiều lớp của họ bảo vệ tốt hơn trước các hành vi sử dụng không thể chấp nhận.
Như với bất kỳ hợp đồng nào, OpenAI có thể chấm dứt nếu bên kia vi phạm các điều khoản. Hợp đồng của OpenAI tham chiếu rõ ràng đến các luật và chính sách về giám sát và vũ khí tự động như hiện tại, do đó ngay cả khi các luật hoặc chính sách đó thay đổi trong tương lai, việc sử dụng hệ thống của họ vẫn phải tuân thủ các tiêu chuẩn hiện tại được phản ánh trong thỏa thuận.
Giới đầu tư từng kỳ vọng một nhiệm kỳ của Donald Trump sẽ mở ra môi trường pháp lý "dễ thở" hơn, tạo điều kiện ... |
Cổ phiếu của Korea Zinc, nhà sản xuất kẽm lớn nhất thế giới, đã giảm hơn 13% trong phiên giao dịch ngày thứ Ba 16/12, ... |
Vòng đàm phán hạt nhân thứ ba giữa Mỹ và Iran tại Geneva khép lại mà không có thỏa thuận. Thị trường dầu mỏ phản ... |
Công Trí
