Google hủy bỏ lời cam kết không sử dụng AI cho vũ khí, giám sát
Nhiều người Việt quan tâm tìm kiếm về công cụ AI trong năm 2024 CEO của Google nhấn mạnh những thách thức trước sự phát triển nhanh chóng của AI HTC của Đài Loan sẽ bán một phần đơn vị XR cho Google |
Phiên bản trước của nguyên tắc AI nêu rõ Google sẽ không sử dụng công nghệ AI của mình cho mục đích vũ khí hoặc giám sát. |
Trong một động thái đáng chú ý, Google vừa loại bỏ cam kết không sử dụng AI cho vũ khí và giám sát khỏi "Nguyên tắc AI" của công ty. Đây là sự thay đổi quan trọng so với chính sách trước đây, vốn từng nghiêm cấm việc phát triển công nghệ AI phục vụ mục đích gây hại cho con người hoặc vi phạm các tiêu chuẩn giám sát quốc tế.
CEO Google DeepMind, Demis Hassabis, giải thích rằng quyết định này xuất phát từ bối cảnh cạnh tranh AI toàn cầu ngày càng gay gắt: "Chúng tôi tin rằng các nền dân chủ nên dẫn đầu trong việc phát triển AI, dựa trên nền tảng giá trị tự do, bình đẳng và tôn trọng nhân quyền."
Sự thay đổi này phản ánh chiến lược mới của Google trong việc mở rộng dịch vụ AI tới nhiều đối tượng hơn, đặc biệt là khu vực chính phủ. Thay vì áp dụng các giới hạn cụ thể, công ty giờ đây tập trung vào việc cân nhắc giữa lợi ích và rủi ro tiềm ẩn trong từng dự án.
Quyết định này được đưa ra trong bối cảnh căng thẳng nội bộ đáng kể. Trước đây, Google đã từng từ chối Dự án Maven của chính phủ và rút khỏi hợp đồng đám mây 10 tỷ USD với Lầu Năm Góc do lo ngại về việc tuân thủ nguyên tắc đạo đức. Gần đây nhất, việc công ty ký hợp đồng Nimbus trị giá 1,2 tỷ USD với Israel đã dẫn đến việc sa thải hơn 50 nhân viên sau các cuộc biểu tình phản đối.
Theo “Nguyên tắc AI” được cập nhật của công ty, Google đã xóa bỏ lời cam kết không sử dụng AI cho các ứng dụng có khả năng gây hại, chẳng hạn như vũ khí và giám sát. Hàng trăm người biểu tình, bao gồm cả nhân viên của Google, đã tập trung trước văn phòng Google tại San Francisco và chặn đường tại khu phố One Market vào tối thứ Năm, yêu cầu chấm dứt hợp tác với chính phủ Israel và phản đối các cuộc tấn công của Israel vào Gaza. |
Để kiểm soát các tranh cãi nội bộ, Google đã thắt chặt quy định về thảo luận các vấn đề địa chính trị nhạy cảm trên các diễn đàn nội bộ của công ty. Động thái này cho thấy nỗ lực của Google trong việc cân bằng giữa phát triển kinh doanh và quản lý xung đột nội bộ trong thời điểm địa chính trị căng thẳng.
Tin tức này được công bố trước thềm báo cáo tài chính quý IV của Google, trong đó công ty không đạt kỳ vọng về doanh thu của Phố Wall, khiến cổ phiếu giảm 9% trong phiên giao dịch sau giờ làm việc.
Nguyên tắc AI của Google có các điểm chính như sau: Mang lại lợi ích cho xã hội : Google cam kết phát triển AI nỗ lực giải quyết các vấn đề quan trọng như y tế, an ninh và môi trường, đảm bảo rằng công nghệ này đóng góp tích cực cho xã hội. Tránh tạo ra hoặc củng cố các thành phố kiến trúc không công bằng : Công ty nỗ lực đảm bảo rằng các hệ thống AI không phản ánh ánh sáng hoặc gia tăng những kiến trúc không công bằng, đặc biệt liên quan đến các đặc tính nhạy cảm như chủng tộc, giới tính hay tôn giáo. Đảm bảo an toàn và bảo mật : Google phát triển và phát triển các biện pháp an toàn mạnh mẽ để ngăn chặn các nguy cơ từ những kết quả không mong muốn của AI, đồng thời thiết kế hệ thống với sự cẩn trọng phù hợp. Chịu trách nhiệm với con người : Hệ thống AI của Google được thiết kế để cung cấp cơ hội phản hồi và chịu đựng sự giám sát của con người, chắc chắn rằng AI hoạt động theo cách mà con người mong muốn. Tôn trọng quyền riêng tư : Google tích hợp các nguyên tắc bảo mật trong việc phát triển và sử dụng AI, bao gồm việc cung cấp thông báo, tùy chọn đồng ý và khuyến khích các kiến trúc bảo vệ quyền riêng tư. Duy trì tính minh bạch : Công ty cam duy trì tính minh bạch về cách thức AI hoạt động, giúp mọi người hiểu rõ hơn về công nghệ này và có niềm tin vào các ứng dụng AI. Tránh các ứng dụng gây hại : Google sẽ không thiết kế hoặc phát triển các ứng dụng AI có thể gây nguy hại, như vũ khí tự động hóa hoặc các ứng dụng đe dọa an ninh hay quyền con người. Ngoài ra, Google đã giới thiệu Khung AI Bảo mật (SAIF) nhằm đảm bảo an toàn cho các hệ thống AI. SAIF tập trung vào công việc quản lý rủi ro, bảo mật và quyền riêng tư cho các mô hình AI/máy học, đảm bảo rằng khi các mô hình AI được phát triển, chúng đều an toàn theo mặc định. Việc làm cam kết các nguyên tắc này có thể thực hiện cam kết của Google trong việc phát triển AI một cách có trách nhiệm, đảm bảo rằng công nghệ này mang lại lợi ích cho xã hội và tôn trọng các giá trị nhân quyền. |