Microsoft đã 'che đậy' lỗ hổng trong trình tạo hình ảnh AI DALL-3 và OpenAI
Kỹ sư của Microsoft còn nêu lên mối lo ngại về việc đảm bảo nhân viên công nghệ có thể báo cáo các vấn đề một cách độc lập mà không bị “đe dọa phải giữ im lặng”.
Jones đã gửi thư tới các nhà lập pháp tại Quốc hội Mỹ để thông báo về vấn đề này sau khi Microsoft cố gắng che đậy. Tuy nhiên, ông đã bị yêu cầu xóa bài đăng trên LinkedIn kêu gọi OpenAI tạm dừng cung cấp DALL-E 3 để "ưu tiên an toàn hơn là thương mại hóa". Microsoft không cung cấp lời giải thích hoặc biện minh về việc này.
Jones cũng đề xuất việc thiết lập một giải pháp pháp lý để giám sát các rủi ro liên quan đến AI và buộc các công ty công nghệ phải chịu trách nhiệm về sự an toàn của sản phẩm AI. Ông cũng bày tỏ lo ngại về khả năng đảm bảo nhân viên công nghệ có thể báo cáo vấn đề một cách độc lập mà không bị đe dọa. Microsoft, tuy nhiên, cho biết họ đã triển khai một công cụ báo cáo nội bộ cho nhân viên.
OpenAI đã điều tra vấn đề và cho rằng kỹ thuật mà Jones báo cáo "không vượt ra ngoài bộ lọc an toàn". Họ cũng đã triển khai biện pháp bảo vệ bổ sung cho ChatGPT và API DALL-E để ngăn chặn các yêu cầu liên quan đến nhân vật nổi tiếng và tránh tạo ra hình ảnh có hại.
Ngoài ra, công ty cũng đã triển khai các biện pháp bảo vệ bổ sung cho ChatGPT và API DALL-E, bao gồm cả việc từ chối các yêu cầu liên quan đến các nhân vật nổi tiếng của công chúng.
Tuần trước, các hình ảnh khiêu dâm deepfake ca sỹ Taylor Swift do AI tạo ra lưu hành trên mạng xã hội X (Twitter) đã nhận được 47 triệu lượt truy cập trước khi nền tảng này đình chỉ từ khoá.
Có thể bạn quan tâm


Gartner dự báo chi tiêu toàn cầu cho GenAI đạt 644 tỷ USD vào năm 2025
AI
Keysight cách mạng hóa quá trình đo kiểm thu phát quang cho các trung tâm dữ liệu AI
AI
Ấn Độ còn cách bao xa để có thể tạo ra 'DeepSeek"' của riêng mình?
Công nghệ số