Microsoft đã "che đậy" lỗ hổng trong trình tạo hình ảnh AI DALL-3 và OpenAI, theo tuyên bố của Shane Jones, Giám đốc Kỹ thuật Phần mềm chính của Microsoft. Jones đã phát hiện lỗ hổng này trong trình tạo hình ảnh DALL-E 3 của OpenAI, cho phép người dùng tạo ra hình ảnh bạo lực và tục tĩu bỏ qua các quy định an toàn.
Kỹ sư của Microsoft còn nêu lên mối lo ngại về việc đảm bảo nhân viên công nghệ có thể báo cáo các vấn đề một cách độc lập mà không bị “đe dọa phải giữ im lặng”.
Jones đã gửi thư tới các nhà lập pháp tại Quốc hội Mỹ để thông báo về vấn đề này sau khi Microsoft cố gắng che đậy. Tuy nhiên, ông đã bị yêu cầu xóa bài đăng trên LinkedIn kêu gọi OpenAI tạm dừng cung cấp DALL-E 3 để "ưu tiên an toàn hơn là thương mại hóa". Microsoft không cung cấp lời giải thích hoặc biện minh về việc này.
Jones cũng đề xuất việc thiết lập một giải pháp pháp lý để giám sát các rủi ro liên quan đến AI và buộc các công ty công nghệ phải chịu trách nhiệm về sự an toàn của sản phẩm AI. Ông cũng bày tỏ lo ngại về khả năng đảm bảo nhân viên công nghệ có thể báo cáo vấn đề một cách độc lập mà không bị đe dọa. Microsoft, tuy nhiên, cho biết họ đã triển khai một công cụ báo cáo nội bộ cho nhân viên.
OpenAI đã điều tra vấn đề và cho rằng kỹ thuật mà Jones báo cáo "không vượt ra ngoài bộ lọc an toàn". Họ cũng đã triển khai biện pháp bảo vệ bổ sung cho ChatGPT và API DALL-E để ngăn chặn các yêu cầu liên quan đến nhân vật nổi tiếng và tránh tạo ra hình ảnh có hại.
Ngoài ra, công ty cũng đã triển khai các biện pháp bảo vệ bổ sung cho ChatGPT và API DALL-E, bao gồm cả việc từ chối các yêu cầu liên quan đến các nhân vật nổi tiếng của công chúng.
Tuần trước, các hình ảnh khiêu dâm deepfake ca sỹ Taylor Swift do AI tạo ra lưu hành trên mạng xã hội X (Twitter) đã nhận được 47 triệu lượt truy cập trước khi nền tảng này đình chỉ từ khoá.