Hình ảnh Deepfake nhạy cảm của Taylor Swift gây sốc
Taylor Swift đang trong thời gian chuẩn bị cho The Eras Tour sắp tới ở Nhật Bản ngày 7-2.
Những hình ảnh giả mạo này xuất hiện chủ yếu trên các nền tảng như Telegram, X (trước đây là Twitter), và sau đó được lan truyền đến Instagram và Reddit. Phản ứng của cộng đồng người hâm mộ của Taylor Swift là sự phẫn nộ, đặt ra nhiều câu hỏi về việc kiểm soát nội dung trên các mạng xã hội và sự chậm trễ trong việc ngăn chặn nó.
Trước sự tức giận của người hâm mộ, đại diện của nền tảng X (trước đây là Twitter) khẳng định rằng hành động đăng tải hình ảnh khỏa thân không được sự đồng thuận là nghiêm cấm trên nền tảng, và họ sẽ xử lý những nội dung đó theo chính sách của mình.
Bài báo trên New York Timescũng đề cập đến vấn đề rộng lớn của công nghệ deepfake và ảnh hưởng tiêu cực của nó đến danh tiếng và quyền riêng tư của những người bị ảnh hưởng. Nhiều tiểu bang ở Mỹ đang thực hiện các biện pháp hạn chế về việc tạo và chia sẻ deepfake mà không có sự cho phép.
Trong cuộc họp ngày 26-1, Nhà Trắng bày tỏ lo ngại và cam kết thực hiện biện pháp để ngăn chặn rủi ro của hình ảnh do AI tạo ra, đồng thời kêu gọi quốc hội thực hiện hành động lập pháp chiến lược để chống lại các hành vi xấu này. Nhấn mạnh rằng quản lý các trang mạng xã hội cũng cần thắt chặt quy tắc để ngăn chặn thông tin xấu và bảo vệ người thật.
Taylor Swift.
Lời khuyên của các chuyên gia để tự bảo vệ trước deepfake?
Để đối phó với những chiêu trò lửa đảo sử dụng công nghệ deepfake, các chuyên gia về bảo mật đã đưa ra những lời khuyên nhằm phòng tránh trước các tính huống xấu có thể xảy ra, đặc biệt là việc nâng cao bảo mật các tài khoản trực tuyến.
Tin tưởng nhưng vẫn phải xác minh: Nếu nhận được một đoạn tin nhắn thoại với mục đích vay tiền hoặc mượn tài sản cá nhân... Dù cho giọng nói nghe rất quen thuộc và cực kỳ giống thật, tốt nhất bạn hãy gọi điện thoại cho người gửi tin nhắn để xác minh người đó có thực sự gửi yêu cầu vay/mượn tài sản bằng tin nhắn thoại.
Đừng vội truy cập bất kỳ đường link nào: Khi được người thân gửi cho một đường link với những cấu trúc lạ, đừng vội vàng nhấp vào đường link/nút đó. Rất có thể đó là một cái bẫy được đưa ra để kẻ lừa đảo có thể chiếm đoạt tài khoản trực tuyến của bạn. Hãy tìm cách xác minh lại với người đã gửi tin nhắn cho bạn.
Hãy chú ý vào những điều nhỏ nhất: Nếu nhận được một cuộc gọi chuyển tiền hoặc video call với nội dung chuyển tiền, dù là người thân thiết, bạn vẫn hãy xem kỹ số điện thoại, email hoặc tài khoản có trùng hợp với người đang thực hiện yêu cầu hay không. Thông thường các đối tượng sẽ yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần tương tự.
Hạn chế quyền truy cập vào giọng nói và hình ảnh của bạn: Để có thể tạo ra hình ảnh và âm thanh giả những kẻ lừa đảo sẽ cần các bản ghi âm, hình ảnh hoặc cảnh quay để tạo ra những sản phẩm giả. Do đó, hãy hạn chế chia sẻ dữ liệu hình ảnh, âm thanh trên mạng xã hội hoặc đặt tài khoản ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin tưởng.
Ngoài ra, một số các chuyên trang về bảo mật còn chỉ ra một số điểm để có thể phát hiện deepfake:
- Nhân vật nói liên tục, không chớp mắt
- Khẩu hình miệng không đồng bộ với lời nó
- Thay đổi tông màu da liên tục
- Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo
- Chuyển động giật cục, như một đoạn video lỗi
- Video có những sự nhấp nháy lạ thường
- Hiện lên các đồ vật kỹ thuật số trong hình ảnh
- Âm thanh và/hoặc video chất lượng thấp
Deepfake - mối đe dọa tiềm tàng về tin giả, lừa đảo và tống tiền
Deepfake - công nghệ trí tuệ nhân tạo (AI) giả mạo hình ảnh và giọng nói nhằm mục đích xấu, như chiếm đoạt tài sản hoặc phá hoại danh tiếng người khác. Các trường hợp lừa đảo và xâm phạm quyền riêng tư trực tuyến bằng deepfake đang gia tăng, gây ra sự lo ngại về an ninh thông tin, độ tin cậy của các dữ liệu trên mạng và trở thành mối lo ngại đáng kể đối với nhiều người dùng Internet.
Deepfake là gì?
Theo Kaspersky cho biết, deepfake là từ được ghép lại từ hai chữ "deep" trong deep-learning (học sâu) và "fake" (lừa dối). Deepfake có thể hiểu là một phương pháp trí tuệ nhân tạo (AI) tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô, nó có khả năng học hỏi từ dữ liệu phi cấu trúc - chẳng hạn như khuôn mặt người. Nó thậm chí có thể thu thập dữ liệu về các chuyển động vật lý của con người.
Dữ liệu hình ảnh còn được xử lý tiếp để tạo video deepfake thông qua mạng lưới đối thủ sáng tạo (GAN), đây là một loại hệ thống các máy học chuyên dụng. Hai mạng thần kinh có thể được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin nhằm mục đích huấn luyện AI (Ví dụ: Ảnh chụp khuôn mặt) và sau đó tạo dữ liệu mới có cùng đặc điểm ("ảnh" mới).
Khả năng học hỏi của các AI luôn được kiểm tra liên tục và so sánh với dữ liệu gốc nhằm mục đích huấn luyện, chính vì vậy mà hình ảnh được AI "làm giả" ngày càng trở nên thuyết phục. Điều này khiến cho deepfake đang là mối đe dọa lớn hơn bao giờ hết. Không chỉ dừng lại ở hình ảnh, một số công nghệ deepfake đã có thể được sử dụng để giả giọng nói.
Theo số liệu từ IBM, tính đến tháng 6/2019, số lượng video deepfake được phát hiện chỉ vỏn vẹn 3.000, tuy nhiên đến tháng 3/2020 đã có hơn một triệu video deepfake được lưu hành trên Internet.
Một nghiên cứu khác từ Deeptrace chỉ ra rằng, vào tháng 12/2018, đã có 15.000 video deepfake được ra đời. Con số này tăng lên 558.000 vào tháng 6/2019 và tăng vọt lên hơn một triệu vào tháng 2/2020.
Nghiên cứu của Deeptrace cho biết thêm, có đến 96% các video deepfake được tạo ra phục vụ các mục đích không hợp pháp. Những con số này đang báo động cho chúng ta về một viễn cảnh chẳng mấy tốt đẹp về thông tin giả, những chiêu trò lừa đảo,... áp dụng deepfake rất có thể sẽ tràn lan trên môi trường Internet.