Dữ liệu người dùng ChatGPT có thể tạo ra các thông tin lừa đảo như 'thật'

Dữ liệu người dùng ChatGPT có thể tạo ra các thông tin lừa đảo như 'thật'

Theo nhận định của chuyên gia an ninh mạng Australia thì sự phổ biến của ứng dụng chatGPT trong thời gian gần đây chính là tư liệu để các tin tặc sử dụng tạo ra các thông tin lừa đảo khó có thể nhận biết ngay cả đối với các nhân viên bảo mật được đào tạo.

Theo nhận định của ông Chad Skipper - chuyên gia về công nghệ bảo mật toàn cầu tại công ty phần mềm VMWare ở Australia - cho biết các email lừa đảo (phishing email) được sử dụng ChatGPT hoặc các mô hình “máy học” ngôn ngữ tự nhiên tương tự để bắt chước ngôn ngữ và giọng điệu của các email chính thức trong các tổ chức và rất khó để phân biệt chúng với các email thật.

Sử dụng chatGPT như là một trải nghiệm mới của người dùng với công nghệ mới
Sử dụng chatGPT như là một trải nghiệm mới của người dùng với công nghệ mới.

Ông Chad Skipper cho rằng đây là một cuộc chiến mới giữa tin tặc và ngành công nghiệp an ninh mạng và cuộc chiến này sẽ tiếp diễn “không ngừng nghỉ”. Ông chia sẻ: “Chúng tôi sử dụng trí tuệ nhân tạo (AI) theo cách của chúng tôi, chúng sử dụng trí tuệ nhân tạo theo cách của chúng. Và đây là một cuộc “chạy đua vũ trang” về trí tuệ nhân tạo.

Theo ông Chad Skipper, tội phạm mạng đang sử dụng trí tuệ nhân tạo để xác định những lỗ hổng trong các công ty, tổ chức và chúng đang sử dụng ChatGPT để tiến hành các cuộc tấn công giả mạo tinh vi nhằm xâm nhập vào các tổ chức này.

Tấn công giả mạo (Phishing) là hình thức tấn công mạng mà kẻ tấn công sử dụng các email hoặc các hình thức nhắn tin giả mạo khác để “bẫy” người dùng nhấp vào các tài liệu có vẻ vô hại hoặc các đường link dẫn đến một trang web, nơi chúng phát tán phần mềm độc hại (Malware) lên các thiết bị người dùng.

Ước tính có khoảng 90% các vụ xâm nhập mạng khởi đầu bằng một cuộc tấn công giả mạo đã được thực hiện thành công trước đó. Vụ tấn công mạng nghiêm trọng vào công ty bảo hiểm tư nhân lớn nhất của Australia là Medibank hồi tháng 10/2022, bắt nguồn sau khi máy tính của một nhân viên bị nhiễm phần mềm độc hại, cũng có thể nằm trong số đó.

Ông Darren Reid, Giám đốc kinh doanh tại VMware Australia, cho biết trong thời gian ngắn kể từ khi được phát hành vào năm ngoái, ChatGPT đã vượt qua một trong những tuyến phòng thủ chống lại các cuộc tấn công như vậy một cách hữu hiệu.

Những dữ liệu sử dụng đó lại có thể là nguy cơ đối với các thông tin mà các tin tặc sử dụng để lừa đảo
Những dữ liệu sử dụng đó lại có thể là nguy cơ đối với các thông tin mà các tin tặc sử dụng để lừa đảo.

Ông cho biết: “Nếu bạn là một hacker người Nga, tiếng Anh có lẽ là rào cản đối với bạn. Và hầu hết các tổ chức đều rà soát cách sử dụng ngữ pháp và từ ngữ một cách bất thường để lọc bỏ các email lừa đảo. Tuy nhiên, ChatGPT đã khắc phục điều này, làm cho thông điệp của những hacker chân thực hơn và do đó có khiến cuộc tấn công có khả năng thành công cao hơn”.

Ông Skipper cho biết, một khi tội phạm mạng đã xâm nhập được vào hệ thống máy tính của một tổ chức, chúng sẽ sử dụng trí tuệ nhân tạo để tránh bị phát hiện và tiếp tục mở rộng cuộc tấn công của mình.

Trong một cuộc khảo sát mới nhất về mức độ thiệt hại đối với các vụ tấn công mạng, IBM nhận thấy phải mất trung bình 277 ngày, tương đương 9 tháng, để một công ty bị tấn công mạng có thể xác định và ngăn chặn cuộc tấn công đó.

Đây là quãng thời gian những kẻ tin tặc đã nằm sâu trong công ty, có thời gian để thu thập thêm nhiều dữ liệu để sử dụng dữ liệu này làm cơ sở cho một cuộc tấn công sử dụng công nghệ deep-fake, sử dụng trí tuệ nhân tạo để bắt chước gần giống phong cách viết hoặc thậm chí là giọng nói của một đồng nghiệp để làm cơ sở tấn công vào các bộ phận khác của doanh nghiệp.

Ông Skipper cho biết, tội phạm mạng thậm chí đang sử dụng ChatGPT để điều chỉnh bộ mã của những phần mềm độc hại để chúng có thể lẩn tránh phần mềm diệt virus, đồng thời chúng cũng “nhúng trí tuệ nhân tạo” vào phần mềm độc hại để những phần mềm độc hại này có thể tự điều chỉnh hành vi của mình sau khi bị phát hiện.