Tội phạm mạng đang lợi dụng trí tuệ nhân tạo để lừa đảo và tạo ra các phần mềm độc hại

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

(Baonghean.vn) - Một cảnh báo mới được đưa ra bởi Cục Điều tra liên bang Mỹ (FBI)cho thấy, bọn tội phạm mạng đang sử dụng các chương trình trí tuệ nhân tạo (AI) cho các kế hoạch lừa đảo và giúp chúng tạo ra phần mềm độc hại.

Mới đây, FBI đã đưa ra cảnh báo về sự gia tăng của các cuộc tấn công mạng được hỗ trợ bởi các chương trình AI. Theo cơ quan này, bọn tội phạm mạng đang khai thác các chương trình AI mã nguồn mở cho tất cả các loại hành vi xấu xa, bao gồm phát triển phần mềm độc hại và tấn công lừa đảo. Số lượng người có xu hướng sử dụng công nghệ AI như một phần của các cuộc tấn công lừa đảo hoặc phát triển phần mềm độc hại đang gia tăng ở mức đáng báo động và tác động của hoạt động này ngày càng gia tăng.

Anh minh hoa1.jpg
Ảnh minh hoạ.

FBI cũng cho rằng, các mô hình AI được bảo mật tốt như ChatGPT đã bị lợi dụng để phát triển phần mềm độc hại, những phần mềm độc hại này có khả năng vượt qua ngay cả các hệ thống bảo mật mới nhất.

Một số chuyên gia CNTT gần đây đã phát hiện ra tiềm năng nguy hiểm của ChatGPT và khả năng tạo ra các phần mềm độc hại gần như không thể phát hiện được bằng Hệ thống phát hiện và phản hồi các mối nguy hại tại điểm cuối (Endpoint Detection & Response - EDR).

EDR là một bộ công cụ bảo mật không gian mạng được thiết kế để phát hiện và loại bỏ các phần mềm độc hại hoặc bất kỳ hoạt động khả nghi nào khác trên mạng. Tuy nhiên, các chuyên gia cho rằng giao thức truyền thống này không phù hợp với tác hại tiềm ẩn mà ChatGPT có thể tạo ra.

Các hoạt động độc hại bao gồm từ việc sử dụng các chương trình AI để tinh chỉnh và tung ra các trò gian lận cho đến những kẻ khủng bố tư vấn công nghệ để giúp chúng xây dựng các cuộc tấn công hóa học mạnh mẽ hơn.

Hầu hết các mô hình ngôn ngữ lớn (Large language models - LLM) như ChatGPT đều được thiết kế với các bộ lọc sẵn có để tránh tạo ra nội dung không phù hợp mà người tạo ra cho là không phù hợp. Điều này có thể bao gồm từ các chủ đề cụ thể, trong trường hợp này là mã độc hại. Tuy nhiên, không mất nhiều thời gian để người dùng tìm cách vượt qua các bộ lọc này. Chính chiến thuật này khiến ChatGPT đặc biệt dễ bị tấn công bởi những cá nhân muốn tạo tập lệnh có hại.

Một quan chức cấp cao của FBI cho biết: “Chúng tôi cho rằng theo thời gian khi việc áp dụng và dân chủ hóa các mô hình AI tiếp tục diễn ra, những xu hướng này sẽ tăng lên”.

Mặc dù, FBI không công bố các mô hình AI cụ thể mà bọn tội phạm đang sử dụng. Tuy nhiên, cơ quan này cảnh báo rằng tin tặc đang chú ý đến các mô hình mã nguồn mở miễn phí, có thể tùy chỉnh, cùng với các chương trình AI do tin tặc tự phát triển.

Quan chức của FBI cho biết thêm rằng, tội phạm mạng dày dạn kinh nghiệm đang khai thác công nghệ AI để phát triển các cuộc tấn công bằng phần mềm độc hại mới bao gồm sử dụng các trang web do AI tạo ra làm trang lừa đảo để bí mật phân phối mã máy tính độc hại. Công nghệ tương tự đang giúp tin tặc phát triển các phần mềm độc hại mới, có thể trốn tránh phần mềm chống vi-rút.

Trước đó, FBI cũng đã đưa ra cảnh báo rằng những kẻ lừa đảo đang sử dụng trình tạo hình ảnh AI để tạo ra các hình ảnh giả giống như thật về chủ đề tình dục của các nạn nhân nhằm tống tiền họ. Phần lớn các vụ án mà cơ quan này đang điều tra liên quan đến những kẻ tội phạm sử dụng các mô hình AI để củng cố các kế hoạch truyền thống của chúng. Điều này bao gồm các nỗ lực lừa gạt những người thân yêu hoặc người già bằng các cuộc gọi điện thoại lừa đảo bằng công nghệ nhân bản giọng nói AI.

Trước vấn đề này, các công ty công nghệ hàng đầu thế giới như Amazon, Google, Meta, OpenAI,…đã ký cam kết có các biện pháp quản lý các công cụ AI của họ và sẽ kiểm tra độc lập các chương trình AI do họ tạo ra trước khi phát hành ra công chúng đồng thời sẽ phát triển các giải pháp để đánh dấu nội dung do AI tạo ra nhằm giúp người dùng tránh được thông tin sai lệch và các hành vi lừa đảo.

Các công ty công nghệ cũng tuyên bố sẽ đầu tư vào an ninh mạng để bảo vệ mã AI độc quyền của họ khỏi bị đánh cắp hoặc rò rỉ ra công chúng. Áp dụng 3 nguyên tắc nền tảng cho tương lai của AI là an toàn, bảo mật và tin cậy.

Tin mới