Sự trỗi dậy của Generative AI trong tay tội phạm
Theo các báo cáo mới nhất từ Trend Micro và FBI, Generative AI (GenAI, AI tạo nội dung) đang bị giới tội phạm lợi dụng với quy mô ngày càng lớn. Ban đầu vốn được thiết kế để hỗ trợ nghiên cứu và tăng cường hiệu quả trong nhiều lĩnh vực, GenAI giờ đây đã trở thành một “con dao hai lưỡi” khi bị tội phạm mạng khai thác.
Trước đây, các hành vi lừa đảo thường bao gồm phishing (lừa đảo qua email), ransomware (mã độc đòi tiền chuộc), hoặc tấn công DDoS (làm quá tải hệ thống). Tuy nhiên, nhiều nhóm tội phạm hiện nay sử dụng AI để thực hiện các kế hoạch phức tạp hơn, từ lập kế hoạch chi tiết đến tạo ra mã độc khó bị phát hiện.
Mạng xã hội, các diễn đàn ngầm, nhóm chat mã hóa (nền tảng che giấu danh tính người dùng) thường bị nhóm lừa đảo lợi dụng để trao đổi và buôn bán các bot tương tự ChatGPT. Sự gia tăng này khiến mối đe dọa an ninh mạng ngày càng trầm trọng hơn, tạo ra nhiều lỗ hổng khó lường.
Từ mô hình ngôn ngữ tội phạm đến Deepfake và nguy cơ lừa đảo quy mô lớn
Những phiên bản chatbot “đen” như WormGPT hay DarkBERT, dù đã từng bị ngừng hoạt động, vẫn không ngừng tái xuất dưới hình thức nâng cấp. Chúng được tích hợp thêm các tính năng như nhận diện giọng nói và được huấn luyện trên dữ liệu độc hại, bao gồm mã nguồn xấu và kỹ thuật tấn công mạng. Các Criminal LLM (mô hình ngôn ngữ lớn dành cho tội phạm) có thể tư vấn chi tiết về cách thực hiện các cuộc tấn công phishing hoặc tạo ra mã độc cực kỳ tinh vi.
Deepfake, một công nghệ AI bị lạm dụng để giả mạo khuôn mặt và giọng nói, cũng mang đến nhiều hậu quả nghiêm trọng. Trong một vụ lừa đảo năm 2024, một giám đốc tài chính đã bị giả mạo hình ảnh để chiếm đoạt 25 triệu USD. Các công cụ như DeepNude Pro (dùng để chỉnh sửa ảnh nhạy cảm), SwapFace (ghép khuôn mặt), và Avatar AI VideoCallSpoofer (dùng để làm giả video trực tuyến) đã hỗ trợ thay đổi khuôn mặt và giọng nói trong thời gian thực, tạo ra các cuộc gọi video giả cực kỳ tinh vi.
Hậu quả của những công nghệ này không chỉ dừng lại ở tổn thất tài sản, mà còn làm tăng nguy cơ tống tiền sextortion (tống tiền bằng hình ảnh hoặc thông tin nhạy cảm). Mạng xã hội, vô tình, trở thành “kho dữ liệu miễn phí” để tội phạm thu thập thông tin từ các nạn nhân.
Tăng cường phòng vệ trước mối đe dọa
Trong thời điểm các công cụ AI ngày càng dễ tiếp cận, việc nâng cao nhận thức và áp dụng các biện pháp phòng vệ là điều tối quan trọng.
Mỗi cá nhân cần cẩn trọng khi tiếp nhận thông tin, luôn xác minh danh tính qua nhiều nguồn đáng tin cậy và không vội tin vào các hình ảnh hay video trực tuyến. Các tổ chức như Trend Micro khuyến nghị sử dụng công cụ Deepfake Inspector để nhận diện nội dung bị chỉnh sửa.
Ngoài ra, thực hiện các chính sách nghiêm ngặt như KYC (Know Your Customer, xác minh danh tính khách hàng) sẽ giúp giảm thiểu các lỗ hổng mà tội phạm có thể lợi dụng.
Về lâu dài, sự hợp tác chặt chẽ giữa các cơ quan chức năng, doanh nghiệp và người dùng sẽ đóng vai trò quyết định trong việc ngăn chặn lạm dụng AI. Các báo cáo đã nhấn mạnh tầm quan trọng của việc thiết lập các khung pháp lý nghiêm ngặt để kiểm soát nguy cơ này. Chỉ khi có sự hợp tác toàn diện, xã hội mới có thể khai thác hiệu quả sức mạnh của AI, đồng thời giảm thiểu rủi ro trong kỷ nguyên số.