Cảnh báo nguy cơ lừa đảo bằng AI dịp Tết

ChatGPT có khả năng giao tiếp và suy luận như người bình thường, khiến việc phát hiện ra người dùng đang giao tiếp với AI không hề dễ dàng. Chính vì vậy, mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và ChatGPT sẽ ngày càng cao - theo các chuyên gia.

Sự phát triển của trí tuệ nhân tạo biến các cuộc tấn công mạng, deepfake trở nên nguy hiểm và khó lường hơn bao giờ hết. Ảnh: Nhiên Đỗ

Mất 5 triệu đồng sau videocall

Bằng công nghệ Deepfake (công nghệ ứng dụng AI), đối tượng lừa đảo đã tạo ra các đoạn video với khuôn mặt nhân vật giống hệt hình ảnh của người dùng muốn giả mạo để thực hiện hành vi lừa đảo, khiến không ít nạn nhân sập bẫy.

Đang ngồi làm việc tại công ty, chị Nguyễn Thị Kim (phường Lĩnh Nam, quận Hoàng Mai, Hà Nội) nhận được tin nhắn của bạn thân qua Messenger. Người bạn hỏi vay gấp chị Kim số tiền là 5 triệu đồng nhưng lại đề nghị chị Kim chuyển tiền vào một tài khoản lạ. Nghi ngờ đây là chiêu thức lừa đảo, chị Kim đã gọi video call qua Messenger để xác thực đây có phải bạn mình không.

"Cuộc gọi diễn ra rất nhanh, chỉ khoảng 10-15 giây là phía bên kia tắt máy. Tôi thấy đúng mặt bạn mình nên tôi đã chuyển đúng 5 triệu đồng. Tuy nhiên, chỉ sau khi chuyển tiền thành công, tôi không gọi Messenger được cho bạn nên mới gọi bằng số điện thoại thường thì mới biết mình đã mắc bẫy" - chị Kim chia sẻ.

Sau đó chừng 15 phút, người bạn này của chị Kim đã đăng đàn trên Facebook thông báo rằng mình đã bị hack nick. Tất cả tin nhắn, cuộc gọi vay tiền mọi người đều là giả mạo.

Anh Hoàng Anh Phong (quận Nam Từ Liêm, Hà Nội) cũng rơi vào tình trạng tương tự như chị Kim. Tuy nhiên, thay vì gọi điện xác minh qua các ứng dụng mạng xã hội (Facebook hoặc Zalo), anh Phong đã gọi điện thoại trực tiếp cho người bạn của mình thì mới biết là tài khoản Facebook của người bạn này đã bị hack và bị kẻ xấu lợi dụng để thực hiện các hành vi lừa đảo bằng công nghệ Deepfake.

Ghi nhận của PV Lao Động cho thấy, với thao tác gõ từ khóa "deepfake; mua bán ứng dụng deepfake..." trên Facebook, hàng chục group trao đổi buôn bán video về loại công nghệ này sẽ xuất hiện. Tại đây, các đối tượng ngang nhiên mời chào người mua về phần mềm giả danh hình ảnh, giọng nói của một cá nhân với chi phí không hề rẻ.

Liên hệ với một đối tượng rao bán phần mềm Deepfake công khai, người này cho biết: "Chị chỉ cần gửi em hình ảnh người muốn fake, sau đó phần mềm sẽ tạo ra hình ảnh giống tới 99%. Chi phí là 21 triệu đồng, miễn phí cài đặt, gặp lỗi gì thì chị nhắn cho nhân viên bên em để xử lý".

Đáng chú ý, dịch vụ này chỉ được thực hiện khi khách chuyển tiền phí trước, không có video, hình ảnh xem thử.

Không khó để tìm được các địa chỉ trao đổi, rao bán loại công nghệ này. Ảnh: Hương Nha

Hạn chế chia sẻ hình ảnh, giọng nói trên mạng xã hội

Trao đổi với PV Lao Động sáng 22.1, chuyên gia AI Trần Hải Long (AI Scientist Brickteck JSC) cho biết, Brickteck JSC thời gian qua đã ghi nhận tình trạng tội phạm sử dụng AI lừa đảo qua không gian mạng. Những đối tượng này sử dụng nhiều kỹ thuật tiên tiến để sao chép mặt và giọng của một người, giả dạng họ để đi lừa đảo.

Anh Trần Hải Long chia sẻ, Deepfake và ChatGPT đều là những công nghệ hiện đại trên thế giới. ChatGPT có khả năng giao tiếp và suy luận như một người bình thường khiến việc phát hiện ra bạn đang giao tiếp với AI không hề dễ dàng cho người dân đại chúng. Chính vì vậy, việc lợi dụng những công nghệ này để lừa đảo trên diện rộng sẽ là vấn đề mà các cơ quan có thẩm quyền cần quan tâm.

"Để phân biệt giữa người thật và AI, thực sự là rất khó khăn. Tuy nhiên, để tránh việc bị giả mạo một cách dễ dàng, người dân không nên chia sẻ quá nhiều hình ảnh và giọng nói của bản thân lên các trang mạng xã hội, đây sẽ là nguồn thông tin cần thiết để tội phạm đánh cắp khuôn mặt và giọng nói của bạn" - anh Trần Hải Long cho hay.

Vị chuyên gia đưa lời khuyên, trong phần lớn các trường hợp, dấu hiệu nhận biết việc làm giả này có thể được xác định bằng giác quan con người như hình ảnh không chân thực hay là âm thanh giọng nói không có sự ngắt nghỉ tự nhiên. Các cơ quan chức năng cũng cần gia tăng công tác quản lý và có những phương án nhất định quản lý hành vi người dùng.

Báo cáo của Tổ chức công nghệ Identity Fraud vừa công bố đầu năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra. Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ kết hợp giữa “deep learning” (máy học) và “fake” (giả).

Diễn đàn Kinh tế Thế giới dự báo đến năm 2026, khoảng 90% nội dung trực tuyến có thể do AI tạo ra. Dù nhiều người cho rằng deepfake và phishing AI chủ yếu nhắm vào người nổi tiếng, mục tiêu chính vẫn là người dùng phổ thông và doanh nghiệp, nơi lưu trữ thông tin cá nhân, ngân hàng, thanh toán và tài sản giá trị.

 

Theo laodong.vn

Thời tiết

Tỷ giá ngoại tệ
Thống kê truy cập
Đang online 26981 Tổng lượt truy cập 95360948