Cảnh báo tình trạng lợi dụng công nghệ AI để dẫn dụ "chat sex” rồi tống tiền

Thứ Sáu, 14/06/2024, 17:08

Chiều 14/6, Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (ANM&PCTPSDCNC) Công an TP Hồ Chí Minh đã đưa ra cảnh báo về tình trạng nhiều đối tượng lợi dụng công nghệ AI (trí tuệ nhân tạo) để dẫn dụ “chat sex” rồi tống tiền.

Các đối tượng sử dụng tính năng kết bạn, hẹn hò online… của các nền tảng và ứng dụng mạng xã hội như Facebook, Tinder, Dating.com. OkCupid, Zalo, Viber… để tìm cách làm quen qua mạng với nạn nhân.

Để tạo lòng tin với nạn nhân, các đối tượng có thể sử dụng các hình ảnh thật, thông tin thật lấy của những diễn viên hay các người mẫu chia sẻ trên mạng xã hội, sử dụng công nghệ AI deepfake (một phương thức tạo ra các sản phẩm công nghệ giả dưới dạng âm thanh, hình ảnh, video bởi trí tuệ nhân tạo) để tạo cuộc gọi video call theo thời gian thật tương tác thật với nạn nhân.

Cảnh báo tình trạng lợi dụng công nghệ AI để dẫn dụ
Đây là thủ đoạn không mới, các cơ quan chức năng đã cảnh báo nhiều lần nhưng hiện vẫn có rất nhiều nạn nhân bị lừa.

Hiện nay có rất nhiều công cụ thực hiện công nghệ deepfake với khả năng hoán đổi khuôn mặt có độ chân thực cao. Bằng cách sử dụng các thuật toán tiên tiến, các công nghệ đảm bảo mỗi giao dịch hoán đổi duy trì vẻ ngoài tự nhiên, không có dấu hiệu rõ ràng về thao tác kỹ thuật số do đó rất khó phát hiện bằng mắt thường.

Khi đã tạo được lòng tin và kết bạn với nạn nhân, các đối tượng sẽ tìm cách khai thác các thông tin đời tư, cá nhân, các mối quan hệ, các tài khoản mạng xã hội… để thu thập các thông tin của nạn nhân để tìm cách khống chế sau này. Nguy hiểm hơn chúng có thể dẫn dụ nạn nhân cài các ứng dụng (App) game, giải trí hay đầu tư… để qua đó cài đặt các mã độc vào máy điện thoại nạn nhân nhằm khai thác các thông tin trong danh bạ, thư viện hình ảnh, email, tài khoản ngân hàng…

Sau đó, các đối tượng sẽ lợi dụng lúc nạn nhân có chuyện buồn, cô đơn hoặc khi say xỉn… để dẫn dụ nạn nhân “Chat XXX”. Khi video call chúng dùng AI để ghép mặt vào các clip nhằm làm nạn nhân lầm tưởng đang trao đổi với người thực. Sau đó, chúng dùng các ứng dụng quay chụp màn hình để làm tư liệu khống chế nạn nhân.

Cảnh báo tình trạng lợi dụng công nghệ AI để dẫn dụ
Các đối tượng xấu sử dụng công nghệ AI deepfake để tạo cuộc gọi video call để lừa đảo nạn nhân.

Vào tháng 5/2024, ông T, ngụ tại quận 10, TP Hồ Chí Minh đã lên trình báo vụ việc bị đối tượng chủ động làm quen qua mạng xã hội Facebook. Đối tượng sử dụng hình ảnh của một người mẫu khá nổi tiếng trên mạng.

Ông T. và đối tượng đã trao đổi nhiều lần qua video call nên có được sự tin tưởng của ông T. Sau thời gian làm quen, lợi dụng lúc ông T. say rượu, đối tượng đã dẫn dụ nạn nhân “chat sex”. Sau đó, đối tượng đã sử dụng clip và hình ảnh đó để liên tục đe dọa, khống chế nạn nhân phải chuyển tiền nhiều lần, nếu không sẽ chuyển clip đến người thân và mạng xã hội của ông T.

Do bị khống chế, lo sợ sẽ ảnh hưởng đến uy tín và danh dự bản thân, ông T. đã phải chuyển cho đối tượng hơn 450 triệu đồng. Sau khi nhận được tiền, đối tượng tiếp tục khống chế đòi hỏi thêm nên ông T. đã trình báo Cơ quan Công an.

Đáng lưu ý là nạn nhân bị tống tiền đa dạng không chỉ nam, nữ mà cả các giới LGBT cũng có thể bị lừa đảo, tống tiền bằng các thủ đoạn trên. Một số nạn nhân do lo sợ bị tiết lộ ảnh hưởng đến uy tín danh dự đã chấp nhận trả tiền nhưng cuối cùng vẫn bị tung thông tin, hình ảnh lên mạng xã hội hoặc bị các đối tượng chiếm quyền điện thoại để chiếm đoạt hết tiền trong tài khoản ngân hàng cá nhân.

Phòng ANM&PCTPSDCNC Công an TP Hồ Chí Minh khuyến cáo người dân, nhất là nam giới, phụ nữ độc thân về hiện tượng lừa đảo làm quen trên mạng xã hội sử dụng công nghệ AI trên.

Khi kết bạn trên mạng, người dân cần chú ý các biện pháp sau: Nâng cao ý thức bảo vệ dữ liệu cá nhân: Không chia sẻ hình ảnh cá nhân quá nhiều. Tuyệt đối không quay hoặc chia sẻ hình ảnh, clip có nội dung nhạy cảm. Chú ý khi tham gia kết bạn, làm quen, hẹn hò trên mạng cần phải kiểm chứng ngoài thực tế. Khi trở thành nạn nhân, tuyệt đối không chuyển tiền mà cần trình báo ngay Cơ quan Công an nơi cư trú để được giúp đỡ.

Phú Lữ
.
.
.