Tạo video, hình ảnh giả mạo để tống tiền
Ông Lê Quý (tên nhân vật đã được thay đổi) - trú quận Hà Đông, Hà Nội - cho biết, đầu tháng 8.2024, ông nhận được cuộc gọi từ người lạ tự xưng là thám tử tư. Người này cho biết, đang giữ nhiều hình ảnh ông Quý có quan hệ bất chính với những người phụ nữ khác. Đối tượng gửi cho ông Quý các hình ảnh nhạy cảm đã được chỉnh sửa, cắt ghép với khuôn mặt của ông Quý.
“Chúng cắt ghép khuôn mặt của tôi từ một hình ảnh mà tôi đã đăng tải lên mạng xã hội. Trong ảnh gốc, tôi đang đứng tại một địa điểm du lịch, nhưng chúng lại ghép vào một bối cảnh nhạy cảm” - ông Quý kể.
Sau đó, đối tượng yêu cầu ông Quý phải chuyển một khoản tiền điện tử với giá trị tương đương hàng tỉ đồng vào ví điện tử để không bị đăng lên mạng xã hội. Khi ông Quý không đồng ý, chúng lập tức phát tán các hình ảnh nhạy cảm trên mạng xã hội.
Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) gần đây cũng đã ghi nhận phản ánh của người dùng về việc bị các đối tượng sử dụng công nghệ Deepfake để thực hiện hành vi cắt ghép, phát tán các hình ảnh nhạy cảm trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân.
VAFC xác nhận đây là một hình thức lừa đảo sử dụng công nghệ Deepfake - công nghệ trí tuệ nhân tạo (AI) có khả năng tạo ra những video hoặc hình ảnh giả mạo vô cùng chân thực - để thực hiện hành vi phạm tội.
Thủ đoạn của các nhóm lừa đảo này là sử dụng hình ảnh, thông tin cá nhân của nạn nhân được chia sẻ trên mạng (chủ yếu là nam giới có địa vị xã hội), các đối tượng dùng kỹ thuật cắt ghép vào các video clip nhạy cảm và nhắn tin, gọi điện đe dọa với mục đích tống tiền. Khi nạn nhân bị "sập bẫy", các đối tượng sẽ hướng dẫn mua tiền điện tử, chuyển đến các tài khoản ví điện tử theo chỉ định để chiếm đoạt.
Nguy cơ từ những hình ảnh đăng tải công khai
Trao đổi với Lao Động, ông Tạ Công Sơn - Kỹ sư AI, nhà sáng lập OverBloom AI cho biết, công nghệ tạo ảnh khỏa thân bằng AI dựa trên bức ảnh gốc chứa khuôn mặt của nạn nhân. Các đối tượng tạo ảnh bằng cách phân đoạn khuôn mặt, sau đó sử dụng công nghệ AI để cắt ghép (bằng các phương pháp như GAN, Stable Diffusion).
“Những người để lộ lọt ảnh chân dung, thông tin cá nhân liên quan đến hình ảnh (CMND, giấy phép, hộ chiếu...) lên mạng xã hội là những người có nguy cơ cao bị tống tiền thông qua hình thức này” - ông Sơn nhận định.
Theo ông Sơn, không khó để nhận diện 1 bức ảnh do AI tạo ra. Khuôn mặt của nạn nhân trong những bức ảnh này thường có đôi mắt nhìn lệch hướng, kích thước không đều, hoặc khuôn mặt không đối xứng. Đường viền tóc, đặc biệt ở những vùng gần tai hoặc trên trán, có thể xuất hiện không tự nhiên, như bị nhòe hoặc không đều.
Làn da trong những bức ảnh này mịn màng quá mức, không có nếp nhăn, lỗ chân lông, hoặc có thể tạo ra những vùng da bị pha trộn không hợp lý. Các vật thể trong ảnh có thể bị biến dạng hoặc không phù hợp với tiền cảnh, hoặc không khớp với người ở trong bức ảnh.
Để phòng tránh trường hợp bị lợi dụng hình ảnh cho mục đích xấu, theo ông Sơn, trên các nền tảng mạng xã hội, người dân cần kiểm tra và điều chỉnh cài đặt quyền riêng tư để hạn chế ai có thể xem và truy cập ảnh cá nhân. Hạn chế việc chia sẻ ảnh công khai với người lạ. Không đăng tải hoặc chia sẻ những bức ảnh có thể bị lạm dụng, như ảnh nhạy cảm, ảnh gợi cảm, hoặc ảnh riêng tư.
Không nên chia sẻ quá nhiều thông tin cá nhân trên mạng, bao gồm ảnh, địa chỉ, số điện thoại, hoặc các thông tin nhạy cảm khác. Cẩn trọng khi kết bạn và chia sẻ thông tin với người lạ.
Theo VAFC, khi bị tống tiền bằng những bức ảnh nhạy cảm do AI tạo ra, người dân cần giữ lại tất cả bằng chứng liên quan (tin nhắn, email, hình ảnh, video...). Tuyệt đối không chuyển tiền cho kẻ tống tiền và cần liên hệ ngay với cơ quan công an gần nhất để được hỗ trợ.