Mối nguy khi Deepfake bùng nổ

Khánh An |

Công nghệ Deepfake ngày càng phổ biến, gây ra những tác hại khôn lường đến đời sống xã hội. Đặc biệt trong thời gian gần đây, nhiều đối tượng lợi dụng công nghệ này nhằm lừa đảo chiếm đoạt tài sản.

Mất tiền vì hình ảnh do AI tạo ra

Nhận được cuộc gọi video của chị gái qua ứng dụng Messenger nhờ chuyển tiền, chị D.T.Y (trú tại TP Thanh Hóa) đã lập tức chuyển gần 350 triệu đồng. Sau đó, chị mới hay biết người xuất hiện trong video không phải chị gái mình, mà do công nghệ Deepfake tạo ra.

Chị Y cho biết, có chị gái tên là Minh hiện đang định cư tại Nhật Bản và thường xuyên sử dụng tài khoản mạng xã hội Facebook để liên lạc với gia đình. Đầu tháng 6.2023, chị Minh bị kẻ gian chiếm quyền sử dụng tài khoản Facebook rồi gọi điện qua ứng dụng Messenger nhờ chuyển tiền.

Để tạo sự tin tưởng, đối tượng đã dùng công nghệ Deepfake giả mạo khuôn mặt và gọi cho nhóm chat của gia đình bằng cuộc gọi video khoảng mười giây rồi kết thúc. Đối tượng sau đó đã nhắn tin nhờ chị Y chuyển số tiền gần 350 triệu đồng để xử lý công việc rồi chiếm đoạt.

Thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp. Nắm bắt tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác cao. Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.

Không chỉ tạo ra những cuộc gọi giả mạo bằng Deepfake, các đối tượng hiện còn sử dụng công nghệ AI tạo MC với khuôn mặt và giọng nói giống người dẫn chương trình từ các hãng thông tấn lớn, sau đó xây dựng kịch bản giật gân, sai sự thật, nhằm câu kéo tương tác từ cộng đồng mạng. Thậm chí, nhiều video còn đóng logo của kênh tin tức, khiến người xem lầm tưởng là các tin đã xác thực hoặc độc quyền.

Tỉnh táo trước Deepfake

Theo anh Nguyễn Hưng - Đồng sáng lập Dự án phi lợi nhuận Chống lừa đảo - Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến.

Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm.

Theo anh Hưng, những cuộc gọi Deepfake thường rất ngắn, chỉ diễn ra trong vòng vài giây. Vì những hình ảnh do AI làm ra, nên khi nhìn vào sẽ thấy những khuôn mặt thiếu tính cảm xúc, không tự nhiên, hướng đầu và cơ thể trong video không nhất quán với nhau... Thêm vào đó, tư thế của người trong video cũng rất lúng túng.

Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video Deepfake, bởi âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

“Thông thường các cuộc gọi Deepfake sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Sau đó, đối tượng sẽ yêu cầu chuyển tiền và tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Vì vậy, các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để người dân nghi ngờ người gọi cũng như tính xác thực của cuộc gọi” - anh Hưng phân tích.

Để tránh rơi vào bẫy lừa đảo Deepfake, theo anh Hưng, khi nhận được cuộc gọi yêu cầu chuyển tiền gấp, trước tiên cần phải bình tĩnh và xác minh thông tin. Cụ thể, cần liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không.

Tiếp đó, cần kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, người dân không nên tiến hành giao dịch. Nếu nhận được cuộc gọi từ người tự xưng là đại diện cho ngân hàng, anh Hưng khuyên người dân hãy gác máy và gọi trực tiếp cho tổng đài của ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

Khánh An
TIN LIÊN QUAN

Thêm nhiều người dân bị Công an "rởm" lừa đảo bằng Deepfake

Vân Trường |

Bắc Giang - Dù đã có nhiều cảnh báo về thủ đoạn giả danh công an để lừa đảo chiếm đoạt tài sản, nhưng vẫn có không ít người sập bẫy của các đối tượng.

Lừa đảo chiếm đoạt tài sản qua mạng xã hội bằng công nghệ Deepfake

DIỆU ANH |

Ninh Bình - Phòng An ninh mạng và Phòng chống tội phạm công nghệ cao, Công an tỉnh Ninh Bình vừa phát đi thông báo, đề nghị người dân cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo chiếm đoạt tài sản.

Làm giả cuộc gọi video để chiếm đoạt tài sản bằng công nghệ Deepfake

KHÁNH AN |

Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Messi lần thứ 8 giành Quả bóng vàng

TAM NGUYÊN |

Lionel Messi có lần thứ 8 được France Football vinh danh ở hạng mục Quả bóng vàng.

Mong Báo Lao Động tiếp tục đồng hành cùng kế toán trường học

HƯƠNG NHA - BẢO HÂN |

Khi danh mục hợp đồng lao động theo Nghị định 68 không có kế toán, nhiều nhân viên kế toán trường học tại huyện Phúc Thọ, TP Hà Nội rất có thể về làm nhân viên bảo vệ hoặc phục vụ. Phòng Nội vụ, UBND huyện Phúc Thọ bày tỏ mong mỏi Báo Lao Động tiếp tục phản ánh, đồng hành với đội ngũ nhân viên trường học để họ được hưởng quyền lợi xứng đáng của mình.

Hàng chục người dân ở Thái Bình lâm vào nợ nần khi cho người quen vay tiền

LƯƠNG HÀ |

Thế chấp toàn bộ tài sản, nhà cửa; dồn hết tiền tiết kiệm… để cho một người phụ nữ quen biết vay nhưng đến nay, hàng chục người dân ở thị trấn Diêm Điền (huyện Thái Thụy) lâm vào tình cảnh nợ nần, có người còn rao bán nhà để lấy tiền chạy chữa bệnh.

Vẫn rầm rộ tổ chức đánh bạc qua ví điện tử MoMo

Trần Tuấn |

Mặc dù nhiều đường dây đánh bạc qua ví điện tử MoMo đã bị lực lượng Công an triệt phá nhưng theo ghi nhận của phóng viên Lao Động, những nhà cái mới vẫn liên tục xuất hiện.

Người lao động bức xúc vì bị nợ lương thời gian dài

Quế Chi |

Sau khi Báo Lao Động đăng tải bài viết phản ánh Công ty Cổ phần Cơ khí lắp máy Sông Đà nợ lương người lao động, thêm người lao động tiếp tục phản ánh bị công ty nợ lương kéo dài, ảnh hưởng rất lớn đến cuộc sống của họ.

Thêm nhiều người dân bị Công an "rởm" lừa đảo bằng Deepfake

Vân Trường |

Bắc Giang - Dù đã có nhiều cảnh báo về thủ đoạn giả danh công an để lừa đảo chiếm đoạt tài sản, nhưng vẫn có không ít người sập bẫy của các đối tượng.

Lừa đảo chiếm đoạt tài sản qua mạng xã hội bằng công nghệ Deepfake

DIỆU ANH |

Ninh Bình - Phòng An ninh mạng và Phòng chống tội phạm công nghệ cao, Công an tỉnh Ninh Bình vừa phát đi thông báo, đề nghị người dân cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo chiếm đoạt tài sản.

Làm giả cuộc gọi video để chiếm đoạt tài sản bằng công nghệ Deepfake

KHÁNH AN |

Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.