Deepfake
Tạo ảnh hoạt hình và các trào lưu trên mạng tiềm ẩn rủi ro nguy hiểm
KHÁNH AN |
Nhiều trào lưu trên mạng như tạo ảnh hoạt hình, khuôn mặt khi về già... tưởng như chỉ mang tính giải trí, song lại vô tình khiến người dùng tiềm ẩn các rủi ro rơi vào vòng nguy hiểm.
5 dấu hiệu cần cảnh giác với lừa đảo khi nhận cuộc gọi video
Quang Việt |
Tội phạm công nghệ cao sử dụng thủ đoạn gọi video deepfake với hình ảnh và khuôn mặt giả mạo khiến nhiều người trở thành nạn nhân, bị lừa đảo, chiếm đoạt tài sản, thông tin...
Lừa đảo trên không gian mạng bủa vây người dân, cảnh giác thôi chưa đủ
Hoàng Văn Minh |
Lừa đảo với hàng chục hình thức, chiêu trò cũ - mới trên mạng đã và đang bủa vây người dân với số vụ, nạn nhân năm sau cao hơn năm trước.
Công nghệ trí tuệ nhân tạo đối mặt sự cứng rắn của chính phủ Australia
Anh Vũ |
Australia cho rằng, công nghệ trí tuệ nhân tạo (AI) cần phải được kiểm soát bằng những điều luật cứng rắn.
Deepfake là nỗi lo lớn nhất trong sự phát triển của trí tuệ nhân tạo
Anh Vũ |
Giám đốc Microsoft cho biết deepfake là công nghệ mang rủi ro lớn nhất của ngành trí tuệ nhân tạo (AI).
Deepfake trở thành mối đe dọa tạo tin giả, lừa đảo trực tuyến
Anh Vũ - Hữu Chánh |
Deepfake có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.
Cảnh báo lừa đảo Deepfake, xác nhận khuôn mặt, mở tài khoản ngân hàng
ANH TÚ |
Ngày 17.4, Công an TP Hồ Chí Minh đã đưa ra cảnh báo thủ đoạn lừa đảo, chiếm đoạt tài sản trên không gian mạng bằng cách sử dụng Deepfake để giả dạng hình ảnh và giọng nói, gọi video call với nạn nhân. Sau đó, đối tượng yêu cầu nạn nhân nhìn thẳng, nghiêng, để mở tài khoản ngân hàng đi lừa đảo.
Mối nguy hại từ DeepFake: Hé lộ cách thức lừa đảo tinh vi
Hải Danh - Linh Trang |
Với các thủ đoạn mới hết sức tinh vi, các đối tượng đã sử dụng Deepfake để giả mạo gương mặt, giọng nói nhằm lừa đảo và chiếm đoạt tài sản từ các nạn nhân.
Lừa đảo bằng Deepfake: Giả mạo từ gương mặt đến giọng nói
Hải Danh - Linh trang |
Thời gian gần đây, xuất hiện nhiều vụ việc lừa đảo bằng ứng dụng Deepfake với số tiền lên đến hàng trăm triệu đồng. Kẻ xấu có thể thực hiện cuộc gọi thoại, thậm chí cả video với giọng nói, hình ảnh giả mạo khiến người nhận rất khó phân biệt thật giả. Thực trạng này dấy lên hồi chuông cảnh báo đối với toàn xã hội trước nguy cơ trở thành nạn nhân của công nghệ mới này.
Lừa đảo chiếm đoạt tài sản qua mạng xã hội bằng công nghệ Deepfake
DIỆU ANH |
Ninh Bình - Phòng An ninh mạng và Phòng chống tội phạm công nghệ cao, Công an tỉnh Ninh Bình vừa phát đi thông báo, đề nghị người dân cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo chiếm đoạt tài sản.
Làm giả cuộc gọi video để chiếm đoạt tài sản bằng công nghệ Deepfake
KHÁNH AN |
Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.
ChatGPT đang lan rộng: Thời điểm để đánh giá rủi ro
Anh Vũ |
Là một sản phẩm khiến những người tạo ra nó từng phải tuyên bố là “quá nguy hiểm” để phát hành ra công chúng trong một chiến dịch quảng cáo, ChatGPT của OpenAI dường như có mặt ở khắp mọi nơi trong thế giới ngày nay.