Các nhóm lừa đảo đang áp dụng nhiều phương thức tinh vi thông qua deepfake của người nổi tiếng để lấy hàng triệu USD từ nạn nhân.
Người phụ nữ bị lừa 51.000 USD vì "Elon Musk giả", hay hiệu trưởng suýt mất việc vì bị nhái giọng nói, cho thấy bất kỳ ai cũng có thể là nạn nhân của deepfake.
Cựu tổng thống Mỹ Donald Trump bị sử dụng hình ảnh nhiều nhất để tạo deepfake bằng Midjourney, trong khi Elon Musk xếp thứ ba.
Một phụ nữ Hàn Quốc bị lừa gần 51.000 USD sau khi kẻ xấu dùng deepfake mạo danh Elon Musk để làm quen và kêu gọi cô chuyển khoản.
Nhiều TikToker sử dụng AI tạo deepfake Taylor Swift và người nổi tiếng để chia sẻ video về kiến thức, nhưng việc này cũng gây tranh cãi.
MỹHai nam sinh 13 và 14 tuổi bị cảnh sát bắt và đối diện án hình sự khi tạo ảnh khỏa thân bạn cùng lớp bằng một ứng dụng AI.
Vụ deepfake mạo danh lừa 25 triệu USD cho thấy AI đang bị lợi dụng cho mục đích xấu, nhưng thế giới chưa có biện pháp đề phòng hiệu quả.
Nhân viên một công ty đa quốc gia ở Hong Kong đã chuyển 200 triệu HKD sau khi nhận cuộc gọi video từ "giám đốc tài chính".
Hong KongNhững kẻ lừa đảo sử dụng công nghệ deepfake, giả làm giám đốc gọi video cho nhân viên tài chính yêu cầu chuyển 25 triệu USD cho mình.
Sự tràn lan ảnh khiêu dâm giả mạo Taylor Swift xuất phát từ một thử thách tạo câu lệnh có khả năng vượt qua các bộ lọc của công cụ AI tạo sinh.
Cuộc gọi sử dụng công nghệ làm giả giọng nói mạo danh Tổng thống Biden khiến giới chức Mỹ lo ngại mùa bầu cử rối loạn vì deepfake.
Taylor Swift không phải nạn nhân đầu tiên của deepfake khiêu dâm và tình trạng này sẽ ngày càng tồi tệ hơn khi công nghệ AI phát triển.
ElevenLabs đã khóa tài khoản người dùng sau khi phát hiện công nghệ của họ bị lợi dụng để mạo danh Joe Biden trong cuộc bầu cử sơ bộ ở New Hampshire.
Người dùng mạng xã hội X không thể tìm kiếm với từ khóa Taylor Swift sau khi loạt ảnh khiêu dâm giả mạo nữ ca sĩ bị lan truyền.
Người hâm mộ Taylor Swift đang giận dữ với nền tảng X khi để hình ảnh giả bằng AI của cô lan truyền khắp mạng xã hội.
Số lượng ứng dụng AI tạo ảnh khỏa thân hoặc "cởi đồ" phụ nữ tăng đột biến khiến nhiều chuyên gia lo ngại tác động tiêu cực của công nghệ.
Sau khi xử lý bằng deepfake, hình ảnh và giọng nói của nhiều MC nổi tiếng bị biến thành công cụ lan truyền tin giả trên TikTok và YouTube.
Cục An toàn thông tin cho biết các ứng dụng tạo ảnh AI thu thập dữ liệu khuôn mặt, có thể bị lợi dụng để tạo deepfake, đánh cắp tài khoản.
Yilong Ma, người nổi tiếng vì có ngoại hình giống Elon Musk, đăng video đấm bốc và thu hút bình luận từ chính tỷ phú Mỹ.
AI Disco có thể biến một bức ảnh tĩnh thành video sống động với những điệu nhảy xu hướng trên TikTok.