Vì gia đình giấu thông tin về cái chết của con trai một cụ bà 91 tuổi, nên người cháu đã sử dụng công nghệ AI deepfake để an ủi khi người phụ nữ đang ốm yếu.
Hóa ra những video tưởng chừng vô thưởng vô phạt do AI (trí tuệ nhân tạo) tạo ra lại đang giúp số ít người Trung Quốc kiếm bộn tiền.
Các cuộc tấn công mạng nhắm vào điện thoại thông minh (smartphone) của người dùng cá nhân đang trở thành một trong những xu hướng chủ đạo của năm 2024.
Nguy cơ mới sinh ra nhu cầu được lắng nghe của những cá nhân cô đơn.
Sau khi những hình ảnh khiêu dâm giả mạo do AI tạo ra về Taylor Swift lan truyền, mạng xã hội X đã chặn người dùng tìm kiếm từ khóa này.
Thông qua thư ký báo chí, Nhà Trắng kêu gọi Quốc hội Mỹ có hành động ngăn chặn nạn deepfake sau khi Taylor Swift bị tung ảnh khiêu dâm được tạo bởi AI.
Người dùng nên thực hiện các bước đơn giản dưới đây để tránh trở thành nạn nhân tiếp theo của phương thức lừa đảo deepfake trên không gian mạng.
Một cụ bà ở Hà Nội vừa bị đối tượng giả danh Công an gọi điện đe dọa nhằm lừa đảo 2 cuốn sổ tiết kiệm khoảng 300 triệu đồng. Tuy nhiên, khi đang trò chuyện bằng công nghệ “deepfake” thì bất ngờ gặp ngay… Công an thật.
Một kẻ lừa đảo đã trả cho Facebook hơn 5.000 USD để video deepfake tiếp cận 100.000 người tại Australia. Video giả mạo chương trình phỏng vấn và kêu gọi mọi người đầu tư thu lợi nhuận khủng.
Gọi video deepfake với hình ảnh và khuôn mặt giả mạo là một trong những thủ đoạn tinh vi của tội phạm công nghệ cao. Hình thức này khiến nhiều người trở thành nạn nhân, bị lừa đảo, chiếm đoạt tài sản, thông tin...
Trí tuệ nhân tạo (AI) và deepfake đang dần bị tội phạm mạng khai thác vào các mục đích xấu, trở thành công cụ lừa đảo, thậm chí làm nhục người khác.
Thế giới đang hưởng lợi lớn từ sự phát triển của trí tuệ nhân tạo (AI). Thế nhưng, nếu không được sử dụng đúng cách, AI sẽ mang tới những mối nguy ảnh hưởng trực tiếp tất cả mọi người.
Không chỉ lừa đảo chuyển tiền, tội phạm mạng còn sử dụng Deepfake để lồng ghép hình ảnh nạn nhân vào video khiêu dâm, thậm chí lan truyền tin giả gây bất ổn xã hội.
Bộ Công an cho biết, thời gian gần đây, một số đối tượng lợi dụng công nghệ "Deepfake" để thực hiện các cuộc gọi video với hình ảnh, khuôn mặt giả mạo để lừa đảo "nạn nhân" nhằm thực hiện các hành vi vi phạm pháp luật.
Mới đây, một người phụ nữ ở Thanh Hóa đã bị lừa 350 triệu đồng sau khi tham gia một cuộc gọi video với nhóm gia đình.
Cục Điều tra Liên bang Mỹ (FBI) cho biết họ nhận được khiếu nại ngày càng nhiều về việc tội phạm sử dụng các công cụ deepfake để tạo ra các video và ảnh khiêu dâm giả mạo nhằm tống tiền.
Cuộc chạy đua Tổng thống Mỹ 2024 sẽ vô cùng khốc liệt khi xuất hiện một yếu tố mới: sự bùng nổ của công nghệ trí tuệ nhân tạo (AI).
Công nghệ Deepfake, sử dụng AI để tạo ra hình ảnh giả mạo, đang được những kẻ lừa đảo trực tuyến dùng vào mục đích lừa nạn nhân chuyển tiền.
“Dấu hiệu nhận diện cuộc gọi lừa đảo deepfake là khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán, màu da bất thường, kẻ gian thường ngắt giữa chừng rồi báo mất sóng, sóng yếu”.
Nhà chức trách Trung Quốc siết quản lý việc sử dụng công nghệ giả mạo giọng nói, gương mặt nhằm ngăn chặn các tin đồn thất thiệt và tin xuyên tạc trên mạng.