Công nghệ

Video khiêu dâm giả mạo từ ảnh Facebook - mặt trái của AI

Các video ghép mặt người này lên cơ thể người kia, tạo ra bởi trí thông minh nhân tạo, đang được dùng để quấy rối nhiều phụ nữ.

Một phụ nữ 40 tuổi chia sẻ việc cô tìm thấy một video với gương mặt mình bị ghép vào cơ thể một nữ diễn viên khiêu dâm trẻ. Các hình ảnh cắt ghép một cách liền mạch, tạo ra cảm giác chân thật tới mức cô cảm thấy buồn nôn và đau đớn khi xem. Người này lo lắng đồng nghiệp, gia đình hoặc bạn bè trông thấy và sẽ thay đổi cách nhìn về mình, bởi khó thuyết phục họ tin nó không có thật. Qua điều tra, video được tạo ra từ 491 hình ảnh lấy trên trang Facebook cá nhân của cô, với thời gian sản xuất chỉ khoảng 2 ngày.

"Tôi cảm thấy như bị xâm phạm, theo một cách kỳ quặc", cô nói. "Cảm giác giống như bạn muốn xé mọi thứ ra khỏi Internet. Nhưng lại biết điều đó không thể thực hiện".

Các công cụ như Photoshop có khả năng tạo ảnh giả. Còn video vẫn được coi là bằng chứng cho tính xác thực, bởi nội dung khó bóp méo hơn. Tuy nhiên, hiện video cũng trở nên dễ bị tác động bằng những công cụ mới, tích hợp và tăng cường sức mạnh nhờ phần mềm trí tuệ nhân tạo, gọi chung là Deepfake. Video giả nhưng giống như thật đang nhanh chóng lan truyền trên Internet và làm mờ đi ranh giới giữa sự thật và dối trá.

Chúng đôi khi được sử dụng để trở thành phương tiện làm mất uy tin, sỉ nhục, quấy rối hoặc lạm dụng người khác. Với không ít đàn ông, việc bị chèn vào trong video giả mạo có thể xem như một trò đùa. Nhưng khi nhắm tới phụ nữ, những video đó chủ yếu mang tính khiêu dâm.

Nữ diễn viên Scarlett Johansson bày tỏ sự lo lắng khi công nghệ giả mạo khuôn mặt trên video đang đe dọa cả người nổi tiếng lẫn phụ nữ bình thường. Cô nói đó "chỉ là vấn đề thời gian" trước khi bất kỳ ai bị cũng trở thành nạn nhân và đã quá muộn để phụ nữ và trẻ em tự bảo vệ mình trước mặt trái, gần như vô luật pháp, của thế giới mạng.

Video khiêu dâm giả mạo từ ảnh Facebook - mặt trái của AI
Scarlett Johansson từng xuất hiện trên nhiều video khiêu dâm giả mạo. Ảnh: AP

Gương mặt của Johansson bị xử lý để xuất hiện trong hàng chục cảnh khiêu dâm, tạo ra bởi AI, lan truyền trên mạng Internet trong năm qua. Một trong số đó, gắn mác "cảnh quay bị rò rỉ" trên trang web khiêu dâm lớn, đã thu hút hơn 1,5 triệu lượt xem.

"Không gì có thể ngăn ai đó cắt và dán hình ảnh của tôi, hoặc bất kỳ ai, lên một cơ thể khác và khiến nó trông như thật", cô nói. "Thực tế, việc cố gắng bảo vệ bản thân khỏi Internet và sự đồi trụy về cơ bản không khả thi. Internet như một vực sâu không đáy, đang tự nuốt chửng bởi bóng tối từ chính nó".

Tháng 9/2018, Google đã thêm "hình ảnh khiêu dâm tổng hợp không tự nguyện" vào danh sách cấm, cho phép người dùng yêu cầu chặn kết quả tìm kiếm nếu hệ thống đưa ra mô tả sai lệch về nội dung khỏa thân hay các tình huống liên quan tới tình dục.

Tuy nhiên, chính sách đó không thay đổi vấn đề. Trên các diễn đàn thảo luận về AI hay học máy, một người dùng ẩn danh có thể dễ dàng thuê một người khác làm video giả với nhân vật chính là đồng nghiệp hay bạn bè chỉ với 20 USD.

Video khiêu dâm giả mạo từ ảnh Facebook - mặt trái của AI - 1
Gal Gadot cũng là nạn nhân của Deepfake.

Năm ngoái, một người dùng trên diễn đàn Reddit đã sử dụng phần mềm để tạo và xuất bản các video khiêu dâm với gương mặt của nữ diễn viên Gal Gadot, gây xôn xao và càng khiến trào lưu này được mở rộng.

Ban đầu, các video có nhiều nhược điểm về chất lượng hình ảnh và dễ nhận ra. Nhưng càng ngày công nghệ xử lý càng được cải thiện, dần tiến tới xóa bỏ ranh giới thật giả. Thậm chí, nhiều người còn tạo ra các bản hướng dẫn để những người mới cũng có thể dễ dàng sáng tạo video giả.

Một số còn phát triển phần mềm tự động trích xuất khuôn mặt phụ nữ từ video và hình ảnh trên mạng xã hội làm tư liệu. Có người thử tìm cách tạo phần mềm nhân bản giọng nói để sản xuất video âm thanh có độ chân thực cao hơn. Trong một video thể hiện kỹ năng, một người ẩn danh chỉ mất 4 phút để trích xuất hàng nghìn hình ảnh khuôn mặt của một nữ blogger trẻ người Đức, từ một video hướng dẫn làm tóc cô quay năm 2014.

Một số trang như Reddit đã cấm các video giả, nhưng vẫn còn nhiều lựa chọn khác để thay thế. Admin một trang về Deepfake cho biết website 10 tháng tuổi của anh thu hút hơn 20.000 lượt xem mỗi ngày và đang dựa vào quảng cáo để kiếm tiền. 

"Với khả năng sản xuất nội dung khiêu dâm, mọi người đều trở thành mục tiêu tiềm năng", Adam Dodge, giám đốc pháp lý của Laura's House, một tổ chức hỗ trợ nạn nhân bạo lực gia đình ở California (Mỹ) cho biết.

"Với nhiều người, điều này có thể làm tổn hại đến triển vọng công việc, mối quan hệ, danh tiếng và sức khỏe tinh thần. Các phần mềm được sử dụng như một vũ khí để làm phụ nữ phải im lặng, hạ nhục và biến họ thành mục tiêu tình dục. Đây không phải trò chơi, nó có thể phá hủy cuộc sống một con người", nhà phê bình Anita Sarkeesian nói. Cô từng là một nạn nhân của tấn công trực tuyến, khi gương mặt bị ghép vào một video khiêu dâm có hơn 30.000 lượt xem trên một trang web dành cho người lớn.

Trên thực tế, các nạn nhân của Deepfake có rất ít công cụ chống trả. Chuyên gia pháp lý cho biết không dễ điều tra, đặc biệt khi nội dung liên quan tới "vùng tối" trên Internet. Các luật sư cho biết có thể sử dụng luật về quấy rối hoặc phỉ báng, nhưng chỉ trong trường hợp có đủ thông tin về danh tính hoặc mục đích của người tạo ra video giả mạo.

Trong khi đó, đại diện Google và nhiều công ty công nghệ khác khẳng định vẫn thực hiện nghiêm túc trách nhiệm đạo đức của mình. 

Người phụ nữ 40 tuổi ở trên đã muốn áp dụng các biện pháp pháp lý. Tuy nhiên, nỗ lực của cô sau đó gần như vô vọng. Người tạo video giả mạo không trả lời tin nhắn, các bài đăng trên diễn đàn của thành viên này bị xóa. Cuối cùng, tài khoản anh ta biến mất không dấu vết.

Theo Bảo Nam (VnExpress.net)