Ngày pháp luật

Chỉ 0,1% vượt qua bài quiz phát hiện deepfake - Bạn có đủ tinh tường để thử sức?

Hải Anh

Một nghiên cứu mới đây của công ty iProov cho thấy khả năng nhận diện hình ảnh, video thật và nội dung do AI tạo ra của người dùng đang ở mức rất thấp. Chỉ 0,1% trong số 2.000 người tham gia có thể xác định chính xác tất cả nội dung deepfake. Kết quả này đặt ra nhiều lo ngại về nguy cơ deepfake bị lợi dụng cho mục đích lừa đảo, thao túng thông tin.

Nhiều người vẫn còn chủ quan về khả năng phát hiện deepfake, trong khi nhóm lớn tuổi lại thiếu nhận thức về công nghệ này. Đáng chú ý, video deepfake khó bị phát hiện hơn hình ảnh với tỷ lệ nhận diện chính xác chỉ 36%.

Các chuyên gia cảnh báo, deepfake ngày càng tinh vi và có thể gây ra hậu quả nghiêm trọng trong lĩnh vực tài chính, an ninh mạng và truyền thông.

Deepfake ngày càng khó phát hiện

Công ty iProov chuyên xác thực sinh trắc học có trụ sở tại Anh đã thực hiện một bài kiểm tra miễn phí để đánh giá khả năng nhận diện nội dung deepfake. Kết quả cho thấy chỉ 0,1% số người tham gia có thể phát hiện đúng tất cả hình ảnh và video deepfake. Điều này phản ánh mức độ tinh vi ngày càng cao của công nghệ này.

Nghiên cứu cũng cho thấy, nhận thức về deepfake chưa phổ biến, khi 22% số người tham gia chưa từng nghe về khái niệm này. Đặc biệt, 60% số người tham gia dù không phát hiện đúng nhưng vẫn tự tin vào khả năng nhận diện của mình, nhất là ở nhóm tuổi từ 18 đến 34.

Trong khi đó, nhóm lớn tuổi lại tỏ ra thiếu hiểu biết về deepfake. Có đến 30% số người từ 55 đến 64 tuổi và 39% số người trên 65 tuổi chưa từng nghe đến công nghệ này. Ngoài ra, nghiên cứu cũng chỉ ra, video deepfake khó bị phát hiện hơn hình ảnh, với tỷ lệ nhận diện chính xác thấp hơn 36%.

Giao diện bài kiểm tra phát hiện deepfake
Giao diện bài kiểm tra phát hiện deepfake

Người dùng thụ động khi gặp nội dung nghi ngờ

Bên cạnh việc khó nhận diện deepfake, nghiên cứu của iProov còn chỉ ra sự thụ động của người dùng khi gặp nội dung nghi ngờ. Cụ thể, chỉ 25% số người tham gia tìm kiếm nguồn thông tin thay thế khi nghi ngờ về tính xác thực của một hình ảnh hoặc video. Trong khi đó, chỉ 11% số người có thói quen kiểm tra kỹ nguồn gốc nội dung trước khi tin tưởng.

Đáng lo ngại, có tới 29% số người tham gia không có bất kỳ hành động nào khi phát hiện nội dung đáng ngờ. 48% không biết cách báo cáo nội dung deepfake, trong khi 25% người tham gia cho rằng, việc phát hiện deepfake không quan trọng.

Ông Andrew Bud, CEO của iProov, cảnh báo rằng deepfake có thể bị lợi dụng để đánh cắp thông tin cá nhân, giả mạo danh tính, lừa đảo tài chính và thao túng dư luận. “Tội phạm mạng đang lợi dụng khả năng phân biệt kém giữa hình ảnh thật và giả để tấn công vào các lĩnh vực quan trọng như tài chính, an ninh và truyền thông”, ông Bud nhấn mạnh.

Ví dụ của một bài test phát hiện deepfake 
Ví dụ của một bài test phát hiện deepfake 

Cần nâng cao nhận thức và kiểm soát deepfake chặt chẽ hơn

Với sự phát triển mạnh mẽ của trí tuệ nhân tạo, deepfake ngày càng trở nên phổ biến và khó kiểm soát hơn. Các chuyên gia cho rằng, cần có những biện pháp hiệu quả hơn để báo cáo nội dung deepfake, cũng như nâng cao nhận thức của người dùng về công nghệ này.

Việc đào tạo kỹ năng nhận diện deepfake kết hợp với các giải pháp xác thực danh tính và kiểm chứng thông tin là điều cần thiết để hạn chế nguy cơ deepfake gây ảnh hưởng tiêu cực đến xã hội. Các nền tảng mạng xã hội, cơ quan báo chí và tổ chức công nghệ cũng cần tăng cường công cụ phát hiện và cảnh báo nội dung do AI tạo ra, giúp người dùng có thể tiếp cận thông tin chính xác, đáng tin cậy hơn.

Tin Cùng Chuyên Mục