Là một chuyên gia sử dụng các ứng dụng AI để phục chế video, anh Quang nhận thấy rằng công nghệ deepfake đang ngày càng tiến bộ trong việc giả mạo giọng nói và gương mặt.
Trước đây, để tạo ra một đoạn phim ngắn có độ dài 2-3 phút, anh mất vài ba ngày để hoàn thành. Nhưng hiện nay, chỉ cần có một bức ảnh và một video tương đương, chúng ta có thể dễ dàng tạo ra một đoạn video với một nhân vật hoặc một người nổi tiếng chỉ trong tích tắc.
Với chỉ một bức ảnh và một video đơn giản, máy tính đã có thể tạo ra một đoạn video chân thực và sống động. Điều này cho thấy sự tiến bộ vượt trội của công nghệ deepfake trong thời gian gần đây.
Part 2:
Tuy nhiên, sau khi giao dịch được thực hiện, người thư ký mới phát hiện ra rằng cô ta đã bị lừa đảo. Điều đáng nói là kẻ lừa đảo đã sử dụng công nghệ trí tuệ nhân tạo để làm giả giọng nói của Chủ tịch tập đoàn, tạo ra sự nhầm lẫn và lừa đảo thành công. Theo bà Marie-christine Kragh - đại diện của Công ty Bảo hiểm Euler Hermes, sự việc này chỉ ra rằng công nghệ trí tuệ nhân tạo hiện đang được sử dụng để gây hại và lừa đảo, đòi hỏi chúng ta phải cẩn trọng hơn trong việc sử dụng và áp dụng công nghệ này.
Tình trạng lừa đảo giả mạo khuôn mặt và giọng nói ngày càng trở nên phổ biến tại Việt Nam. Một người đàn ông tại Quận Hai Bà Trưng, Hà Nội đã bị mất 20 triệu đồng sau khi bị đối tượng lừa đảo giả dạng bạn mình yêu cầu chuyển tiền.
Anh Đặng Anh Quang cho biết, đối tượng đã sử dụng khuôn mặt và giọng nói giả của bạn mình để yêu cầu anh chuyển tiền. Điều đáng nói là, khi anh gọi video call với đối tượng, khuôn mặt trên màn hình khớp hoàn toàn với bạn của anh nhưng chỉ có cái miệng mấp máy. Anh đã nghĩ rằng đó chỉ là do mạng bị lag nên chỉ gọi được vài giây rồi thôi. Và rồi, anh đã chuyển tiền như yêu cầu của đối tượng.
Đây là một cảnh báo cho mọi người nên cẩn trọng khi sử dụng các dịch vụ trực tuyến và khuyến khích nên xác nhận thông tin trước khi thực hiện bất kỳ giao dịch nào. Ngoài ra, cần lưu ý không nên chia sẻ thông tin cá nhân và tài khoản ngân hàng với bất kỳ ai trên mạng nếu không chắc chắn về tính xác thực của họ.
Theo Anh Vũ Ngọc Sơn - Giám đốc kỹ thuật của Công ty Công nghệ An ninh mạng Quốc gia Việt Nam, video clip được tạo ra từ deepfake sẽ không có chất lượng tốt, tương đối mờ và giọng nói không rõ ràng. Người sử dụng có thể nhận thấy những nhân vật trong clip thường ít quay mặt, đưa tay lên mặt hoặc chớp mắt. Các hành động này rất khó để deepfake làm giả 100% giống như người bình thường.
Một nguyên tắc của deepfake là thu thập dữ liệu từ hình ảnh và giọng nói của người dùng. Tuy nhiên, Châu Âu và Trung Quốc hiện đang áp dụng các giải pháp siết chặt deepfake, trong đó có quy định nghiêm ngặt về việc cung cấp dữ liệu cá nhân. Tại Việt Nam, người dùng cũng cần lưu ý trong việc đăng tải hình ảnh và giọng nói của mình trên không gian mạng để tránh rủi ro từ deepfake.