Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Deepfake là công nghệ trí tuệ nhân tạo giả mạo hình ảnh và giọng nói, với mục đích lừa đảo và chiếm đoạt tài sản Thủ đoạn này đang là mối đe dọa đáng lo ngại cho người dùng internet vì tính tinh vi và ngày càng phổ biến

Deepfake là gì?

Deepfake là một thuật ngữ được đề cập nhiều trong thời gian gần đây trên các phương tiện truyền thông. Được tạo ra từ việc ghép hai chữ "deep" trong deep-learning (học sâu) và "fake" (lừa dối), deepfake là một phương pháp trí tuệ nhân tạo tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô. Điều đó có nghĩa là nó có khả năng học hỏi từ dữ liệu phi cấu trúc, chẳng hạn như khuôn mặt người, và thậm chí có thể thu thập dữ liệu về các chuyển động vật lý của con người. Điều này giúp cho deepfake có thể tạo ra những video và hình ảnh giả mạo rất giống với người thật, dẫn đến những vấn đề liên quan đến an ninh mạng và quyền riêng tư.

Dữ liệu hình ảnh sẽ được xử lý bằng GAN (Mạng lưới đối thủ sáng tạo) để tạo video deepfake. GAN là một loại hệ thống các máy học chuyên dụng, sử dụng hai mạng thần kinh để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin. Ví dụ, ảnh chụp khuôn mặt có thể được sử dụng để huấn luyện A.I và sau đó tạo dữ liệu mới có cùng đặc điểm ('ảnh' mới).

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Khả năng học hỏi của các A.I luôn được kiểm tra liên tục và so sánh với dữ liệu gốc để huấn luyện. Vì vậy, hình ảnh được A.I "làm giả" ngày càng trở nên thuyết phục hơn. Điều này khiến cho deepfake trở thành mối đe dọa lớn hơn bao giờ hết. Ngoài hình ảnh, A.I còn có thể giả mạo các dữ liệu khác, và một số công nghệ deepfake đã có thể sử dụng để giả giọng nói.

Liệu deepfake có thể được sử dụng để tung tin giả?

Deepfake là một phương pháp kỹ thuật khó để giải thích chi tiết. Tuy nhiên, nó có thể được đơn giản hóa bằng cách sử dụng khả năng học hỏi dữ liệu khuôn mặt, hình ảnh và giọng nói của con người. Với khả năng này, nó có thể gắn khuôn mặt của một người A lên cơ thể của người B và tạo ra một hình ảnh rất giống với thật. Điều này khiến cho việc phát hiện deepfake trở nên rất khó khăn.

Vào năm 2017, công ty khởi nghiệp A.I Lyrebird đã phát hành bản sao giọng nói của các nhân vật lãnh đạo Mỹ như ông Trump, ông Obama và bà Hilary Clinton. Từ đó, chất lượng của deepfake đã được cải thiện rất nhiều và ứng dụng Lyrebird cho phép công chúng sử dụng công khai.

Một ví dụ khác cho thấy sự nguy hiểm của deepfake là video được thực hiện bởi nam diễn viên Jordan Peele. Đội ngũ kỹ thuật viên đã sử dụng cảnh quay thực của ông Barack Obama kết hợp với kỹ thuật dựng video và deepfake để tạo ra một đoạn phát ngôn giả. Trong video này, ông Obama dùng những lời lẽ không tốt đẹp để chỉ trích ông Trump.

Sau đó, Jordan Peele, nam diễn viên, đã đăng tải hai nửa của video được hợp nhất để cảnh báo mọi người về những thủ đoạn tinh vi của deepfake trong tạo ra tin giả trên internet. Đội ngũ của Peele đã mất tới 60 tiếng để tạo ra video giả nhưng rất thực tế.

Không chỉ Obama, người sáng lập Facebook, Mark Zuckerberg, cũng đã bị deepfake làm giả từ một bài phát biểu đơn thuần. Video giả này cho thấy Zuckerberg thừa nhận Facebook đánh cắp dữ liệu người dùng và kiểm soát tương lai. Mặc dù giọng nói giả của Zuckerberg không giống hệt như ông, nhưng vẫn rất khó để phân biệt.

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Ảnh NBC News

Phần 5: Deepfake - Lừa đảo và tống tiền

Các video deepfake không chỉ được sử dụng để tung tin giả về chính trị hay trả thù cá nhân mà còn để lừa đảo và tống tiền. Nói cách khác, những kẻ xấu dùng công nghệ này để áp đặt và chiếm đoạt tài sản của người khác. Cho dù chất lượng của những video này có kém đi nữa thì vẫn có thể lừa dối được khá nhiều người. Chẳng hạn, bà Nancy Pelosi đã từng bị lừa đảo bởi một video giả với những phát biểu như một người say rượu. Video này đã nhanh chóng thu hút hàng triệu lượt xem trên mạng xã hội và buộc bà Pelosi phải lên tiếng đính chính ngay sau đó. Do đó, chúng ta cần cảnh giác và không nên tin tưởng hoàn toàn vào những gì mà chúng ta thấy trên mạng xã hội.

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Một CEO của công ty năng lượng đã bị lừa đảo số tiền lên tới 243.000 USD chỉ bằng giọng nói deepfake của người đứng đầu công ty với yêu cầu chuyển tiền khẩn cấp. Kẻ giả mạo đã rất tinh vi khi làm cho CEO không nghi ngờ gì và không suy nghĩ đến việc kiểm tra chéo. Tiền không được chuyển đến trụ sở chính của công ty mà đến một tài khoản ngân hàng bên thứ ba. Sau đó, CEO mới nghi ngờ khi "sếp" của anh ta yêu cầu thêm một đợt chuyển tiền khác. Tuy nhiên, đến lúc này thì đã quá muộn. Kẻ giả mạo đã bị phát hiện, nhưng CEO đã mất số tiền 243.000 USD mà anh ta vừa chuyển trước đó.

Ở Pháp, một người tên Gilbert Chikli đã thực hiện hành vi mạo danh, cùng với việc sao chép tỉ mỉ văn phòng của Bộ trưởng Ngoại giao Jean-Yves le Drian và đồ đạc trong đó, để lừa đảo các giám đốc điều hành cấp cao hàng triệu EURO. Kẻ lừa đảo Gilbert Chikli sau đó đã bị cáo buộc cải trang thành bộ trưởng để yêu cầu các cá nhân giàu có và giám đốc điều hành công ty đưa tiền chuộc nhằm giải thoát các con tin người Pháp ở Syria. Sau đó, hắn ta đã phải hầu tòa cho hành vi của mình.

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Thậm chí, ông chủ Facebook cũng từng trở thành nạn nhân của deepfake khi bị lừa đảo giả mạo cả khuôn mặt và giọng nói.

Phần 7: Tự bảo vệ trước deepfake

Để tự bảo vệ trước deepfake, đầu tiên chúng ta cần nhận ra rằng deepfake không chỉ là vấn đề của những người nổi tiếng hay những người có tiếng nói lớn trong xã hội. Bất cứ ai cũng có thể trở thành nạn nhân của deepfake.

Vì vậy, hãy cẩn trọng với những tài liệu, thông tin hay bất cứ hình ảnh, video nào mà chúng ta nhận được từ nguồn không rõ. Nếu có thể, hãy kiểm tra tính xác thực của chúng bằng cách tìm kiếm thông tin từ các nguồn tin cậy.

Ngoài ra, chúng ta cũng nên hạn chế chia sẻ thông tin, hình ảnh, video của chính mình trên mạng xã hội hay các nơi công cộng. Nếu không thể tránh khỏi việc chia sẻ, hãy đảm bảo rằng thông tin của mình được đăng tải trên các trang web, nơi mà chúng ta tin tưởng và biết rõ về các quy định bảo mật thông tin.

Cuối cùng, hãy luôn cập nhật thông tin về deepfake và các biện pháp bảo vệ cá nhân trên mạng để có thể phòng tránh tốt nhất các mối đe dọa đến sự riêng tư và danh dự của chúng ta.

Phần 8: Lời khuyên để phòng tránh các chiêu lừa đảo trên mạng

Với sự phát triển của công nghệ, các chiêu trò lừa đảo trên mạng ngày càng tinh vi và khó phát hiện hơn. Để tránh rơi vào những bẫy của kẻ lừa đảo, các chuyên gia về bảo mật đưa ra những lời khuyên cần thiết.

Trước khi tin tưởng và thực hiện yêu cầu được gửi qua tin nhắn thoại, bạn nên xác minh lại thông tin bằng cách gọi lại số điện thoại của người gửi yêu cầu. Đừng vội vàng truy cập vào các đường link hoặc nút được gửi qua tin nhắn mà không xác minh lại với người đã gửi tin nhắn cho bạn. Đó có thể là những chiêu trò được đưa ra để chiếm đoạt tài khoản trực tuyến của bạn.

Với những lời khuyên đơn giản này, bạn có thể giảm thiểu rủi ro từ những chiêu trò lừa đảo trên mạng và bảo vệ tài khoản của mình một cách tốt nhất.

Chú ý đến những chi tiết nhỏ nhất: Nếu nhận được cuộc gọi chuyển tiền hoặc yêu cầu chuyển tiền trong video call, dù là từ người thân hay không quen biết, bạn nên kiểm tra kỹ số điện thoại, email và tài khoản của người yêu cầu có trùng khớp không. Thường thì, các kẻ lừa đảo sẽ yêu cầu chuyển tiền sang tài khoản của bên thứ ba hoặc tài khoản có tên gần giống nhau.

Hạn chế quyền truy cập của kẻ lừa đảo đến giọng nói và hình ảnh của bạn: Để tạo ra deepfake, kẻ lừa đảo cần sử dụng các bản ghi âm, hình ảnh hoặc video của bạn. Vì vậy, để tránh bị sao chép dữ liệu, bạn nên hạn chế việc chia sẻ hình ảnh và âm thanh của mình trên mạng xã hội hoặc đặt tài khoản của mình ở chế độ riêng tư và chỉ chấp nhận yêu cầu kết bạn từ những người bạn tin tưởng.

Bên cạnh đó, để phát hiện deepfake ngay lập tức, bạn cần lưu ý đến những lời khuyên sau đây từ các chuyên gia về bảo mật:

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

{{video_placeholder_1}} {{iframe_placeholder_1}}

- Chuyển động giật cục, như một đoạn video lỗi

- Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo

- Thay đổi tông màu da liên tục

- Video có những sự nhấp nháy lạ thường

- Khẩu hình miệng không đồng bộ với lời nói 

- Hiện lên các đồ vật kỹ thuật số trong hình ảnh

- Âm thanh và/hoặc video chất lượng thấp

- Nhân vật nói liên tục, không chớp mắt

Deepfake - Hình thức lừa đảo nguy hiểm sẽ phổ biến hơn trong tương lai?

Đến tháng 6 năm 2019, số lượng video deepfake mà IBM phát hiện chỉ có 3.000 đoạn. Tuy nhiên, vào tháng 1 năm 2020, con số này đã tăng lên đến 100.000. Đáng chú ý, tính đến tháng 3 năm 2020, đã có hơn 1 triệu video deepfake được lưu hành trên internet.

Theo một nghiên cứu của Deeptrace, vào tháng 12 năm 2018, đã có 15.000 video deepfake được tạo ra. Số lượng này đã gia tăng lên 558.000 vào tháng 6 năm 2019 và tiếp tục tăng mạnh lên hơn 1 triệu vào tháng 2 năm 2020.

Bảo vệ tài sản trước thủ đoạn giả mạo bằng công nghệ Deepfake

Ảnh CNBC

Trong nghiên cứu của Deeptrace, đã có đến 96% các video deepfake được tạo ra để phục vụ các mục đích không hợp pháp. Điều này đang đe dọa đến sự an toàn của chúng ta trên môi trường internet. Với sự phát triển không ngừng của công nghệ, việc tạo ra những video deepfake trở nên đơn giản và tiết kiệm chi phí hơn. Vì vậy, các chiêu trò lừa đảo áp dụng deepfake có thể dễ dàng tấn công vào môi trường internet và lan tràn trên các nền tảng mạng xã hội.

Chính vì thế, chúng ta cần phải cẩn trọng hơn khi sử dụng internet, đặc biệt là khi chia sẻ thông tin cá nhân trên các nền tảng mạng xã hội. Việc tiết lộ quá nhiều thông tin cá nhân có thể trở thành cơ hội cho những kẻ xấu sử dụng deepfake để thực hiện hành vi lừa đảo và gây thiệt hại hàng tỷ đồng.

Vậy tại sao deepfake lại dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? Hãy cùng tìm hiểu và hết sức cẩn trọng khi sử dụng internet.