Cảnh báo: Nhận diện thủ đoạn lừa đảo bằng công nghệ Deepfake

Thời gian qua, những thủ đoạn lừa đảo ngày càng tinh vi, đặc biệt khi các đối tượng lợi dụng trí tuệ nhân tạo (AI), công nghệ Deepfake. Vì vậy các chuyên gia khuyến cáo người dùng cần hết sức cảnh giác để tránh bị lừa đảo mất tiền oan.

Tại buổi họp báo thường kỳ Bộ Thông tin và Truyền thông (TT&TT) mới đây, Phó Cục trưởng Cục An toàn thông tin (Bộ TT&TT) Trần Quang Hưng cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video bằng công nghệ Deepfake.

Deepfake AI ban đầu vốn được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế.

Thế nhưng hiện nay, ngoài mục đích giải trí như trên, các đối tượng tội phạm đã lợi dụng công nghệ này để tạo ra video giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo hoặc lan truyền tin giả, tin thất thiệt trên mạng.

deepfake

 Các đối tượng thường dùng công nghệ Deepfake tạo ra video giả mạo

Không chỉ Việt Nam mà nhiều nước trên thế giới, các công ty công nghệ lớn đang tìm giải pháp kỹ thuật để xử lý các vụ lừa đảo Deepfake. Việc ngăn ngừa chiêu trò lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, do bản chất của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính nên để lấy được tiền, kẻ lừa đảo đều cần đến các tài khoản ngân hàng. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ. Do đó, việc cần làm là ngăn chặn các tài khoản ngân hàng không chính chủ, đồng bộ thông tin tài khoản ngân hàng với cơ sở dữ liệu quốc gia về dân cư để kiểm soát, truy vết các vụ lừa đảo.

Theo các chuyên gia về an toàn thông tin, kẻ gian thường chiếm đoạt tài khoản Zalo, Facebook hoặc tạo tài khoản giống hệt người thân của nạn nhân, tiếp đó thu thập hình ảnh, giọng nói và dùng công nghệ Deepfake tạo ra video giả mạo. Sau đó, chúng sẽ dùng tài khoản giả hoặc các tài khoản mạng xã hội chiếm được để nhắn tin mượn tiền hoặc nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm cần tiền gấp...

Chiêu thức này tuy không quá mới nhưng đã trở nên tinh vi hơn khi kẻ gian đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin cho tài khoản giả, tăng độ tin cậy để thực hiện trót lọt hành vi lừa đảo. Các video này có thể khiến người xem tin rằng họ đang nhìn thấy và nghe thấy người thật đang nói chuyện. Và trên thực tế đã có không ít người đã trở thành nạn nhân của thủ đoạn lừa đảo này.

Theo ông Nguyễn Văn Cường - Giám đốc Trung tâm an ninh mạng BKAV, Deepfake là kỹ thuật sử dụng trí tuệ nhân tạo để tạo ra hình ảnh hoặc video giả mạo rất giống với người thật. Khi áp dụng vào cuộc gọi video, Deepfake có thể giả mạo giọng nói, biểu cảm khuôn mặt và cử chỉ của người bị giả mạo, dẫn đến việc người nhận cuộc gọi có thể bị lừa đảo.

Có một số dấu hiệu cho thấy một cuộc gọi video có thể là giả mạo. Ví dụ như, nếu người gọi không nhìn trực tiếp vào camera, nói không trôi chảy, hoặc có những hành động bất thường trong video. Bên cạnh đó, nếu người dùng nhận thấy có sự khác biệt giữa giọng nói và hành động của người trong video thì có thể đó là dấu hiệu của một video giả mạo. Ngoài ra, cuộc gọi lừa đảo Deepfake thường xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...

Để phòng tránh lừa đảo bằng Deepfake, người dùng cần cẩn trọng khi chia sẻ thông tin cá nhân và tài khoản ngân hàng. Nếu có bất kỳ sự nghi ngờ nào về tính xác thực của cuộc gọi video, người dùng nên hủy cuộc gọi và kiểm tra lại thông tin. Ngoài ra, để bảo vệ thông tin cá nhân, người dùng cần thường xuyên thay đổi mật khẩu và bảo vệ thiết bị của mình khỏi các phương tiện tấn công mạng. Đồng thời, người dùng nên cẩn thận và xem xét kỹ trước khi chia sẻ thông tin cá nhân với bất kỳ ai trên mạng và đảm bảo rằng chỉ chia sẻ thông tin với các trang web đáng tin cậy và có hệ thống bảo mật tốt.

Thanh Tú

Link nội dung: https://itoday.vn/canh-bao-nhan-dien-thu-doan-lua-dao-bang-cong-nghe-deepfake-a447575.html