image banner
Cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake (giả mạo khuôn mặt) để lừa đảo

Thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng "sập bẫy". Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để yêu cầu "nạn nhân" chuyển tiền.

Thủ đoạn lợi dụng ChatGPT để xuyên tạc, chống phá

Thủ đoạn lừa đảo này được dự báo sẽ "nở rộ" trong thời gian tới, các chuyên gia khuyến cáo người dùng cần hết sức cảnh giác để tránh bị mất tiền oan.

Cách đây khoảng 1 tuần, chị Nguyễn Thị Thanh Hà ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai qua Faecbook đề nghị chuyển tiền với nội dung "tài khoản em còn đủ 17 triệu không, chuyển cho anh qua đây, sáng mai anh gửi lại sớm được không?". Sau khi nhắn tin, tài khoản này còn gọi video qua Facebook cho chị Hà với thời lượng khoảng 8-10 giây. Trong video hiện lên hình ảnh của anh trai chị Hà dù hình ảnh video không thực sự sắc nét.

Mặc dù trong lòng cảm thấy có chút băn khoăn vì từ trước đến nay anh trai ít khi hỏi vay một số tiền lớn như vậy song thấy hình ảnh video qua Facebook chính là anh trai nên chị Hà cũng tự loại bỏ nghi ngờ. Sau khi yêu cầu gửi số tài khoản để chuyển tiền, thấy tên tài khoản không phải là tên anh trai mà là một người khác, chị Hà liền gọi điện thoại để xác minh thì được biết anh trai chị vừa bị hack Facebook.

Trước việc kẻ xấu lợi dụng công nghệ Deepfake để lừa đảo, người dùng cần xác minh kỹ thông tin trước khi chuyển tiền. Ảnh minh họa

Không may mắn như chị Hà, chị Nguyễn Hải Ly đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook với nội dung "Cho mình mượn tạm 10 triệu đồng vì đang có việc cần gấp" và yêu cầu chuyển thẳng số tiền đó vào tài khoản của người thứ 3 để "đỡ mất công phải chuyển đi chuyển lại. Lúc nào chuyển xong thì chỉ cần chụp hình ảnh gửi cho mình".

Nghi ngờ Facebook người bạn bị chiếm tài khoản nên chị Ly đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị Ly thấy mặt nhưng hình ảnh hơi mờ. Khi chị Ly hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Thấy hình ảnh bạn, chị Ly đã tin tưởng và chuyển 10 triệu đồng vào tài khoản. Sau khi chuyển tiền, chị Ly gọi điện thoại cho bạn thì mới biết mình bị lừa.

Theo các chuyên gia công nghệ, trong tình huống trên đối tượng đã sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Để tránh bị "sập bẫy", các chuyên gia khuyến cáo và đề nghị người dùng cần nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Sau đó phải thực hiện ngay thao tác kiểm tra bằng cách gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber).

Deepfake ban đầu được sử dụng trong các ứng dụng "hoán đổi khuôn mặt" giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.

Về cách thức của thủ đoạn lợi dụng deepfake để lừa đảo chiếm đoạt tài sản: Đầu tiên, thông qua Internet, các đối tượng thu thập dữ liệu người dùng mạng xã hội như hình ảnh, video khung cảnh quen thuộc, hình ảnh và các thông tin liên quan của cá nhân. Sau đó dùng các ứng dụng, phần mềm ghép mặt, ghép nền như Reface, FaceApp, Face Swap Live, FaceArt, ZAO… tạo thành các video có khuôn mặt, giọng nói và cách xưng hô quen thuộc. Các đối tượng tiến hành chiếm đoạt tài khoản hoặc tạo lập tài khoản giả mạo mới trên mạng xã hội trùng thông tin và ảnh đại diện của người dùng; kết bạn với mọi người trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản đã dựng trước. Cuối cùng, để tạo lòng tin với nạn nhân, đối tượng tiến hành gọi video, khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng. Ngoài ra, các đối tượng còn lập các tài khoản ngân hàng có tên trùng với người bị giả mạo. Thủ đoạn lừa đảo mới này khiến nhiều người mất số tiền lớn vì cuộc gọi video hiện lên đúng ảnh đại diện, chủ tài khoản mở tại ngân hàng cũng trùng tên với bạn bè, người thân của mình.

 Nhận diện video deepfake: Tuy deepfake có thể tạo ra video giả với độ chân thực cao nhưng hiện nay, công nghệ này vẫn chưa đạt tới mức độ hoàn hảo. Dưới đây là một số dấu hiệu nhận biết một cuộc gọi là deepfake:

- Thời gian cuộc gọi thường rất ngắn, chỉ vài giây rồi tắt máy, lấy lý do "sóng yếu, mạng chập chờn" để từ chối tiếp tục nói chuyện;

- Khuôn mặt người gọi thiếu cảm xúc và khá "trơ" khi nói; tư thế lúng túng, thiếu tự nhiên; hướng đầu và cơ thể không nhất quán với nhau; chuyển động mắt không tự nhiên…

- Các chi tiết như màu da, tóc, răng của nhân vật trong video không giống nhật, ánh sáng kỳ lạ, bóng đổ không đúng vị trí…

- Âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào video hoặc video không có âm thanh;

Cách phòng tránh với thủ đoạn lợi dụng deepfake để lừa đảo chiếm đoạt tài sản: 

Trước những chiêu trò lừa đảo ngày càng tinh vi hơn và không phải ai cũng có đủ kiến thức về công nghệ để nhận ra những video là giả mạo bởi deepfake. Vì vậy, người dùng Internet nói chung và mạng xã hội nói riêng cần chủ động thực hiện một số việc nhằm phòng tránh loại tội phạm này như:

Một là, tin tưởng nhưng vẫn phải xác minh: Nếu nhận được tin nhắn hoặc video với mục đích vay tiền hoặc mượn tài sản cá nhân, dù giọng nói và hình ảnh rất quen thuộc và cực kì giống thật, hãy gọi lại bằng số điện thoại của người thân để xác minh rằng đồng nghiệp, người thân đó thực sự vừa gửi tin nhắn, gọi video.

Hai là, hạn chế quyền truy cập vào tài khoản mạng xã hội: Để ngăn chặn việc dữ liệu hình ảnh, âm thanh bị sao chép, hãy hạn chế đăng tải các thông tin cá nhân lên mạng xã hội; thiết lập tài khoản ở chế độ riêng tư hoặc chỉ bạn bè; chỉ chấp nhận yêu cầu kết bạn từ những người tin tưởng; cài đặt không hiển thị danh sách bạn bè với người lạ.

Ba là, không vội truy cập bất kì đường link nào: Khi nhận được một đường link với những cấu trúc lạ, không vội vàng nhấp vào đường link/nút đó, vì rất có thể đó là một cái bẫy để các đối tượng chiếm đoạt tài khoản cá nhân.

Bốn là, chú ý vào những điều nhỏ nhất: Nếu nhận được yêu cầu với nội dung chuyển tiền, hãy xem kĩ số điện thoại, email hoặc tài khoản có trùng khớp với người đang yêu cầu chuyển tiền không. Thông thường, các đối tượng sẽ yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần tương tự.

Lê Thi

image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
image advertisement
THỐNG KÊ TRUY CẬP
  • Đang online: 1
  • Hôm nay: 1
  • Trong tháng: 1
  • Tất cả: 1
Thư viện ảnh