24h
Yeah1 News

Ghép mặt người thân - giả giọng gọi video để l.ừa đảo: Một phụ nữ ở TP.HCM đã sập bẫy

Chủ nhật, 26/03/2023 | 09:34 (GMT+7)

Cơ quan chức năng cảnh báo người dân cẩn thận trước những cuộc gọi video có tín hiệu chập chờn, mạo danh người thân đang cần dùng tiền gấp để yêu cầu chuyển tiền của đối tượng lừa đảo.

Theo thông tin ghi nhận, mới đây, một người phụ nữ tên N.T.T. (trú phường Linh Tây, TP. Thủ Đức, TP.HCM) đã trở thành nạn nhân của chiêu trò lừa đảo tinh vi. Chị T. kể lại, trong lúc đang ngồi làm việc thì nhận được tin nhắn của bạn thân qua Facebook hỏi mượn số tiền 20 triệu đồng để đáo hạn ngân hàng.

Chị T. ngay lập tức cảnh giác, nghi ngờ người bạn này đã bị đối tượng xấu chiếm đoạt tài khoản Facebook nhằm đánh lừa những người trong danh sách bạn bè. Chính vì vậy, chị T. đã gọi điện thoại bằng video cho người bạn ấy để kiểm tra.

Mặc dù đã kiểm tra bằng cách gọi video nhưng chị T. ở TP.HCM vẫn bị lừa 20 triệu đồng
Mặc dù đã kiểm tra bằng cách gọi video nhưng chị T. ở TP.HCM vẫn bị lừa 20 triệu đồng

Phía bên kia cũng không do dự bắt máy lập tức. Sau khi mở video, chị T. thấy hình ảnh khá mờ, không rõ ràng, tín hiệu chập chờn. Chị T. có hỏi vì sao không nhìn rõ video thì đối phương dùng giọng giống hệt người bạn thân của chị T. trả lời "đang ở vùng sóng yếu". 

Sau khi đã kiểm tra, chị T. tin tưởng chuyển 20 triệu đồng vào số tài khoản mà đối phương cung cấp. Khoảng 30 phút sau, chị T. càng nghĩ càng thấy bất an. Vì thế chị T. dùng số điện thoại gọi cho bạn thân hỏi thăm tình hình thì mới biết mình đã bị lừa.

Một người phụ nữ ở Hà Nội cũng từng bị lừa 75 triệu đồng vì chiêu trò ghép mặt - giả giọng qua gọi video
Một người phụ nữ ở Hà Nội cũng từng bị lừa 75 triệu đồng vì chiêu trò ghép mặt - giả giọng qua gọi video

Đây không phải lần đầu tiên có trường hợp bị lừa đảo tiền thông qua cách thức ghép mặt, giả giọng nói qua những cuộc gọi video. Trước đó, một trường hợp của chị V.T.M. (trú tại Long Biên, TP. Hà Nội) cũng bị lừa mất 75 triệu đồng. Mặc dù cảnh giác nhưng người thân này của chị M. đã sang nước ngoài sinh sống, chỉ có thể kiểm tra thông tin bằng cách gọi video. 

Tuy tín hiệu rất kém, hình ảnh mờ nét nhưng chị M. cũng đã xác nhận được là "người thân" của mình và chuyển số tiền 75 triệu đồng cho đối phương. Đến tối, chị M nhìn thấy bài đăng của người thân mình thông báo về việc bị "hack" tài khoản thì chị M. mới vỡ lẽ là bản thân bị lừa.

Ghép mặt người thân - giả giọng gọi video để l.ừa đảo: Một phụ nữ ở TP.HCM đã sập bẫy - ảnh 3
Ghép mặt người thân - giả giọng gọi video để l.ừa đảo: Một phụ nữ ở TP.HCM đã sập bẫy - ảnh 4
Công nghệ Deepfake AI có thể tạo ra một khuôn mặt tương tự nhưng người thân của người bị lừa
Công nghệ Deepfake AI có thể tạo ra một khuôn mặt tương tự nhưng người thân của người bị lừa

Chiều ngày 25/3, Công an tỉnh Tuyên Quang cho biết, hiện nay, rất nhiều đối tượng xấu lợi dụng sự kết nối trên không gian mạng đã thực hiện nhiều phương thức chiếm đoạt tài sản vô cùng tinh vi, một trong số đó là sử dụng công nghệ ghép mặt - giả giọng nói bằng trí tuệ nhân tạo (AI).

Một số công cụ như Deepfake AI đã tạo ra sản phẩm công nghệ có cả âm thanh, hình ảnh và video không khác gì người thật với mức độ chính xác rất cao. Năm 2019, một công ty năng lượng đã bị lừa 243.000 USD (hơn 5,7 tỷ đồng) chỉ bằng một đoạn giọng nói mô phỏng của ông chủ để ra lệnh cho nhân viên chuyển tiền. Năm 2022, ước tính số tiền bị lừa bằng công cụ này đã lên đến 11 triệu USD (gần 259 tỷ đồng).

Đặc điểm chung của những cuộc gọi này là hình ảnh mờ ảo, không rõ nét, giọng nói chập chờn như đang ở vùng yếu sóng
Đặc điểm chung của những cuộc gọi này là hình ảnh mờ ảo, không rõ nét, giọng nói chập chờn như đang ở vùng yếu sóng

Các đối tượng cho biết hiện đang cần số tiền để dùng cho việc rất gấp ví như chuyển tiền học phí cho con du học nước ngoài, đóng tiền hư hại phương tiện, cấp cứu tai nạn... để buộc "con mồi" rơi vào trạng thái lúng túng, cấp bách và thực hiện theo yêu cầu lừa đảo của chúng.

Để thực hiện được phương thức này, nhóm đối tượng lừa đảo đã tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải khắp các mạng xã hội. Sau đó, chúng dùng công nghệ Deepfake AI để tạo sẵn những video khó phân biệt thật - giả (thường lấy lý do là vùng sóng yếu, kém kết nối - PV) để lừa đảo.

Từ những điều trên, Công an tỉnh Tuyên Quang khuyến cáo và đề nghị mọi người nâng cao cảnh giác khi nhận được bất kỳ tin nhắn, cuộc gọi video với nội dung vay tiền, chuyển tiền thông qua các ứng dụng mạng xã hội. 

Người dân nên hết sức bình tĩnh, kiểm tra bằng mọi cách như dễ dàng nhất là liên lạc bằng số điện thoại với người thân hoặc hỏi han thông tin thật kỹ trước khi quyết định chuyển tiền. Trường hợp xuất hiện nghi vấn, người dân cần báo cáo ngay cho cơ quan chức năng gần nhất để được hỗ trợ và xử lý kịp thời.

Ảnh: Tổng hợp

Theo dõi Yeah1 trên Yeah1 - Google news

Cùng chuyên mục