28 Tháng 4, 2025
AIscamJPG-1744017953-8280-1744017976.jpg
Mỹ- Linda Roan, 62 tuổi, bất ngờ nhận cuộc gọi từ số lạ, bên kia là tiếng nức nở của con gái út, nói bà cần chuyển tiền gấp.

Trong thời đại công nghệ phát triển mạnh mẽ, việc lừa đảo qua điện thoại đã trở thành một vấn đề nhức nhối. Một câu chuyện đáng chú ý về việc sử dụng trí tuệ nhân tạo (AI) để giả giọng nói người thân đã khiến nhiều người phải cảnh giác. Hãy cùng tìm hiểu về trường hợp của bà Linda Roan, một nạn nhân của hình thức lừa đảo này.

Xem thêm các nội dung khác hấp dẫn và mới nhất tại Tin tức 247

Cuộc Gọi Đáng Sợ Từ Người Lạ

Bà Linda Roan, 62 tuổi, đã nhận được một cuộc gọi từ một số điện thoại lạ. Bên kia là giọng nói nức nở của con gái út, khiến bà cảm thấy hoang mang. “Mẹ ơi, con cần mẹ giúp”, cô gái khóc lóc trong cuộc gọi. Bà Roan ngay lập tức nhận ra giọng nói của con gái mình, nhưng không lâu sau, một người đàn ông xuất hiện và thông báo rằng con gái bà đang gặp nguy hiểm.

Thủ Đoạn Lừa Đảo Tinh Vi

Người đàn ông này đã yêu cầu bà Roan chuyển tiền gấp để giải cứu con gái. Hắn đã chuẩn bị sẵn một câu chuyện để thuyết phục bà, rằng con gái bà đã vô tình chứng kiến một vụ giao dịch ma túy và cần phải đền bù. Dù ban đầu nghi ngờ, nhưng giọng nói của con gái đã khiến bà không thể từ chối.

Chuyển Tiền Qua Western Union

Người đàn ông đã hướng dẫn bà đến một siêu thị và yêu cầu bà gửi tiền qua dịch vụ Western Union. Hắn còn yêu cầu bà phải bật loa ngoài và giấu điện thoại để không bị nghi ngờ. Bà Roan đã chuyển 1.000 USD, nhưng sau đó lại bị yêu cầu thêm tiền với lý do con gái bà đang gặp nguy hiểm hơn bao giờ hết.

Những Hệ Lụy Đau Đớn

Sau khi chuyển thêm 1.000 USD nữa, bà Roan đã gọi cho con gái và phát hiện ra rằng cô vẫn an toàn trong căn hộ của mình, hoàn toàn không biết gì về sự việc. Bà đã báo cảnh sát, nhưng không thể lấy lại số tiền đã mất. Đây không chỉ là một câu chuyện cá nhân mà còn là một bài học cho nhiều người khác.

Thực Trạng Lừa Đảo Qua AI

Ủy ban Thương mại Liên bang Mỹ (FTC) đã cảnh báo rằng các vụ lừa đảo mạo danh người thân đang gia tăng, với thiệt hại lên tới gần 3 tỷ USD trong năm 2024. Cục Điều tra Liên bang Mỹ (FBI) cũng đã chỉ ra rằng tội phạm đang sử dụng AI để bắt chước giọng nói, khiến cho các trò lừa đảo trở nên đáng tin cậy hơn bao giờ hết.

Chuyên gia bảo mật cho biết chỉ cần 3 giây ghi âm là có thể sao chép giọng nói với độ chính xác lên đến 85%. Điều này cho thấy sự cần thiết phải nâng cao cảnh giác và không nên vội vàng tin vào những gì mình nghe thấy qua điện thoại.

Bà Roan cảm thấy xấu hổ vì đã bị lừa, nhưng bạn bè của bà đã động viên và chia sẻ rằng họ cũng có thể rơi vào tình huống tương tự. Đây là một lời nhắc nhở cho tất cả chúng ta về việc cần phải cẩn trọng hơn trong thời đại công nghệ số hiện nay.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *