
Image generated with DALL·E through ChatGPT
Ý kiến: Những Vụ Lừa Đảo Deepfake Đang Lợi Dụng Tình Yêu và Niềm Tin Như Chưa Từng Có
Các vụ lừa đảo dựa trên AI đang ngày càng gia tăng, với các tội phạm mạng sử dụng công nghệ deepfake để tạo ra các video và hình ảnh thuyết phục nhằm lừa dối nạn nhân. Từ một phụ nữ Pháp tin rằng cô đang giúp đỡ Brad Pitt, đến một nạn nhân tin vào một deepfake chất lượng cao, đường ranh giữa thực tại và sự lừa dối đang ngày càng mờ nhạt. Khi các công cụ AI phát triển, các rủi ro cũng theo đó mà tăng lên.
Nhiều người trong chúng ta đã thấy thông tin này trên báo chí vào tháng Giêng: một phụ nữ Pháp đã mất hơn 850.000 đô la vào tay kẻ lừa đảo vì cô tin rằng mình đã trao số tiền đó cho Brad Pitt – người mà cô nghĩ mình đã có một mối quan hệ trên một năm.
Những kẻ lừa đảo đã sử dụng trí tuệ nhân tạo tiên tiến để tạo ra những “bức ảnh tự chụp” và chứng cứ giả mạo, thuyết phục nạn nhân của họ, Anne – một nhà thiết kế 53 tuổi đang trong quá trình ly hôn – về câu chuyện bi thảm của một Pitt giả mạo đang cần cứu chữa y tế gấp. Họ tuyên bố rằng tài sản của anh ta đã bị đóng băng do ly hôn với Angelina Jolie.
Anne đã quyết định can đảm – và rủi ro – khi chia sẻ câu chuyện của mình công khai, đối mặt với hàng triệu lời chế giễu, lăng mạ và tấn công ảo. “Như một kẻ ngốc, tôi đã trả tiền… Mỗi lần tôi nghi ngờ anh ta, anh ta lại làm tan biến những nghi ngờ của tôi,” cô nói trong một chương trình Youtube tiếng Pháp, như được BBC đưa tin. “Tôi chỉ bị lừa, tôi thừa nhận điều đó, và đó là lý do tôi lên tiếng, vì tôi không phải là người duy nhất.”
Cô ấy không phải. Một vài tháng sau, cảnh sát Tây Ban Nha đã bắt giữ 5 người đã lừa dối hai phụ nữ khác bằng cách giả mạo thành Brad Pitt. Một vài ngày trước, một người đàn ông Trung Quốc cũng bị lừa dối tin rằng bạn gái trực tuyến của mình cần tiền cho các thủ thuật y tế và để tài trợ cho doanh nghiệp của cô.
Những nạn nhân nhận được các video và hình ảnh cá nhân hóa – những hình ảnh mà không có ở bất kỳ nơi nào khác trực tuyến – giúp thuyết phục họ về những lời nói dối tinh vi của kẻ lừa dối họ.
Một báo cáo gần đây từ Entrust cho thấy các nỗ lực tạo Deepfake diễn ra mỗi 5 phút. Mỗi ngày lại có thêm những trường hợp mới của những người bị lừa bằng AI sinh động – một xu hướng đáng lo ngại, đặc biệt khi xét về hàng nghìn, thậm chí hàng triệu người đang chìm trong nợ nần và xấu hổ nhưng không dám báo cáo với cơ quan chức năng, huống hồ là công khai.
Lừa đảo DeepFake đang tăng
Nhiều nghiên cứu và báo cáo đã cảnh báo về sự gia tăng các vụ lừa đảo và tấn công mạng được kích hoạt bằng AI. Dữ liệu gần đây từ Xu hướng và Thông tin về Lừa đảo TrustPair 2025 cho thấy một sự tăng 118% so với năm trước trong lừa đảo được thúc đẩy bằng AI, như được báo cáo bởi CFO.
Chào bạn, Hiya, một công ty Mỹ chuyên về các giải pháp bảo mật và hiệu suất cuộc gọi, gần đây đã chia sẻ kết quả của một cuộc khảo sát, tiết lộ rằng 31% khách hàng từ sáu quốc gia đã nhận được cuộc gọi deepfake vào năm 2024, và 45% trong số họ đã bị lừa – 34% trong nhóm đó đã mất tiền và 32% đã bị đánh cắp thông tin cá nhân. Trung bình, nạn nhân mất hơn $500 cho mỗi vụ lừa đảo qua điện thoại.
Cách đây vài ngày, The Guardian đã tiết lộ rằng một mạng lưới tổ chức ở Georgia – ở Đông Âu – đã sử dụng quảng cáo giả trên Facebook và Google để lừa hơn 6,000 người trên khắp châu Âu, Canada, và Vương quốc Anh, thu về $35 triệu thông qua hoạt động của họ.
Khoảng 85 kẻ lừa đảo người Georgia có thu nhập cao đã sử dụng những nhân vật công cộng như nhà báo người Anh Martin Lewis, nhà văn và nhà mạo hiểm Ben Fogle, và Elon Musk cho những vụ lừa đảo của họ. Những kẻ lừa đảo này đã quảng cáo về các loại tiền kỹ thuật số giả mạo và các kế hoạch đầu tư khác, khiến nạn nhân chuyển tiền qua các ngân hàng số như Revolut – ngân hàng mới đây đã nhận được giấy phép hoạt động ngân hàng ở Anh.
Trí tuệ nhân tạo tiên tiến, các vụ lừa đảo càng tinh vi
Các tội phạm mạng đã sử dụng trí tuệ nhân tạo sinh động trong vài năm qua, tận dụng các công cụ như ChatGPT để soạn và dịch các email thu hút và tạo ra nội dung dựa trên văn bản thuyết phục. Bây giờ, khi các công cụ AI phát triển, việc sử dụng hình ảnh và video do AI tạo ra đã tăng lên.
Vài tuần trước, ByteDance đã giới thiệu công cụ video AI mới nhất của mình, OmniHuman-1, có khả năng tạo ra một trong những deepfake thực tế nhất trên thị trường. Trong khi đó, nhiều công ty AI khác đang phát triển các công nghệ tương tự. Dường như chỉ là vấn đề thời gian trước khi những công cụ này cũng được sử dụng cho các hành vi lừa đảo.
Mặc dù những công nghệ này có thể được sử dụng “một cách thiện chí” và thậm chí để chống lại sự tăng lên của các hành vi lừa đảo – như ‘Bà Granny’ Daisy của O2, được thiết kế để tham gia vào các cuộc gọi thời gian thực với kẻ lừa đảo và làm phân tâm họ khỏi những nạn nhân thực sự – thì hậu quả của việc sử dụng xấu những công nghệ này dường như không thể đo lường được.
Tại Wizcase, chúng tôi mới đây đã báo cáo về một sự tăng 614% trong số lượng các cuộc tấn công tự lừa dối, ghi nhận cách mà các hacker sử dụng công nghệ deepfake để làm cho nội dung giả mạo trở nên “thực hơn”, và cách mà các công ty truyền thông xã hội như Meta đã phải can thiệp vào các vụ lừa đảo mổ heo, vì nhiều tác nhân đe dọa sử dụng những nền tảng này. Trong nghiên cứu, Meta đã ghi nhận rằng nhiều vụ lừa đảo bắt đầu từ các ứng dụng hẹn hò, chứng minh rằng tình yêu lãng mạn là một trong những mồi câu phổ biến nhất – cả trong hiện tại và lịch sử.
Tình yêu: Một mồi câu mạnh mẽ
Các tội phạm mạng không chỉ giỏi về việc hiểu và sử dụng trí tuệ nhân tạo tiên tiến – họ cũng có sự hiểu biết sâu sắc về trí tuệ con người. Các tác nhân đe dọa biết cách xác định những điểm yếu, xây dựng lòng tin và đưa ra yêu cầu của họ vào đúng thời điểm.
Nghiên cứu Bạn có yêu tôi không? Đặc điểm tâm lý của nạn nhân lừa đảo tình cảm, được công bố vào năm 2018 bởi Tiến sĩ Monica T. Whitty, giải thích cách các nhóm tội phạm quốc tế đã thực hiện các vụ lừa đảo tình cảm qua mạng lâu năm – ngay cả trước khi Internet ra đời – và cách những phụ nữ trung niên, có học thức có khả năng rơi vào loại lừa đảo này – giống như Anne.
Chúng ta có thể kỳ vọng gì bây giờ, tám năm sau nghiên cứu này, với công nghệ giống như trong các tác phẩm khoa học viễn tưởng? Có lẽ chúng ta đều dễ bị tổn thương hơn chúng ta nghĩ.
“Nạn nhân của loại lừa đảo này thường là những người đang tìm kiếm ý nghĩa trong cuộc sống, những người đang trong tình trạng yếu đuối về mặt tình cảm,” Nhà giáo sư đồng thời là giảng viên tại Đại học Quebec tại Montreal (UQAM), Annie Lecompte, đã viết trong một bài báo gần đây đăng trên The Conversation. “Mặc dù nó thường bị chế nhạo và hiểu lầm, nhưng lừa đảo tình cảm dựa trên những cơ chế tâm lý phức tạp, lợi dụng lòng tin, cảm xúc và sự yếu đuối của nạn nhân.”
Trái tim tan vỡ, ví tiền trống rỗng
Liu – họ của người đàn ông Trung Quốc gần đây đã mất khoảng 200.000 nhân dân tệ, tương đương khoảng 28.000 đô la Mỹ, trong một vụ lừa đảo sử dụng AI – thực sự tin rằng bạn gái ảo của mình là thật, khi anh ta thấy những bức ảnh cá nhân hoá và thậm chí cả video. Anh ta đã xây dựng một mối liên kết tình cảm ngày càng mạnh mẽ… với những kẻ lừa đảo của mình.
Mặc dù anh ấy không cung cấp thêm chi tiết về bối cảnh trong các báo cáo, nhưng một nạn nhân khác, bà Nikki MacLeod 77 tuổi, đã làm điều đó. Bà cũng nghĩ mình đang trong một mối quan hệ thật sự với một người bạn gái AI và đã gửi cho cô ấy £17,000—khoảng $22,000— thông qua chuyển khoản ngân hàng, PayPal, và thẻ quà tặng.
“Tôi không phải là người ngu nhưng cô ấy đã thuyết phục tôi rằng cô ấy là một người thật sự và chúng tôi sẽ cùng nhau sống cuộc sống còn lại,” bà MacLeod nói với BBC.
MacLeod đang cảm thấy cô đơn và buồn chán khi cô gặp Alla Morgan trong một nhóm chat. Sau một thời gian, MacLeod yêu cầu một cuộc video trực tiếp, nhưng Morgan nói rằng điều này không thể vì cô đang làm việc trên một giàn khoan dầu. Khi MacLeod bắt đầu nghi ngờ, Morgan bắt đầu gửi các video rất thực tế. “Cô ấy gửi cho tôi một video để nói ‘Chào Nikki, tôi không phải là kẻ lừa đảo, tôi đang ở trên giàn khoan dầu của mình’, và tôi hoàn toàn tin vào điều đó,” MacLeod giải thích. Nội dung này có sẵn trên trang web của BBC, và không khó hiểu vì sao MacLeod tin rằng nó là thật – đó là một deepfake chất lượng cao.
BBC đã yêu cầu một chuyên gia về an ninh mạng và tương tác con người-máy tính tại Đại học Abertay, Tiến sĩ Lynsay Shepherd, phân tích những bức ảnh và video mà MacLeod nhận được. “Nếu bạn không biết tìm kiếm điều gì, thì ban đầu nó trông rất hợp lệ, nhưng nếu bạn nhìn vào đôi mắt – cử động của đôi mắt không hoàn toàn chính xác,” Tiến sĩ Shepherd nói.
“Các tài liệu trông rất thật, những video trông rất thật, ngân hàng cũng trông rất thật,” MacLeod nói. “Với sự xuất hiện của trí tuệ nhân tạo, mọi thứ đều có thể giả mạo.”
Để lại bình luận
Hủy