Quản lý tài sản | 23/01/2026

Lừa đảo cuộc gọi video Deepfake, Deepvoice – Cách nhận biết, phòng tránh

Lừa đảo công nghệ cao đang bùng nổ mạnh mẽ trong thời gian gần đây, đặc biệt là các chiêu thức lừa đảo cuộc gọi video Deepfake, Deepvoice. Bằng cách lợi dụng trí tuệ nhân tạo, kẻ gian có thể giả mạo gần như hoàn hảo khuôn mặt và giọng nói của người thân hoặc bạn bè, từ đó tạo dựng niềm tin giả để chiếm đoạt tài sản. 

Bài viết này, DNSE sẽ phân tích cơ chế hoạt động của chiêu trò lừa đảo này và đề xuất các giải pháp an toàn dành cho cá nhân và doanh nghiệp. Hãy cùng tìm hiểu! 

Lừa đảo cuộc gọi video Deepfake, Deepvoice là gì?

Khái niệm về lừa đảo cuộc gọi video Deepfake, Deepvoice

Lừa đảo cuộc gọi video Deepfake, Deepvoice là gì?
Lừa đảo cuộc gọi video Deepfake, Deepvoice là gì?

Lừa đảo cuộc gọi video Deepfake, Deepvoice là hình thức lừa đảo công nghệ cao, trong đó kẻ gian sử dụng trí tuệ nhân tạo (AI) để giả mạo khuôn mặt và giọng nói của người quen (sếp, đồng nghiệp, bạn bè hoặc người thân), sau đó thực hiện cuộc gọi video hoặc cuộc gọi thoại nhằm lừa nạn nhân chuyển tiền hoặc cung cấp thông tin quan trọng. 

Nhờ việc thu thập hình ảnh, video và giọng nói từ mạng xã hội, website công ty hoặc các cuộc họp trực tuyến trước đó, AI có thể tái tạo hình ảnh và giọng nói giống người thật đến mức rất khó phân biệt. Kẻ gian thường dàn dựng các tình huống khẩn cấp như giao dịch bí mật, thương vụ gấp hoặc vấn đề pháp lý để tạo áp lực tâm lý, khiến nạn nhân không kịp xác minh mà làm theo yêu cầu.

Ví dụ: 

Năm 2024 tại Hong Kong, một nhân viên kế toán đã bị lừa chuyển hơn 25 triệu USD sau khi tham gia một cuộc họp Zoom có đầy đủ CEO, CFO và các thành viên ban lãnh đạo. Do hình ảnh và giọng nói trong cuộc họp đều rất tự nhiên, người này tin rằng đó là cuộc họp thật và chủ động chuyển tiền theo chỉ đạo. 

Chỉ sau khi bị lừa tiền, nhân viên kế toán đó mới phát hiện không có lãnh đạo nào tham gia cuộc họp và toàn bộ những người xuất hiện trong cuộc gọi đều là deepfake do AI tạo ra, cho thấy mức độ tinh vi và nguy hiểm của hình thức lừa đảo này trong bối cảnh làm việc trực tuyến ngày càng phổ biến.

>> Nguồn tham khảo: VNExpress – Nhân viên chuyển 25 triệu USD sau cuộc gọi deepfake giả danh sếp

Dấu hiệu nhận biết cuộc gọi lừa đảo Deepfake

Dấu hiệu nhận biết lừa đảo Deepfake
Dấu hiệu nhận biết lừa đảo Deepfake

Dấu hiệu nhận biết cuộc gọi Deepfake thường nằm ở những chi tiết nhỏ nhưng bất thường mà người nghe có thể quan sát trong quá trình trò chuyện. 

Một số điểm đáng chú ý gồm:

  • Khung hình video đôi khi giật nhẹ, khuôn mặt (mắt, miệng) trông hơi “đơ”, biểu cảm không tự nhiên như người thật.
  • Chuyển động miệng không khớp hoàn toàn với lời nói hoặc có độ trễ khi đối phương nói.
  • Người gọi né tránh việc đưa tay lên trước camera, không quay sang các góc khác của khuôn mặt hoặc không thay đổi tư thế theo yêu cầu.
  • Giọng nói nghe thiếu cảm xúc, đôi lúc giọng bị méo, lặp từ ngữ hoặc ngắt quãng bất thường.
  • Thường xuyên thúc giục chuyển tiền gấp, nhấn mạnh yếu tố khẩn cấp và yêu cầu giữ bí mật để tạo áp lực tâm lý.

Vì sao người dùng dễ bị lừa bởi Deepfake?

Người dùng dễ bị lừa bởi vì công nghệ Deepfake và Deepvoice hiện nay đã đạt độ tinh vi rất cao. Cụ thể:

  • AI có thể giả mạo khuôn mặt trong các cuộc gọi video trên Zoom, Messenger, Zalo… gần như theo thời gian thực.
  • Giọng nói có thể được sao chép chỉ từ vài giây ghi âm, bắt chước cả ngữ điệu và cách nói quen thuộc.
  • Sự kết hợp giữa hình ảnh, giọng nói và bối cảnh quen thuộc tạo cảm giác đang nói chuyện với người thật.

Khi mức độ giống thật có thể vượt trên 90%, nhiều người không kịp nhận ra dấu hiệu bất thường và vô tình trở thành nạn nhân của lừa đảo công nghệ cao.

Cơ chế hoạt động của lừa đảo cuộc gọi video Deepfake, Deepvoice

Cơ chế hoạt động của lừa đảo Deepfake, Deepvoice
Cơ chế hoạt động của lừa đảo Deepfake, Deepvoice

Cơ chế hoạt động của lừa đảo cuộc gọi video Deepfake, Deepvoice có thể tóm gọn thành 3 bước chính, diễn ra theo trình tự rõ ràng và có tính toán trước.

Bước 1: Thu thập và khai thác dữ liệu cá nhân

Kẻ lừa đảo chủ động tìm kiếm và thu thập hình ảnh, video và giọng nói của người bị mạo danh từ các nguồn công khai trên Internet, chẳng hạn như:

  • Video đăng trên Facebook, TikTok, website cá nhân hoặc các buổi họp Zoom
  • Giọng nói trong clip, livestream, cuộc gọi Zalo, video YouTube…

Những dữ liệu này thường được những kẻ lừa đảo lấy mà người dùng không hề hay biết.

Bước 2: Dùng AI để tạo Deepfake khuôn mặt và Deepvoice giọng nói

Sau khi có đủ dữ liệu, kẻ gian sử dụng công nghệ AI để huấn luyện mô hình giả mạo, bao gồm:

  • Tạo video giả khuôn mặt với chuyển động, biểu cảm gần giống người thật
  • Sao chép giọng nói với độ tương đồng rất cao, thường đạt khoảng 95–99%

Nhờ đó, chúng có thể “đóng vai” người quen của nạn nhân một cách thuyết phục trong các cuộc gọi trực tiếp.

Bước 3: Tiếp cận nạn nhân và thực hiện lừa đảo

Cuối cùng, kẻ lừa đảo gọi video hoặc gọi thoại trực tiếp cho nạn nhân, giả làm sếp, lãnh đạo hoặc người thân, đồng thời dàn dựng các tình huống khẩn cấp để tạo áp lực tâm lý và yêu cầu chuyển tiền ngay như:

  • Đang cần tiền để giao dịch gấp
  • Đang gặp sự cố tài chính
  • Đang gặp vấn đề pháp lý nghiêm trọng
  • … 

Hệ quả, nạn nhân dễ bị lộ thông tin cá nhân, thông tin tài chính, hoặc bị lừa mất tiền do chủ động chuyển khoản, thậm chí bị chiếm quyền truy cập tài khoản ngân hàng, gây thiệt hại nghiêm trọng cả về tài chính lẫn tâm lý.

Các phương thức lừa đảo cuộc gọi video Deepfake, Deepvoice phổ biến

Các phương thức lừa đảo Deepfake, Deepvoice phổ biến
Các phương thức lừa đảo Deepfake, Deepvoice phổ biến

Các phương thức lừa đảo cuộc gọi video Deepfake, Deepvoice phổ biến hiện nay thường được triển khai theo những kịch bản quen thuộc, đánh mạnh vào tâm lý tin tưởng và sợ rủi ro của nạn nhân.

1. Giả người thân hoặc bạn bè

Kẻ gian thực hiện cuộc gọi video với khuôn mặt và giọng nói giống người quen, sau đó nhờ chuyển tiền gấp trong những tình huống nghe rất hợp lý và dễ gây lo lắng, chẳng hạn như:

  • Gặp tai nạn cần tiền xử lý ngay
  • Bị kẹt nợ, cần xoay tiền khẩn cấp
  • Quên mang ví, tài khoản bị khóa tạm thời

Do tâm lý hoảng hốt và tin tưởng, nhiều nạn nhân đã chuyển tiền mà không kịp xác minh lại.

2. Giả sếp yêu cầu chuyển khoản

Trong kịch bản này, kẻ lừa đảo dùng video call Deepfake với khuôn mặt của sếp hoặc cấp trên, thường nhắm vào nhân sự kế toán, tài chính hoặc quản lý. Chúng yêu cầu:

  • Chuyển tiền cho dự án gấp
  • Thanh toán gấp cho đối tác trong tình huống “bảo mật nội bộ”
  • Không được hỏi lại hay báo cho người khác

Sự kết hợp giữa hình ảnh lãnh đạo quen thuộc và áp lực công việc khiến nạn nhân dễ làm theo chỉ đạo mà không nghi ngờ gì.

3. Giả nhân viên ngân hàng/công an

Kẻ gian sử dụng Deepvoice giả giọng cán bộ ngân hàng hoặc lực lượng chức năng (công an, thanh tra thuế,…) để gọi điện thông báo tài khoản người dùng có dấu hiệu bất thường hoặc liên quan đến vụ án phạm tội nào đó. Chúng thường có hành động:

  • Yêu cầu nạn nhân “xác minh tài khoản”
  • Hướng dẫn tải ứng dụng giả mạo
  • Lừa nạn nhân cung cấp mã OTP hoặc thông tin đăng nhập

Từ đó, kẻ lừa đảo sẽ chiếm quyền kiểm soát và chiếm đoạt toàn bộ số tiền trong tài khoản ngân hàng.

Case study về lừa đảo cuộc gọi video Deepfake, Deepvoice phổ biến

Case study về Deepfake, Deepvoice
Case study về Deepfake, Deepvoice

Những case study về lừa đảo cuộc gọi video Deepfake, Deepvoice dưới đây cho thấy hình thức này đã xuất hiện tại Việt Nam từ sớm và ngày càng tinh vi.

Ví dụ 1 – Chị Mỹ Tâm (TP.HCM, năm 2023)

Kẻ gian hack tài khoản Facebook của người thân chị Mỹ Tâm đang sinh sống tại Mỹ, sau đó nhắn tin mượn tiền gấp và tiếp tục gọi video Deepfake qua Messenger trong vài giây để tạo lòng tin. 

Do thấy có hình ảnh “người quen” xuất hiện, chị Tâm đã không ngần ngại chuyển 30 triệu đồng cho kẻ lừa đảo trước khi kịp nhận ra dấu hiệu bất thường và phát hiện mình bị lừa.

Ví dụ 2 – Chị Thu Hòa (TP.HCM, năm 2023)

Chị Thu Hòa cũng rơi vào kịch bản tương tự khi một “người bạn” gọi video Deepfake để mượn tiền vào buổi sáng, với lý do cần xoay tiền gấp. Tin rằng đó là bạn thật, chị đã chuyển ngay 20 triệu đồng. Đến chiều cùng ngày, khi gọi điện xác nhận trực tiếp, chị mới biết tài khoản Facebook của người bạn đã bị hack và toàn bộ cuộc gọi trước đó là giả mạo.

Ví dụ 3 – Người mẹ nhận cuộc gọi giả giọng con trai (năm 2025)

Trong trường hợp này, kẻ gian sử dụng Deepvoice giả giọng người con trai, gọi điện thông báo với mẹ rằng mình gặp tai nạn nghiêm trọng và cần tiền gấp để xử lý. Cuộc gọi còn được kết hợp với video Deepfake ngắn, nhằm tăng mức độ tin cậy, khiến người mẹ hoảng loạn và suýt chuyển tiền ngay lập tức.

Những case study trên cho thấy lừa đảo cuộc gọi video Deepfake, Deepvoice không chỉ nhắm vào doanh nghiệp mà còn đánh trực tiếp vào tình cảm gia đình, bạn bè, khiến nạn nhân rất dễ mất cảnh giác và hành động theo cảm xúc.

Mức độ nguy hiểm của lừa đảo cuộc gọi video Deepfake

Mức độ nguy hiểm của lừa đảo cuộc gọi video Deepfake, Deepvoice thể hiện rõ ở nhiều khía cạnh và ngày càng khó kiểm soát khi công nghệ AI phát triển nhanh.

  • Khó nhận biết hơn lừa đảo truyền thống:

Hình ảnh và giọng nói được tạo ra rất giống người thật, khiến nạn nhân dễ tin rằng mình đang nói chuyện với người quen, sếp hoặc người thân, đặc biệt trong những cuộc gọi ngắn và gấp gáp.

  • Tỷ lệ nạn nhân tăng nhanh:

Công nghệ AI ngày càng dễ tiếp cận, chi phí thấp, giúp kẻ gian dễ dàng tạo deepfake mà không cần kỹ thuật quá phức tạp, dẫn đến số vụ lừa đảo gia tăng mạnh.

  • Thiệt hại tài chính rất lớn trong thời gian ngắn:

Chỉ trong vài phút, nạn nhân có thể bị lừa chuyển số tiền từ hàng trăm triệu đến hàng tỷ đồng, nhất là trong các trường hợp liên quan đến kế toán, tài chính doanh nghiệp.

  • Khả năng lan rộng cao:

Lừa đảo Deepfake dễ dàng phát tán qua mạng xã hội và danh bạ cá nhân, khi kẻ gian chiếm quyền tài khoản của một người để tiếp tục mạo danh, tạo ra hiệu ứng dây chuyền và mở rộng phạm vi nạn nhân rất nhanh.

Cách phòng tránh lừa đảo cuộc gọi video Deepfake hiệu quả

Cách phòng tránh lừa đảo qua Deepfake
Cách phòng tránh lừa đảo qua Deepfake

Việc phòng tránh lừa đảo Deepfake cần được thực hiện đồng thời ở cả cấp độ cá nhân và doanh nghiệp, kèm theo những nguyên tắc kiểm tra cụ thể trong từng tình huống.

  • Luôn xác minh lại bằng cách gọi trực tiếp qua số quen thuộc. Ví dụ: Khi nhận được cuộc gọi video yêu cầu chuyển tiền từ “người thân” hoặc “sếp”, hãy chủ động tắt máy và gọi lại vào số điện thoại đã lưu sẵn trong danh bạ, thay vì tiếp tục trao đổi trên nền tảng đang gọi.
  • Yêu cầu người gọi thực hiện hành động ngẫu nhiên. Ví dụ: Đề nghị đối phương đưa tay lên trước camera, quay mặt sang trái – phải, đứng dậy di chuyển hoặc nói một câu bất kỳ theo yêu cầu. Deepfake thường khó xử lý các hành động phát sinh đột ngột và sẽ lộ dấu hiệu bất thường.
  • Tuyệt đối không chuyển tiền khi đang bị thúc ép hoặc tạo áp lực tâm lý. Ví dụ: Nếu đối phương liên tục nói “việc này rất gấp”, “không được hỏi ai”, “chỉ có 5 phút để xử lý”, hãy coi đó là dấu hiệu nguy hiểm và dừng giao dịch ngay, kể cả khi hình ảnh và giọng nói trông rất quen.
  • Hạn chế chia sẻ thông tin cá nhân, hình ảnh và giọng nói lên mạng xã hội. Ví dụ: Tránh đăng video nói chuyện quá dài, livestream công khai hoặc để lộ giọng nói rõ ràng kèm thông tin cá nhân, vì đây là nguồn dữ liệu để kẻ gian thu thập và tạo Deepfake.
  • Doanh nghiệp cần thiết lập quy trình chuyển tiền nhiều lớp (2-3 bước). Ví dụ: Mọi lệnh chuyển tiền từ lãnh đạo phải được xác nhận lại qua ít nhất hai kênh độc lập như email nội bộ, chữ ký số hoặc cuộc gọi trực tiếp với người thứ hai trong ban lãnh đạo, nhằm tránh rủi ro bị giả danh qua video Deepfake.

FAQ – Những câu hỏi thường gặp về lừa đảo Deepfake, Deepvoice

  1. Làm sao phân biệt cuộc gọi bình thường và Deepfake?

Bạn có thể nhận biết thông qua một số dấu hiệu bất thường như hình ảnh và âm thanh có độ trễ nhẹ, chuyển động miệng không khớp với lời nói, khuôn mặt trông hơi “mờ” hoặc thiếu tự nhiên, cùng với giọng nói nghe đều đều, thiếu cảm xúc như người thật.

  1. Deepvoice sao chép giọng nói từ đâu?

Kẻ gian chỉ cần từ 3 đến 10 giây âm thanh lấy từ các nguồn công khai như video TikTok, Facebook, clip cá nhân, cuộc gọi hoặc video đăng trên mạng là đã có thể huấn luyện AI để tạo ra giọng nói giả rất giống giọng thật.

  1. Nếu nghi ngờ cuộc gọi là Deepfake thì nên làm gì?

Cách an toàn nhất là tắt cuộc gọi ngay lập tức, sau đó chủ động liên hệ lại với người đó bằng số điện thoại chính chủ hoặc kênh liên lạc quen thuộc, đồng thời tuyệt đối không chuyển tiền trong bất kỳ tình huống nào khi chưa xác minh rõ ràng.

  1. Có phần mềm phát hiện Deepfake không?

Hiện đã có một số công cụ AI hỗ trợ phát hiện Deepfake, tuy nhiên hiệu quả chưa thể đảm bảo 100% do công nghệ giả mạo ngày càng tinh vi. Vì vậy, phương án an toàn nhất vẫn là xác minh thông tin qua nhiều kênh độc lập.

  1. Deepfake có thể giả mạo hoàn toàn 100% không?

Hiện tại thì chưa. Deepfake vẫn thường để lộ những điểm bất thường nhỏ như chuyển động thiếu tự nhiên, ánh sáng không đồng nhất, giọng nói hơi cứng hoặc phản hồi chậm, và nếu đủ bình tĩnh, người dùng hoàn toàn có thể nhận ra những dấu hiệu này.

Kết luận

Lừa đảo cuộc gọi video Deepfake, Deepvoice đang trở thành xu hướng tấn công mới với mức độ nguy hiểm rất cao. Trong bối cảnh này, việc chủ động trang bị kiến thức, giữ bình tĩnh để quan sát kỹ các dấu hiệu bất thường trong cuộc gọi và luôn xác minh thông tin qua nhiều bước là cách hiệu quả nhất để bảo vệ bản thân. Hãy luôn cảnh giác trước mọi yêu cầu chuyển tiền khẩn cấp qua mạng, bởi chỉ một phút mất cảnh giác cũng có thể dẫn đến thiệt hại lớn về tài sản.

ads-3
share facebook
Author

Tác giả:

Phan Hòa

Đã đóng góp: 1 bài viết

Bài viết liên quan