Theo Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (Bộ Công an), năm 2023, tổng số tiền người dân Việt bị lừa đảo chiếm đoạt trên mạng vào khoảng 8.000 - 10.000 tỷ đồng. Đây mới là con số của người trình báo. Còn theo Liên minh Chống lừa đảo toàn cầu (GASA), Việt Nam có số người bị lừa đảo qua mạng chiếm tỷ lệ hàng đầu Đông Nam Á. Các đối tượng lừa chủ yếu ở nước ngoài, hình thành hệ thống vòi bạch tuộc lớn mạnh như một ngành công nghiệp lừa đảo.
Bài 4: Mặt trái đáng sợ của công nghệ AI
Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) đang được băng nhóm lừa đảo sử dụng nhằm tạo sự tin tưởng với nạn nhân và lừa họ chuyển tiền. Chuyên gia an ninh mạng cảnh báo, deepfake có thể tạo ra “một làn sóng lừa đảo thế hệ 4.0”.
Thoát nạn trong gang tấc chỉ nhờ may mắn
Người viết vệt bài lừa đảo online này, vốn cảnh giác rất cao, cũng suýt bị lừa, nếu nhanh tay… một tíc tắc.
Sau kỳ nghỉ Tết 4 ngày, tôi bất ngờ nhận được cuộc gọi video call của N.T.Minh từ ứng dụng Facebook Messenger. Sau lời hỏi thăm, chúc Tết, N.T.Minh chuyển giọng gấp gáp: “Đầu năm, ngại quá, nhưng bỏ đi cơ hội này thì đứt ruột. Tôi có được đơn hàng lớn, mà vốn lưu động thiếu một chút. Tôi mượn anh em, bạn bè mỗi người một ít, cỡ 30 triệu đồng trong 10 ngày thôi, trả lại ngay. Giúp tôi chút nhé! Số tài khoản của tôi…”.
Các đối tượng lừa đảo dùng công nghệ AI giả công an gọi video call; hoặc chiếm tài khoản mạng xã hội rồi gọi video call/nhắn tin cho bạn bè, người thân của nạn nhân để lừa vay tiền hoặc các mục đích bất hợp pháp khác...
N.T.Minh là giám đốc một doanh nghiệp tư nhân tại Hà Nội, là bạn thân của tôi từ hồi đại học, lại là đồng hương và hơn nữa, 15 năm qua, chúng tôi thường xuyên gặp mặt hoặc tương tác trên mạng.
Theo thống kê của các tổ chức quốc tế, trung bình một kẻ lừa đảo thông qua công nghệ AI đã đánh cắp 81.000 - 97.000 USD trước khi vụ lừa đảo bị phanh phui và gây thiệt hại cho các tổ chức tài chính hàng tỷ USD mỗi năm.
Tại Việt Nam, Trung tâm Giám sát an toàn không gian mạng quốc gia cho biết, thời gian qua, Trung tâm thường xuyên nhận được báo cáo về những vụ việc lừa đảo qua video call. Trên thực tế, đã có nhiều trường hợp tại Hà Nội, Thái Nguyên, Tuyên Quang… bị lừa hàng trăm triệu đồng bởi các cuộc gọi video deepfake.
Trên video call, tôi nhận ra đúng là N.T.Minh, từ khuôn mặt, ánh mắt tới cử chỉ, thậm chí cả phương ngữ đặc trưng của quê hương chúng tôi. Chiếc áo khoác mà Minh đang mặc và bối cảnh phía sau Minh cũng đúng là khung cảnh Hà Nội mùa lạnh. Bạn thân khẩn khoản như vậy, lại vay số tiền không lớn, tôi không nỡ từ chối.
May mắn, trong tíc tắc, khi tôi chuẩn bị “bấm nút” chuyển khoản online, thì chuông điện thoại reo vang và lại cũng là giọng N.T.Minh gấp gáp: “Facebook của tôi bị chiếm và bị giả video call gọi điện vay tiền khắp nơi. Đừng chuyển nhé!”. Minh đã phải gọi hàng trăm cuộc điện thoại như vậy cho cả bố mẹ, họ hàng, đồng nghiệp và bạn bè khắp nơi để ngăn chặn chuyển khoản.
N.T.Minh bị chiếm đoạt tài khoản Facebook sau khi trò chuyện cực ngắn qua video call với người bạn (sẽ bị thu thập âm điệu, giọng nói, hình ảnh) và click vào đường link (để chiếm tài khoản) đề nghị giúp bình chọn cho con dự thi… vua đầu bếp nhí.
Nhiều người trở thành nạn nhân của AI
Chúng tôi chỉ là số ít may mắn “thoát nạn”. Theo Ngô Minh Hiếu, chuyên gia an ninh mạng tại Trung tâm Giám sát và An toàn không gian mạng quốc gia (Bộ Thông tin và Truyền thông), Trưởng nhóm Dự án chống lừa đảo trên mạng, lừa đảo dùng công nghệ AI được tội phạm quốc tế áp dụng từ khoảng 3 năm trở lại đây.
Tại Việt Nam, từ đầu năm 2023, Công an TP.HCM từng cảnh báo, kẻ lừa đảo đã dùng công nghệ deepfake để giả dạng hình ảnh và giọng nói cán bộ cơ quan chức năng (cán bộ công an, cơ quan thuế...) để lừa đảo.
Không chỉ dừng ở lực lượng công an, đối tượng lừa đảo còn sử dung video call giả mạo lực lượng quân đội. Theo Cục Chính trị Quân khu 7, tính từ tháng 7/2023 đến nay, trên địa bàn Quân khu 7 (gồm TP.HCM, Long An, Tây Ninh, Bình Dương, Bình Phước, Đồng Nai, Bà Rịa - Vũng Tàu, Lâm Đồng và Bình Thuận) đã phát hiện tới 75 vụ giả mạo cán bộ nhân viên quân đội để lừa đảo chiếm đoạt tài sản. Ngoài gọi điện thoại, video call của các đối tượng còn “đầy đủ” quân phục, khiến nạn nhân tin tưởng, mất cảnh giác. Trên thực tế, các cơ quan, đơn vị quân đội không làm việc như những tình huống trên.
Thời gian gần đây, theo Cục An toàn thông tin (Bộ Thông tin và Truyền thông), đã không ít người bị kẻ lừa đảo dùng công nghệ AI lừa gạt số tiền lớn.
Theo chuyên gia công nghệ thông tin, deepfake là từ được ghép lại từ hai chữ “deep” trong “deep-learning” (học sâu) và “fake” (giả mạo). Deepfake có thể hiểu là một công nghệ trí tuệ nhân tạo (AI) tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô. Nó có khả năng học hỏi từ dữ liệu phi cấu trúc (chẳng hạn khuôn mặt người), thậm chí có thể thu thập dữ liệu về các chuyển động vật lý của con người.
Deepfake sẽ quét video và ảnh chân dung của một người, sau đó hợp nhất với video riêng biệt và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều dữ liệu gốc, độ chân thực của video deepfake càng cao, đến mức gần như không thể phân biệt với video thật. Vì vậy, deepfake trở thành công cụ đắc lực phục vụ mục đích bất hợp pháp của các loại tội phạm công nghệ cao.
Điển hình, theo đơn kêu cứu của L.T.H (nhân viên văn phòng tại Hà Nội ), trong một lần trò chuyện với bạn qua Facebook Messenger, người bạn của H. đã chào và kết thúc câu chuyện, nhưng đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng. Dù tên tài khoản trùng khớp với tên bạn mình, H. vẫn thoáng nghi ngờ, nên gọi video call để xác thực. Người bạn đồng ý ngay, nhưng cuộc gọi chỉ kéo dài vài giây do “mạng chập chờn”, theo giải thích của người bạn.
Khi đã thấy mặt bạn mình trong cuộc gọi video, giọng nói cũng đúng của người này, H. không còn nghi ngờ và chuyển tiền. Tuy nhiên, chỉ sau khi chuyển tiền thành công, H. mới biết mình đã mắc bẫy của hacker.
Không chỉ H., nhiều nạn nhân khác là bạn bè, người thân của người bạn đó cũng bị lừa theo cách tương tự. Số tiền kẻ xấu lừa được từ tài khoản Facebook đó lên tới hàng chục triệu đồng.
Theo chuyên gia của Bkav, trong những trường hợp trên, đối tượng xấu đã kiểm soát được tài khoản Facebook, nhưng không lập tức chiếm đoạt hoàn toàn, mà âm thầm theo dõi, chờ cơ hội, tạo sẵn đoạn video giả mạo gương mặt, giọng nói của chủ tài khoản Facebook (deepfake) rồi sử dụng để hỏi vay tiền bạn bè, người thân của họ.
Cảnh báo về một “làn sóng lừa đảo thế hệ 4.0”
Đề cập tình trạng lừa đảo bằng video call giả mạo, Ngô Minh Hiếu cho biết, trước đây, hình ảnh và giọng nói, chất lượng video call giả mạo (deepfake) chưa được rõ ràng, sắc nét, bởi các đối tượng lừa đảo chủ yếu thu thập hình ảnh hay một đoạn clip của nạn nhân trên mạng có độ phân giải thấp, hoặc thiết bị sử dụng cấu hình thấp, thuật toán phần mềm deepfake chưa cao. Tuy nhiên, thời gian gần đây, nhiều video call lừa đảo có hình ảnh “mượt” và sắc nét đến mức mắt thường khó phân biệt.
Điều đó cho thấy, băng nhóm lừa đảo đã đầu tư nâng cao chất lượng hình ảnh đầu ra, tạo video hình ảnh giống như thật.
Các chiến dịch lừa đảo cũng trở nên tự động hóa hơn, với khả năng mục tiêu hóa cá nhân dựa trên dữ liệu thu thập được từ mạng xã hội và các nguồn khác. Đó là chưa nói, tội phạm công nghệ cao có thể sẽ phát triển các loại malware (phần mềm độc hại) thông minh hơn, có khả năng tự học hỏi và thích nghi để tránh bị phát hiện bởi phần mềm diệt virus.
Ngô Minh Hiếu dự báo, lừa đảo áp dụng công nghệ AI có thể sẽ tạo ra một “làn sóng lừa đảo thế hệ 4.0”, gây ra những thách thức lớn trong việc xác minh thông tin.
Làn sóng lừa đảo này khiến nhiều người vốn rất cẩn thận, cảnh giác cao độ cũng có thể bị lừa. “Trong đó, đáng lo nhất là những người từ độ tuổi trung niên trở lên, họ dễ bị lừa nhất vì thiếu kiến thức về an toàn thông tin, hiểu biết về công nghệ và khó nhận biết kiểu lừa này nếu không có được sự chia sẻ, hướng dẫn an toàn trên không gian mạng”, Ngô Minh Hiếu lo lắng!