Cảnh giác trước chiêu trò lừa tiền bằng hình ảnh và giọng nói do AI giả mạo

07:19 | 06/02/2024

Theo dõi Kinh tế Xây Dựng trên
|
Lợi dụng những tiện ích từ công nghệ trí tuệ nhân tạo AI, các đối tượng lừa đảo thời gian gần đây đã tạo nên những hình ảnh và giọng nói giả mạo để lừa tiền người dân.

Cảnh giác trước chiêu trò lợi dụng công nghệ cao lừa đảo tinh vi

Mới đây, các chuyên gia an ninh mạng Bkav đã phát đi cảnh báo về tình trạng các đối tượng lừa đảo sử dụng AI tạo hình ảnh và giọng nói giả mạo để lừa tiền.

Theo các chuyên gia, thời gian gần đây, nhiều người đã bất đắc dĩ trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và có sự tham gia của AI (trí tuệ nhân tạo).

Chị Nguyễn Thanh H – một nhân viên văn phòng tại Hà Nội chia sẻ, trong một lần trò chuyện với bạn qua Facebook messenger, người bạn của chị H đã chào và kết thúc câu chuyện nhưng đột nhiên bạn quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng.

Dù tên tài khoản trùng khớp với tên bạn của chị H nhưng chị vẫn thoáng nghi ngờ và yêu cầu gọi video để xác thực. Người bạn đồng ý ngay nhưng cuộc gọi chỉ kéo dài vài giây do "mạng chập chờn" - theo giải thích của người bạn.

Vì đã thấy mặt bạn mình trong cuộc gọi video, giọng nói cũng đúng, chị H không còn nghi ngờ và chuyển tiền. Tuy nhiên, chỉ sau khi chuyển tiền thành công, chị H mới biết mình đã mắc bẫy của hacker.

Cảnh giác trước chiêu trò lừa tiền bằng hình ảnh và giọng nói do AI giả mạo
Ảnh minh họa, https://kinhtexaydung.petrotimes.vn

Cũng giống như chị H, trong thời gian gần đây, rất nhiều nạn nhân khác cũng bị lừa theo cách tương tự. Số tiền kẻ xấu lừa được từ tài khoản Facebook lên tới hàng chục triệu đồng.

Nửa cuối năm 2023, Tập đoàn Bkav liên tục nhận được các báo cáo và yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo tương tự. Theo các chuyên gia của Bkav, trong trường hợp của chị H, kẻ xấu đã kiểm soát được tài khoản Facebook nhưng không lập tức chiếm đoạt hoàn toàn mà âm thầm theo dõi, chờ cơ hội giả làm nạn nhân để hỏi vay tiền bạn bè, người thân của họ.

Hacker sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake). Khi được yêu cầu gọi điện video call để chứng thực, các đối tượng này đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm nghiên cứu mã độc (AntiMalware) của Bkav, cho biết, khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều.

Trước tình trạng trên, các chuyên gia Bkav khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (căn cước công dân, tài khoản ngân hàng, mã OTP…), không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo.

Khi có yêu cầu vay hoặc chuyển tiền vào tài khoản qua mạng xã hội, người dân nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại.

Năm 2024, tình trạng lừa đảo bằng công nghệ cao sẽ tiếp tục diễn biến phức tạp

Cảnh giác trước chiêu trò lừa tiền bằng hình ảnh và giọng nói do AI giả mạo
Ảnh minh họa, https://kinhtexaydung.petrotimes.vn

Dự báo về tình hình an ninh mạng năm 2024, các chuyên gia an ninh mạng Bkav cho hay, sự phát triển nhanh chóng của AI không chỉ mang lại những lợi ích rõ ràng mà còn tạo ra những nguy cơ đáng kể cho an ninh mạng.

Thách thức lớn nhất đối diện với công nghệ AI ngày nay là lừa đảo và tấn công có chủ đích APT, với mức độ ngày càng phức tạp của các kịch bản lừa đảo, đặc biệt khi kết hợp giữa Deepfake và GPT. Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo sẽ khó khăn hơn đối với người dùng.

https://kinhtexaydung.petrotimes.vn

Khánh An

sohuutritue.net.vn

ajinomoto
thaco