Công nghệ AI - nỗi lo của “làn sóng” lừa đảo

01/12/2023
Lợi dụng tiện ích của công nghệ thông tin, gần đây đã xuất hiện các đối tượng dùng trí tuệ nhân tạo (AI) để ghép mặt, giọng nói nhằm thực hiện hành vi lừa đảo trực tuyến, chiếm đoạt tài sản.
Thiếu tướng Nguyễn Thanh Tùng, Phó Giám đốc Công an TP Hà Nội phát biểu tại buổi họp báo ngày 28/3/2023. Ảnh: CAND

Deepfake và nguy cơ làn sóng lừa đảo 

Được biết đến nhiều nhất với tác dụng tái tạo lại khuôn mặt của người trong video, Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI). Ban đầu, công nghệ này được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế. 

Chuyên gia công nghệ Vũ Ngọc Sơn, Công ty công nghệ an ninh mạng Việt Nam (NCS) cho biết, Deepfake sinh ra không phải với mục tiêu xấu. Đó đơn thuần là ứng dụng mang tính giải trí. Trước kia, có rất nhiều phần mềm chụp ảnh tĩnh cho phép người dùng ghi lại khoảnh khắc dưới hình dáng của nhân vật hoạt hình hay siêu sao.

Deepfake là một cải tiến mới, thay vì ảnh tĩnh thì nhân vật trở nên sống động, hấp dẫn hơn, có những pha hành động, diễn xuất như thật hay giọng nói khớp với cử động khuôn mặt. Đây là bước tiếp theo của trào lưu chế ảnh, lồng tiếng hài hước cho clip từng gây sốt trong thời gian trước đây.

Hiện, trên không gian mạng đang có nhiều công cụ hỗ trợ các đối tượng tạo ra các video Deepfake, đây chính là “mảnh đất màu mỡ”, điều kiện thuận lợi cho các tội phạm lừa đảo sử dụng để tạo nên các chiêu thức lừa đảo mới. 

Ông Ngô Minh Hiếu, đồng sáng lập dự án ChongLuaDao.vn và Threat Hunter, Trung tâm Giám sát an toàn không gian mạng quốc gia cho rằng, video Deepfake mới xuất hiện tại Việt Nam nhưng thực tế chiêu thức lừa đảo, giả mạo bằng sử dụng công nghệ ứng dụng AI này đã được các nhóm tội phạm quốc tế áp dụng từ khoảng 2-3 năm gần đây.

Tới đây, khi tội phạm mạng tại Việt Nam biết nhiều hơn các cách đánh cắp video và hình ảnh, cắt ghép sau đó dùng những công cụ được hướng dẫn trên mạng để tạo Deepfake - thì sẽ diễn ra một làn sóng lừa đảo thế hệ 4.0 khiến nhiều người lâu nay rất khó bị lừa cũng trở thành nạn nhân. 

Hiện nay, các ứng dụng Deepfake đang ngày càng phổ biến, thậm chí gây lo ngại về việc mất kiểm soát. 

Lợi dụng các ứng dụng Deepfake, các đối tượng lừa đảo đã làm ra các clip có nội dung mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ. Đáng lưu ý, những người tuổi trung niên trở lên là đối tượng dễ bị lừa nhất vì họ thiếu nhận thức về an toàn thông tin, công nghệ và khó nhận biết kiểu lừa đảo tinh vi này.

Trung tá Triệu Mạnh Tùng, Phó Cục trưởng Cục An ninh mạng và phòng chống tội phạm sử dụng công nghệ cao (Cục A05 - Bộ Công an), cho biết, hiện nay các đối tượng đã sử dụng thành thạo công nghệ ứng dụng trí tuệ nhân tạo AI vào các mục đích lừa đảo, chiếm đoạt tài sản.

Dẫn giải công nghệ dùng để giả hình ảnh, giọng nói của người khác rồi tương tác với bị hại, ông Tùng cho hay, khi chiếm được lòng tin của bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính để lừa đảo, chiếm đoạt dưới nhiều hình thức.

Lãnh đạo Bộ Công an đã tổ chức làm việc với Bộ Thông tin và Truyền thông, Ngân hàng Nhà nước về việc nâng cao chất lượng định danh tài khoản điện thoại, tài khoản ngân hàng; tìm cách làm sạch toàn bộ hệ thống cơ sở dữ liệu tài khoản ngân hàng, các tài khoản ngân hàng phải được mở tài khoản chính chủ.

Ảnh minh họa

Làm sao để phòng tránh lừa đảo? 

Thiếu tướng Nguyễn Thanh Tùng, Phó Giám đốc Công an TP Hà Nội cho biết thêm, gần đây, các đối tượng lừa đảo chuyển sang hình thức tìm việc làm, tai nạn giao thông... diễn biến rất phức tạp, sử dụng những hình ảnh cắt ghép, đưa các quyết định tố tụng của các cơ quan tố tụng lên mạng thực hiện hành vi lừa đảo để các bị hại sợ, tin, buộc phải chuyển tiền. 

Ông Nguyễn Thanh Tùng thông tin, đơn vị từng chủ trì chuyên án, đấu tranh bắt giữ một ổ nhóm liên quan lừa đảo chiếm đoạt tài sản, rửa tiền tại Campuchia. Từ vụ án trên đã truy nã các đối tượng cầm đầu người Trung Quốc. Qua nhiều vụ án đã bị triệt phá, xác định "tội phạm lừa đảo qua mạng không phải nằm ở Việt Nam mà ở nước ngoài". Thời gian tới sẽ tích cực phối hợp tương trợ tư pháp, điều tra chung để bắt giữ các loại tội phạm này. 

Giám đốc Kỹ thuật Công ty NCS Vũ Ngọc Sơn cho hay, do năng lực tính toán của các ứng dụng Deepfake chưa thực sự trở nên hoàn hảo nên các clip chế từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Khuôn mặt khá cứng và ít cảm xúc hơn. Hình thể nhân vật trong Deepfake ít di chuyển hơn, ít quay ngang ngửa mặt hoặc cúi mặt so với các clip thông thường, không có các hành động đưa tay dụi mặt hay che mặt vì AI sẽ xử lý lỗi khi khuôn mặt bị che đi một phần. Vì thế, nếu để ý kỹ có thể phát hiện ra được. Ông Sơn cho rằng, người dùng nên tinh ý, quan sát kỹ các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, khuôn mặt không quay ngang ngửa, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ.

Ảnh minh họa

Theo ông Vũ Ngọc Sơn, điều quan trọng nhất là người dùng cần nâng cao cảnh giác. Không tin tưởng nếu nhận được các clip hoặc cuộc gọi video ngắn, chất lượng hình ảnh hoặc âm thanh không tốt; kiểm tra lại bằng cách gọi điện trực tiếp bằng điện thoại thông thường; yêu cầu người gọi đưa tay lên mặt hoặc quay trái, quay phải; trao đổi càng nhiều càng tốt với người gọi để đảm bảo cuộc gọi là thật chứ không phải là đang nói chuyện với một video được ghi hình sẵn. Đặc biệt, người dùng không chuyển tiền, gửi thông tin vào các địa chỉ, tài khoản lạ.

Đưa ra khuyến nghị của chuyên gia Ngô Minh Hiếu cho rằng, để tránh bị lừa thì tốt nhất là người dùng cần tỉnh táo, nâng cao cảnh giác. Khi có một ai đó trên mạng xã hội, trong danh sách bạn bè của mình mà tự nhiên hỏi mượn tiền hay gửi link lạ thì không nên vội, hãy bình tĩnh, kiểm chứng và xác thực lại. 

Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao. Vì vậy, người dùng có thể chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất hơn1 phút, sau đó giả vờ đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết. 

Báo Phụ nữ Thủ đô

TÂM ĐIỂM

CÁC ĐỀ ÁN

Video