Mấy ngày nay mạng xã hội đang lan truyền thủ đoạn gọi video giả và giả giọng người thân để lừa đảo. Thủ đoạn này được gọi là Deepfake. Vậy, Deepfake là gì? Tại sao có thể giả giọng, mặt người thân để lừa đảo?
Deepfake là gì?
Thuật ngữ "Deepfake" là sự kết hợp giữa "deep learning" và "fake". Công nghệ này được xây dựng trên nền tảng machine learning mã nguồn mở của Google. Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc.
Hiện nay Deepfake đang trở thành nỗi ám ảnh khi trở thành "bóng ma" trong thế giới Internet được dùng để lừa đảo, thao túng thị trường.
Ở Việt Nam, Deepfake bắt đầu được cộng đồng quan tâm vì những nguy cơ tiềm tàng. Tại hội thảo Tech Talks do VnExpress tổ chức từ 13h đến 18h ngày 8/1, các chuyên gia công nghệ nổi tiếng, như CEO Bkav Nguyễn Tử Quảng, CEO Microsoft Phạm Thế Trường...đã chia sẻ góc nhìn về Deepfake cũng như cảnh báo nguy cơ bảo mật và cách hạn chế rủi ro trong kỷ nguyên kết nối.
Cách thức hoạt động của Deepfake
Cách thức hoạt động của Deepfake liên quan đến quá trình "học" của trí tuệ nhân tạo. Từ đó, hình ảnh khuôn mặt của một số đối tượng nhất định (tạm gọi là đối tượng A) với chất lượng cao được thay thế hoàn toàn bằng khuôn mặt của một người khác (đối tượng B).
Ảnh nén của A được đưa vào bộ giải mã của B. Bộ giải mã sau đó tái tạo lại khuôn mặt của người B với biểu cảm và hướng khuôn mặt của người A. Quá trình này được thực hiện liên tục, chi tiết đến khi cho ra sản phẩm “thật” nhất.
Tại sao Deepfake có thể giả giọng, mặt người thân để lừa đảo?
Nắm bắt được tâm lý người dùng mạng xã hội hiện cảnh giác với chiêu trò lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng chiêu lừa đảo tinh vi hơn để vay tiền thông qua hình thức giả cuộc gọi video.
Thủ đoạn của các đối tượng lừa đảo là lấy những video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để khi thực hiện hành vi lừa đảo sẽ phát lại video dưới hình thức mờ ảo, chập chờn như đang ở nơi sóng yếu.
Theo các chuyên gia về công nghệ, phương thức của các đối tượng này thường là tìm kiếm thu thập thông tin cá nhân được đăng tải công khai trên các tài khoản mạng xã hội… để tạo ra một kịch bản lừa đảo. Khi nạn nhân cẩn thận sẽ gọi điện thoại hoặc video để kiểm tra thì chúng sử dụng phần mềm cắt ghép hình ảnh để đánh lừa.
Cơ quan chức năng nhiều lần đưa ra cảnh báo với người dân cần đặc biệt cảnh giác với thủ đoạn lừa đảo tinh vi này. Khi có ai đó đề nghị mượn tiền, người dân cần thận trọng xác minh xem đó có phải là bạn bè, người thân của mình hay không.
Gần đây, các nạn nhân bị lừa đảo bằng các hình thức giả danh Facebook, hack Facebook để lừa tiền ngày càng có xu hướng gia tăng trên khắp cả nước. Các đối tượng lừa đảo dùng thủ đoạn rất tinh vi, có thể xảy ra với bất cứ ai và bất cứ thời điểm nào. Các đối tượng lừa đảo gọi cuộc gọi video call để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả làm nhân vật nào đó khi kết bạn hẹn hò qua mạng để phục vụ cho các kịch bản chúng chuẩn bị sẵn.
Công an các địa phương liên tục đưa ra những khuyến cáo với người dân, khi nhận bất kỳ tin nhắn vay mượn tiền thông qua mạng xã hội, người dân cần điện thoại trực tiếp cho người thân để xác minh. Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.
Bình luận