• Zalo

Cảnh báo ChatGPT trở thành vũ khí lừa đảo mới

AIThứ Hai, 15/05/2023 11:46:00 +07:00Google News
(VTC News) -

AI tạo sinh (Generative AI) như ChatGPT đang cho phép những kẻ lừa đảo bắt chước giọng nói, viết các email lừa đảo tinh vi hơn và tạo phần mềm độc hại.

AI tạo sinh đang đặt ra hàng loạt rủi ro an ninh mạng, đặc biệt là trong các vụ lừa đảo qua mạng phổ biến ở Hồng Kông, theo một công ty an ninh mạng đang triển khai AI để chống lại mối đe dọa này.

Cảnh báo ChatGPT trở thành vũ khí lừa đảo mới - 1

Các email lừa đảo và các cuộc gọi giả giọng được tạo ra bởi trí tuệ nhân tạo đang trở nên tinh tế hơn và khó phát hiện hơn. (Ảnh: Shutterstock)

Tại Hong Kong, những kẻ thực hiện vụ lừa đảo thông qua các cuộc trò chuyện trực tuyến, cuộc gọi điện thoại và tin nhắn văn bản đã lừa mọi người 4,8 tỷ đô la Hồng Kông (611,5 triệu đô la Mỹ). Âm thanh, video và văn bản do AI tạo ra đang khiến những kiểu lừa đảo này trở nên khó phát hiện hơn.

Theo ông Kim-Hock Leow, Giám đốc điều hành châu Á của Wizlynx Group, một công ty dịch vụ an ninh mạng có trụ sở tại Thụy Sĩ, cho biết sự xuất hiện của các công cụ AI tạo sinh như ChatGPT sẽ cho phép một số loại lừa đảo trở nên phổ biến và hiệu quả hơn. 

Ông chia sẻ: “Chúng ta có thể thấy rằng việc bắt chước giọng nói và video đang ngày càng trở nên chân thực hơn và nó có thể được sử dụng bởi những kẻ đang tìm cách đánh cắp thông tin và an ninh mạng của công ty”.

Các chính phủ đang bắt đầu hành động trước sự gia tăng của hình thức lừa đảo qua mạng. Vào tháng 2, cục Công an Thành phố Bắc Kinh đã cảnh báo trong một tuyên bố trên WeChat rằng những kẻ lừa đảo có thể sử dụng AI để “phạm tội và lan truyền tin đồn”. Bên cạnh đó, vào tháng 3, Ủy ban Thương mại Liên bang Mỹ đưa ra cảnh báo về việc những kẻ lừa đảo sử dụng giọng nói AI tạo sinh để mạo danh mọi người chỉ bằng một đoạn âm thanh ngắn về giọng nói của người đó từ trực tuyến.

Cũng theo ông Kim-Hock Leow: “Mọi người đều có khả năng bị tấn công lừa đảo, nhưng chúng dễ dàng bị phát hiện do độ dài, lỗi chính tả hoặc do chúng thiếu bối cảnh liên quan đến bạn và công việc của bạn. Nhưng giờ đây, tội phạm mạng có thể sử dụng các mô hình ngôn ngữ AI mới để tăng độ phức tạp cho các email lừa đảo của chúng”.

Cách mà những hành vi lừa đảo được thực hiện là sử dụng một công cụ như ChatGPT để truy quét và chuyên nghiệp hóa ngôn ngữ của tin nhắn. Điều này có thể bao gồm việc nhanh chóng tiến hành nghiên cứu cơ bản để bổ sung thông tin theo ngữ cảnh nhằm cá nhân hóa các email lừa đảo.

Các công ty tài chính hiện nay đang tự triển khai ChatGPT để chống lại những hành vi lừa đảo tinh vi này. Họ sử dụng chatbot để tạo email lừa đảo cho mục đích đào tạo chống gian lận, đồng thời xác định các lỗ hổng và tiến hành nghiên cứu về các hệ thống an ninh mạng.

“Dựa trên kiến ​​thức và dữ liệu mà AI có thể thu thập và tạo ra theo thời gian, các chuyên gia an ninh mạng có thể sử dụng nó để nhận dạng chính xác các khu vực dễ bị tổn thương và rủi ro của hệ thống bảo mật”, ông Leow chia sẻ.

Ông nói thêm: “Chúng tôi phải khuyến khích các chuyên gia an ninh mạng và các ngành khác sử dụng chính ChatGPT để cải thiện khả năng phòng thủ. Theo một cách nào đó, nó là con dao hai lưỡi sẽ được sử dụng cho cả an ninh mạng và tội phạm mạng”.

Các điều khoản dịch vụ từ OpenAI, đơn vị tạo ra ChatGPT, nghiêm cấm việc sử dụng công nghệ của họ cho các mục đích bất hợp pháp. Nhưng theo ông Leow, vẫn tồn tại nguy cơ cho những kẻ xấu có thể vượt qua các bộ lọc của ChatGPT.

Theo một báo cáo từ Cybersecurity Ventures, tội phạm mạng dự kiến ​​sẽ gây thiệt hại 8 nghìn tỷ đô la Mỹ trên toàn cầu trong năm nay bao gồm tiền bị đánh cắp, mất mát tài sản và giảm năng suất. 

Trước mối đe dọa này, một cuộc chạy đua vũ trang AI có thể diễn ra trong lĩnh vực an ninh mạng. “Trong thời gian tới, chúng ta sẽ thấy các nhóm an ninh nắm bắt một cách hiệu quả AI để cải thiện nhận dạng mối đe dọa và tự động hóa phần lớn quá trình phòng thủ”. theo ông David Fairman, giám đốc thông tin khu vực châu Á - Thái Bình Dương của Netskope.

Khánh Ly(Nguồn: SCMP)
Bình luận
vtcnews.vn