Các cuộc trò chuyện với ChatGPT đang ngày càng được cơ quan chức năng sử dụng như nguồn thông tin quan trọng trong các vụ án hình sự, phản ánh xu hướng mới trong điều tra số và đặt ra nhiều tranh cãi về quyền riêng tư.

ChatGPT đang được trở thành một trong những nguồn bằng chứng quan trọng trong các vụ án hình sự. (Ảnh: CNN)
Kho tàng bằng chứng số
Vài ngày trước khi hai nghiên cứu sinh Đại học South Florida (Mỹ) mất tích hồi tháng 4, Hisham Abugharbieh - bạn cùng phòng của một nạn nhân - được cho là đã đặt những câu hỏi bất thường cho ChatGPT.
Trong bản khai do Công tố viên Florida đệ trình, nghi phạm hỏi: “Điều gì sẽ xảy ra nếu một người bị bỏ vào túi rác màu đen và ném vào thùng rác?”.
Sau khi ChatGPT cảnh báo tình huống nguy hiểm, người này tiếp tục hỏi: “Làm sao họ phát hiện ra?”.
Những nội dung sau đó xuất hiện trong hồ sơ buộc tội Abugharbieh với hai tội danh giết người cấp độ một.
Đây không phải trường hợp cá biệt. Trước đó, ChatGPT từng được dùng làm chứng cứ trong một vụ phóng hỏa liên quan cháy rừng tại Los Angeles. Một vụ án giết người năm 2024 ở bang Virginia cũng sử dụng dữ liệu từ AI của Snapchat như chứng cứ quan trọng.
Giới chuyên gia nhận định lịch sử trò chuyện với AI có thể cung cấp cái nhìn rõ nét về động cơ và tâm lý nghi phạm.
“Tôi cho rằng bất kỳ hình thức giao tiếp nào với chatbot AI đều giống như một kho tàng dữ liệu đối với các cơ quan thực thi pháp luật”, chuyên gia an ninh mạng Ilia Kolochenko tại Washington DC, nói. “Nghi phạm tin rằng các tương tác của họ với AI sẽ được giữ bí mật… nên họ thường đặt những câu hỏi rất trực tiếp”.
Trong vụ án tại Florida, ngoài câu hỏi về việc giấu thi thể, Abugharbieh còn hỏi ChatGPT về việc sở hữu súng không giấy phép và khả năng thay đổi số VIN của xe.
Sau khi hai nạn nhân mất tích, các tìm kiếm tiếp tục xuất hiện như: “Có ai sống sót khi bị bắn vào đầu không”, “Hàng xóm có nghe thấy tiếng súng không” hay “Nhiệt độ nước nào gây bỏng ngay lập tức”.
Lực lượng chức năng phát hiện thi thể một nạn nhân trong túi rác, trong khi một bộ hài cốt khác đang chờ xác định danh tính. Nghi phạm hiện bị buộc tội hai tội danh giết người có chủ ý và bị tạm giam không được bảo lãnh.
Theo các chuyên gia, việc sử dụng dữ liệu từ ChatGPT tương tự cách tòa án từng xử lý lịch sử tìm kiếm Google.
“Loại bằng chứng điện tử này có thể tiết lộ động cơ, hành vi và trạng thái tâm lý”, chuyên gia pháp lý Joey Jackson của CNN nhận định.
Không chỉ nội dung người dùng nhập vào, phản hồi của ChatGPT cũng bắt đầu được cơ quan chức năng chú ý.
Tuần trước, tổng chưởng lý Florida mở điều tra hình sự đối với OpenAI, cáo buộc ChatGPT đưa ra “lời khuyên đáng kể” cho nghi phạm một vụ xả súng tại Đại học Bang Florida.
Tại Canada, gia đình nạn nhân trong một vụ xả súng trường học cũng kiện OpenAI và CEO Altman với cáo buộc chatbot có liên quan đến vụ việc.

Hình ảnh người dân chạy trốn khỏi đám cháy được nghi phạm vụ cháy rừng Palisades yêu cầu ChatGPT tạo ra. (Ảnh: Getty Images)
Tranh cãi về quyền riêng tư
Xu hướng diễn ra trong bối cảnh người dùng ngày càng tìm đến chatbot AI để xin lời khuyên pháp lý, y tế và tâm lý. Tuy nhiên, khác với luật sư, bác sĩ hay nhà trị liệu, các cuộc trao đổi với AI không được bảo vệ bởi đặc quyền pháp lý.
Giám đốc điều hành Sam Altman của OpenAI, công ty phát triển ChatGPT, thừa nhận đây là vấn đề lớn: “Mọi người chia sẻ những điều cá nhân nhất trong cuộc sống của họ với ChatGPT, nhưng chúng ta chưa có cơ chế bảo vệ như với bác sĩ hay luật sư. Nếu có kiện tụng, chúng tôi có thể bị yêu cầu cung cấp dữ liệu đó”.
Luật sư Virginia Hammerle ở bang Texas, Mỹ, cho biết: “Mọi thứ nhập vào ChatGPT đều có thể làm chứng cứ”.
Theo chuyên gia pháp lý Joey Jackson, dữ liệu từ AI về bản chất không khác các loại bằng chứng điện tử khác: “Bạn đang nhập dữ liệu vào một ứng dụng nên không có sự bảo vệ đặc biệt nào. Điều đó giống như bạn gọi điện rồi yêu cầu không được dùng cuộc gọi đó chống lại mình”.
Một số ý kiến cho rằng cần thiết lập cơ chế bảo vệ mới. Nils Gilman, cố vấn tại viện nghiên cứu Berggruen Institute, nói: “Nếu mọi người sử dụng AI giống như bác sĩ hay luật sư, họ cũng nên được hưởng các đặc quyền tương tự”.
Tuy nhiên, theo luật hiện hành ở Mỹ và nhiều quốc gia, chatbot AI không có bất kỳ bảo vệ pháp lý nào. Dữ liệu từ AI được xem như mọi dữ liệu điện tử khác.
Luật sư Hammerle nhận định: “Pháp luật vẫn đang cố gắng bắt kịp thực tế”.
Chuyên gia Gilman cảnh báo: “ChatGPT không phải là bạn, không phải luật sư, không phải bác sĩ hay vợ/chồng bạn. Đừng nói chuyện với nó thân thiết như vậy”.



















Bình luận