Phát biểu ngày 11/3, Đô đốc Brad Cooper, Tư lệnh Bộ Chỉ huy Trung tâm Mỹ (CENTCOM), cho biết AI đang hỗ trợ binh sĩ Mỹ xử lý lượng dữ liệu khổng lồ phục vụ hoạt động tác chiến.
“Các binh sĩ của chúng tôi đang khai thác nhiều công cụ AI tiên tiến. Những hệ thống này giúp chúng tôi sàng lọc khối lượng dữ liệu khổng lồ chỉ trong vài giây, để các chỉ huy có thể loại bỏ thông tin nhiễu và đưa ra quyết định nhanh hơn đối phương có thể phản ứng”, ông Cooper nói trong một thông điệp video.

Đô đốc Brad Cooper, Tư lệnh Bộ Chỉ huy Trung tâm Mỹ, đưa ra thông báo trên tàu sân bay lớp Nimitz USS Abraham Lincoln tại Biển Ả Rập ngày 7/2. (Ảnh tư liệu: Sonny Escalante/Hải quân Mỹ/Phát qua Reuters)
Theo ông, quyết định cuối cùng về mục tiêu tấn công vẫn do con người đưa ra, nhưng AI có thể rút ngắn đáng kể thời gian xử lý thông tin.
“Con người luôn là người quyết định cuối cùng về việc bắn vào đâu, không bắn vào đâu và khi nào bắn. Nhưng các công cụ AI tiên tiến có thể biến những quy trình trước đây mất hàng giờ, thậm chí nhiều ngày, thành chỉ vài giây”, ông Cooper nhấn mạnh.
Việc Mỹ công khai sử dụng AI trong chiến dịch quân sự tại Iran diễn ra trong bối cảnh ngày càng có nhiều tranh cãi về vai trò của công nghệ này trong chiến sự, đặc biệt khi số thương vong dân sự trong xung đột gia tăng. Theo các số liệu được công bố, chiến dịch quân sự của Mỹ và Israel đã khiến ít nhất 1.300 người thiệt mạng tại Iran kể từ khi bắt đầu ngày 28/2.
Theo NBC News, một số nguồn tin cho biết quân đội Mỹ đang sử dụng phần mềm phân tích dữ liệu của công ty Palantir để xác định các mục tiêu tiềm năng cho các cuộc không kích. Hệ thống này một phần dựa vào công nghệ AI Claude do công ty Anthropic phát triển.
Claude hiện là thành phần quan trọng trong chương trình phân tích tình báo Maven của Palantir, giúp các nhà phân tích quân sự sàng lọc dữ liệu tình báo. Theo một nguồn tin am hiểu về sự hợp tác giữa Anthropic và Bộ Quốc phòng Mỹ, hệ thống này không trực tiếp đưa ra khuyến nghị tấn công mục tiêu, mà chỉ hỗ trợ xử lý thông tin.
Tuy vậy, khi AI ngày càng được sử dụng rộng rãi trên chiến trường, nhiều nghị sĩ Mỹ kêu gọi thiết lập các cơ chế kiểm soát chặt chẽ hơn. Hạ nghị sĩ Jill Tokuda, thành viên Ủy ban Quân vụ Hạ viện Mỹ, cho rằng cần tiến hành một cuộc rà soát độc lập để đánh giá liệu AI đã gây tổn hại hoặc đe dọa sinh mạng trong cuộc chiến với Iran hay chưa.
“Phán đoán của con người phải luôn là yếu tố trung tâm trong các quyết định sống còn”, bà nói.

Khói bốc lên ở Tehran sau một vụ nổ trong các cuộc không kích của lực lượng Mỹ và Israel. (Ảnh: Majid Asgaripour/WANA qua Reuters)
Một số nghị sĩ khác cũng cảnh báo rằng các hệ thống AI hiện nay chưa hoàn toàn đáng tin cậy. Hạ nghị sĩ Sara Jacobs cho rằng các công cụ AI có thể mắc lỗi theo những cách khó nhận ra, trong khi người vận hành lại có xu hướng tin tưởng quá mức vào các kết quả do hệ thống đưa ra.
Các chuyên gia công nghệ cũng thừa nhận rằng ngay cả những hệ thống AI tiên tiến nhất hiện nay vẫn có thể mắc lỗi. Trong một cuộc phỏng vấn với NBC tháng trước, Giám đốc điều hành Anthropic Dario Amodei cho biết: “Chúng tôi không thể khẳng định có 100% khả năng rằng ngay cả các hệ thống do chính chúng tôi xây dựng cũng hoàn toàn đáng tin cậy".
Bộ Quốc phòng Mỹ cùng các công ty công nghệ như OpenAI và Anthropic đều tuyên bố rằng các hệ thống AI hiện tại không được phép tiến hành tấn công gây chết người nếu không có sự phê chuẩn của con người. Người phát ngôn Lầu Năm Góc Sean Parnell ngày 26/2 cũng cho biết quân đội Mỹ không muốn phát triển các loại vũ khí tự động có thể hoạt động mà không có sự tham gia của con người.
Thiết bị quân sự bị tấn công trong cuộc không kích của Mỹ trong Chiến dịch Cơn thịnh nộ dữ dội. (Ảnh: CENTCOM qua X/Phát qua Reuters)
Cũng trong thời gian gần đây, Washington vướng vào tranh chấp công khai với công ty công nghệ Anthropic, doanh nghiệp từng ký hợp đồng với Lầu Năm Góc nhưng khẳng định các mô hình AI của họ không được sử dụng cho vũ khí tự động hoàn toàn hoặc các chương trình giám sát quy mô lớn.
Tuần trước, Bộ Quốc phòng Mỹ đã đưa Anthropic vào danh sách rủi ro đối với chuỗi cung ứng an ninh quốc gia, động thái có thể khiến công ty bị loại khỏi các hợp đồng quân sự. Anthropic sau đó đã khởi kiện để phản đối quyết định này.
“Các binh sĩ Mỹ tham gia Chiến dịch Cơn thịnh nộ dữ dội và mọi nhiệm vụ trên toàn thế giới sẽ không bao giờ bị ràng buộc bởi các giám đốc công nghệ không do bầu cử hay hệ tư tưởng của Thung lũng Silicon”, người phát ngôn Lầu Năm Góc Kingsley Wilson cho biết trong một tuyên bố. “Chúng tôi sẽ là người quyết định, chúng tôi sẽ thống trị và chúng tôi sẽ chiến thắng".





Bình luận