Theo một báo cáo gần đây của Hội đồng Bảo an Liên Hợp Quốc về cuộc nội chiến ở Libya, các hệ thống vũ khí tự động – thường được gọi là robot sát thủ – có thể đã lần đầu tiên giết người vào năm ngoái. Lịch sử cũng có thể xác định đây là điểm khởi đầu của cuộc chạy đua vũ trang lớn tiếp theo – có thể trở thành cuộc chạy đua cuối cùng của nhân loại.
Hệ thống vũ khí tự động là robot được trang bị vũ khí sát thương, có thể hoạt động độc lập, lựa chọn và tấn công mục tiêu mà không cần con người đưa ra quyết định. Quân đội các nước đang đầu tư rất nhiều vào việc nghiên cứu và phát triển vũ khí tự động. Riêng Mỹ cũng đã đầu tư ngân sách 18 tỷ USD cho phát triển vũ khí tự động từ năm 2016-2020.
Các tổ chức nhân quyền và nhân đạo vẫn đang tích cực vận động để thiết lập các quy định và lệnh cấm phát triển vũ khí như vậy. Giới chuyên gia chính sách đối ngoại cảnh báo, nếu không có những biện pháp ngăn chặn, công nghệ vũ khí tự động sẽ gây mất ổn định nguy hiểm cho các chiến lược hạt nhân hiện tại. Bởi lẽ, vũ khí tự động có thể thay đổi hoàn toàn nhận thức về sự thống trị chiến lược, làm tăng nguy cơ tấn công phủ đầu và vì vũ khí tự động có thể kết hợp với vũ khí hóa học, sinh học, phóng xạ và vũ khí hạt nhân.
Lỗi kỹ thuật không giống lỗi của con người
Giáo sư James Dawes, chuyên gia về nhân quyền tại Đại học Macalester chỉ ra mối nguy hiểm khi sử dụng vũ khí tự động. Đầu tiên là vấn đề xác định mục tiêu. Khi chọn mục tiêu, liệu vũ khí tự động có thể phân biệt kẻ địch và những đứa trẻ đang cầm súng đồ chơi hay không? Liệu nó có phân biệt được dân thường đang chạy trốn khỏi một địa điểm xung đột với binh lính rút lui chiến thuật hay không?
Vấn đề ở đây không phải là máy móc sẽ mắc những lỗi như vậy còn con người thì không. Đó là sự khác biệt giữa lỗi của con người và lỗi thuật toán, giống như khác biệt giữa gửi một bức thư với đăng một dòng tweet.
Chuyên gia về vũ khí tự động Paul Scharre sử dụng phép ẩn dụ về trường hợp khẩu súng vẫn tiếp tục nhả đạn sau khi người dùng đã nhả cò. Khẩu súng bị lỗi sẽ tự bắn cho đến khi hết đạn bởi vì bản thân nó không tồn tại ý thức để biết mình đang mắc lỗi. Tình huống này cực kỳ nguy hiểm, nhưng may mắn thay, súng có con người điều khiển và khi ấy, người dùng có thể giảm thiểu hậu quả bằng cách cố gắng hướng vũ khí về phía an toàn. Vũ khí tự động không có biện pháp bảo vệ như vậy.
Các quân đội đang phát triển vũ khí tự động với tâm lý là họ có thể ngăn chặn các nguy cơ, kiểm soát việc sử dụng chúng. Nhưng lịch sử của ngành công nghiệp vũ khí đã dạy cho thế giới một bài học, đó là khi một loại vũ khí chứng minh được hiệu quả nổi trội, thị trường mua bán sẽ nhanh chóng bùng nổ.
Áp lực thị trường có thể dẫn đến việc chế tạo và bán rộng rãi vũ khí tự động. Robot sát thủ giá thành rẻ, hiệu quả cao và hầu như không thể bị kiểm soát khi chúng lưu hành trên toàn cầu. Vì thế, có nguy cơ vũ khí tự động bị lọt vào tay những thành phần sống ngoài vòng pháp luật, bao gồm cả những kẻ khủng bố.
Một khi thị trường bùng nổ, các nước sẽ cạnh tranh nhau để phát triển các phiên bản vũ khí tự động ngày càng có sức tàn phá khủng khiếp hơn, bao gồm cả những vũ khí có thể tích hợp vũ khí hóa học, sinh học, phóng xạ và hạt nhân.
Các loại vũ khí tự động cao cấp có thể dẫn đến chiến tranh thường xuyên hơn, vì chúng sẽ làm giảm hai yếu tố chính từng ngăn chặn và rút ngắn các cuộc chiến tranh trong lịch sử: mối quan ngại đối với dân thường ở nước ngoài và mối quan tâm đối với các binh sĩ tham chiến. Vũ khí tự động cũng sẽ làm giảm cả nhu cầu và rủi ro đối với binh lính, làm thay đổi đáng kể phân tích chi phí lợi ích mà các quốc gia phải chịu khi phát động và duy trì chiến tranh. Chiến tranh bất đối xứng – tức là chiến tranh được tiến hành trên lãnh thổ của các nước thiếu công nghệ cạnh tranh – có thể trở nên phổ biến hơn.
Phá hủy luật quốc tế về xung đột vũ trang
Vũ khí tự động được cho sẽ làm suy yếu chốt chặn cuối cùng của nhân loại chống lại tội ác chiến tranh và các hành động tàn bạo khác: Luật quốc tế về xung đột vũ trang. Luật này được hệ thống hóa trong các hiệp ước đã có từ lâu, như Công ước Geneva 1864 – là lằn ranh mỏng manh phân chia giữa chiến tranh với thảm sát. Những hiệp ước này có tiền đề với ý tưởng rằng mọi người có thể phải chịu trách nhiệm về hành động của họ ngay cả trong thời chiến, rằng quyền tiêu diệt đối phương trong lúc giao tranh không đồng nghĩa với việc có quyền giết chết dân thường.
Nhưng câu hỏi đặt ra là làm thế nào để quy trách nhiệm cho vũ khí tự động? Ai sẽ là người chịu trách nhiệm cho một robot phạm tội ác chiến tranh? Ai sẽ bị đưa ra xét xử? Vũ khí hay người lính? Chỉ huy của anh ta, hay tập đoàn chế tạo vũ khí? Các tổ chức phi chính phủ và giới chuyên gia về luật pháp quốc tế lo ngại rằng vũ khí tự động sẽ tạo ra khoảng trống trách nhiệm nghiêm trọng khi giải trình.
Hãy thử tưởng tượng về một thế giới mà ở đó quân đội, các nhóm nổi dậy và cả những kẻ khủng bố đều có thể triển khai lực lượng sát thương không giới hạn và họ có thể không phải chịu trách nhiệm pháp lý về việc làm của mình. Những loại lỗi về thuật toán là điều không thể tránh khỏi, đối với ngay cả những gã khổng lồ công nghệ hiện nay. Nếu nó xảy ra trong cuộc chiến của vũ khí tự động thì có thể dẫn đến việc cả một thành phố bị xóa sổ. Thế giới không nên lặp lại những sai lầm thảm khốc của cuộc chạy đua vũ trang hạt nhân.
Bình luận