Quân đội Mỹ vẫn sử dụng Claude - nhưng khách hàng trong lĩnh vực công nghệ quốc phòng đang rút lui

Quân đội Hoa Kỳ vẫn tiếp tục sử dụng mô hình trí tuệ nhân tạo của Anthropic, Claude, để định mục tiêu trong xung đột với Iran mặc dù công ty đã rút lui khỏi hợp đồng quốc phòng sau các hướng dẫn từ chính phủ. Trong khi đó, một số nhà thầu quốc phòng đang tích cực thay thế Claude do lo ngại về rủi ro chuỗi cung ứng, phản ánh một bức tranh mơ hồ về sự phụ thuộc của quân đội vào công nghệ bị tranh cãi giữa những căng thẳng địa chính trị.
Key Points
- AI của Anthropic, Claude, đang được Quân đội Mỹ sử dụng tích cực trong việc đưa ra quyết định nhắm mục tiêu đối phó với xung đột liên tục với Iran.
- Sự nhầm lẫn bắt nguồn từ chỉ thị của Tổng thống Trump yêu cầu các cơ quan dân sự ngừng sử dụng Anthropic, nhưng vẫn có một khoảng thời gian ân hạn sáu tháng cho Quân đội sử dụng.
- Bộ Tư lệnh đang sử dụng Claude phối hợp với hệ thống Maven của Palantir, hỗ trợ trong việc ưu tiên mục tiêu theo thời gian thực.
- Nhiều nhà thầu quốc phòng, bao gồm Lockheed Martin, đã bắt đầu thay thế Claude bằng các mô hình thay thế do rủi ro liên quan đến việc sử dụng của nó.
- Việc chỉ định Anthropic là một rủi ro chuỗi cung ứng dự định của Bộ trưởng Quốc phòng vẫn chưa được thực hiện, tạo ra các vùng mờ pháp lý trong việc sử dụng công nghệ quân sự.
Relevance
- Tình huống này giống với những xu hướng lịch sử khi các nhà thầu quân sự đánh giá lại các mối quan hệ đối tác với các công ty công nghệ do áp lực đạo đức và áp lực quy định.
- Tình hình hiện tại nhấn mạnh sự căng thẳng gia tăng giữa nhu cầu quốc phòng và các quy định chính phủ, một chủ đề quan trọng trong cảnh quan công nghệ thông tin năm 2025 tập trung vào việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm.
- Vụ xung đột đang diễn ra minh họa các hệ quả rộng lớn của trí tuệ nhân tạo trong các ứng dụng quân sự, gợi lên sự chú ý đến trách nhiệm và các khung pháp lý quy định trong triển khai công nghệ của các cơ quan quốc phòng.
Tình hình này thể hiện một sự giao cắt quan trọng giữa nhu cầu quân sự và các yếu tố đạo đức trong công nghệ, cho thấy trong khi nhu cầu hiện tại về công cụ trí tuệ nhân tạo tiên tiến vẫn tồn tại, việc chuyển sang các phương án tuân thủ có thể trở thành điều thông thường trong các hoạt động quốc phòng.
