Anthropic và Bộ Quốc phòng Mỹ đang tranh cãi về việc sử dụng Claude

Bộ Quốc phòng đang đối đầu với công ty Anthropic về việc sử dụng mô hình trí tuệ nhân tạo của nó, Claude, cho mục đích quân sự. Trong khi các công ty AI khác đã thể hiện sự linh hoạt, Anthropic đã chống đối, dẫn đến đe dọa hủy bỏ hợp đồng trị giá 200 triệu đô la. Các bất đồng gốc rễ từ chính sách sử dụng, đặc biệt là về vũ khí tự động và giám sát.
Key Points
- Bộ Tổng thuộc (Pentagon) yêu cầu các công ty AI, bao gồm Anthropic, cho phép quân đội sử dụng công nghệ của họ cho mục đích hợp pháp. Anthropic được cho là phản đối mạnh mẽ nhất so với OpenAI và Google. Một quan chức không nêu tên cho biết các công ty khác đã thể hiện sự đồng ý hoặc linh hoạt. Vì sự phản đối này, Pentagon đang xem xét việc chấm dứt hợp đồng trị giá 200 triệu USD với Anthropic. Sự không đồng ý liên quan đến cách mà mô hình Claude có thể được sử dụng trong các hoạt động quân sự, bao gồm một trường hợp trước đó nơi nó đã giúp trong việc bắt giữ Nicolás Maduro.
Relevance
- Cuộc trao đổi này có ý nghĩa đối với đạo đức của trí tuệ nhân tạo trong môi trường quân sự giữa những lời kêu gọi ngày càng tăng về việc quy định.
- Tình hình này phản ánh những xu hướng chung vào năm 2025 khi vai trò của công nghệ AI trong quốc phòng tiếp tục gây tranh cãi về tự động hóa và trách nhiệm.
- Sức ảnh hưởng tiềm năng của các công ty công nghệ tư nhân đối với các hoạt động quân sự nhấn mạnh xu hướng hợp tác giữa chính phủ và ngành công nghiệp công nghệ tư nhân.
Cuộc tranh cãi giữa Anthropic và Bộ Quốc phòng Mỹ đang nhấn mạnh đến các vấn đề đạo đức quan trọng trong việc triển khai Trí tuệ Nhân tạo trong ngữ cảnh quân sự, có thể thay đổi cảnh quan của quản lý Trí tuệ Nhân tạo.
