Anthropic giao quyền kiểm soát nhiều hơn cho Claude Code, nhưng vẫn giữ trong tầm kiểm soát

Bản cập nhật Claude Code mới từ Anthropic giới thiệu tính năng 'chế độ tự động,' cho phép trí tuệ nhân tạo tự quyết định hành động an toàn, vẫn tích hợp kiểm tra hành vi nguy hiểm. Điều này phản ánh một xu hướng trong ngành công nghiệp trí tuệ nhân tạo đang hướng đến các công cụ tự động hơn. Tuy nhiên, các tiêu chí an toàn cụ thể vẫn chưa rõ ràng, khiến các nhà phát triển cẩn trọng khi tính năng này bắt đầu kiểm thử cho doanh nghiệp và người dùng API.
Key Points
- Anthropic giới thiệu 'chế độ tự động' cho Claude Code, cho phép trí tuệ nhân tạo ra quyết định một cách tự động.
- Cập nhật này là một phần của xu hướng lớn hơn trong các công cụ trí tuệ nhân tạo trở nên ngày càng tự động, giảm sự phụ thuộc vào sự chấp thuận của con người cho mỗi hành động.
- 'Chế độ tự động' sử dụng biện pháp an toàn trí tuệ nhân tạo để đánh giá các hành động để đề phòng rủi ro trước khi thực thi, chặn các chỉ thị có hại.
- Tính năng này xây dựng trên các công cụ hiện có như GitHub và môi trường mã hóa tự động của OpenAI.
- Nhược điểm hiện tại bao gồm việc thiếu rõ ràng các tiêu chí an toàn cho các nhà phát triển.
Relevance
- Dòng xu hướng đến việc mã hóa AI tự động phản ánh một sự tiến hóa đáng kể trong các công cụ mã hóa, cho phép các nhà phát triển tập trung nhiều hơn vào chiến lược hơn là giám sát thủ công.
- Trong năm 2023, có sự chú ý tăng lên về an toàn AI, nhấn mạnh về các lo ngại về hậu quả không mong muốn của các hệ thống hoàn toàn tự động.
- Sáng kiến của Anthropic phù hợp với các cuộc thảo luận về quy định về AI, đặc biệt là về trách nhiệm và giám sát trong các hệ thống tự động.
Tóm lại, trong khi chế độ 'tự động' của Anthropic nhằm cải thiện khả năng hoạt động của trí tuệ nhân tạo bằng cách cho phép tự chủ hơn với các biện pháp bảo vệ, các nhà phát triển đang đợi sự rõ ràng về các thông số an toàn để đảm bảo việc áp dụng có trách nhiệm.
