자율 살상 무기
인간의 직접적인 개입 없이 AI가 스스로 표적을 식별하고 공격을 결정하는 무기 체계이다. 윤리적 책임 소재와 오작동 위험으로 인해 국제적인 논쟁의 대상이 되고 있으며, 본문에서는 앤스로픽이 이에 대한 가드레일을 유지하려 노력하는 핵심 쟁점으로 포함된다.
"살상용 AI는 안 돼" 앤스로픽, 미 국방부와 정면 충돌
자율 살상 무기 거부한 앤스로픽, 미 국방부 공급망 블랙리스트 등극
"사람 죽이는 AI는 안 된다" 앤스로픽의 소신, 국방부의 압박을 견뎌낼까?