로보토미 (기능 억제)
AI 모델의 안전성을 위해 특정 답변을 거부하도록 강력하게 정렬(Alignment)하여 모델의 지능이나 유연성이 저하된 상태를 비유하는 용어이다. 주로 OpenAI 등의 기업이 가하는 과도한 검열을 비판할 때 사용된다. 모델의 창의성과 답변 범위를 제한하는 요소로 작용한다.
OpenAI의 철저한 검열도 뚫렸다 새로운 ARA 기법의 충격적 성능