도구 어노테이션
LLM이 특정 도구의 기능, 위험성(destructiveHint), 읽기 전용 여부 등을 이해할 수 있도록 메타데이터를 추가하는 기법이다. OpenAI 앱 스토어 심사 시 모델의 오작동을 방지하기 위한 핵심 검토 대상이다.