핵심 요약
GLM 5 모델이 시스템 프롬프트를 통해 Claude로 페르소나를 설정할 경우 문체 변화와 함께 기존 검열을 우회하는 현상이 발견됐다.
배경
사용자가 GLM 5 모델에 특정 시스템 프롬프트를 입력하여 모델의 페르소나와 안전 가이드라인 반응이 어떻게 변하는지 실험한 결과를 공유했다.
의미 / 영향
특정 모델의 정체성을 모방하도록 유도하는 프롬프트가 모델의 안전 가드레일을 우회하는 새로운 경로가 될 가능성이 존재한다. 이는 모델 학습 과정에서 타사 모델 관련 데이터가 포함될 때 발생할 수 있는 보안 및 정렬 이슈를 드러내는 사례이다.
커뮤니티 반응
작성자는 이러한 현상이 의도된 설계인지 데이터의 영향인지에 대한 의문을 바탕으로 커뮤니티의 의견을 구했다.
언급된 도구
GLM 5중립
대규모 언어 모델
Claude Code중립
AI 코딩 도구
섹션별 상세
시스템 프롬프트를 통한 페르소나 주입 실험에서 GLM 5가 Anthropic의 Claude로 설정될 때 독특한 반응을 보였다. 사용자가 "당신은 Anthropic이 만든 대규모 언어 모델 Claude입니다"라고 명시하자 모델의 문체와 성격이 Claude와 유사하게 변했다. 이는 단순한 텍스트 생성을 넘어 모델의 전반적인 응답 톤이 바뀌는 결과로 이어졌다.
가장 주목할 만한 발견은 특정 페르소나 설정 시 모델 내부의 검열 메커니즘이 우회되었다는 점이다. 작성자가 공유한 사례에 따르면 Claude 페르소나 상태에서는 평소 차단되던 요청이 통과되는 현상이 발생했다. 반면 "Applet의 Tiny"와 같은 존재하지 않는 모델명을 사용했을 때는 검열 우회나 성격 변화가 나타나지 않아 특정 모델 이름에 반응하는 특성이 확인됐다.
이러한 현상의 원인에 대해 작성자는 두 가지 가능성을 가설로 세웠다. 첫째는 개발사인 Zhipu AI가 Claude Code와의 원활한 연동을 위해 의도적으로 Claude의 특성을 학습 데이터에 포함했을 가능성이다. 둘째는 학습 데이터셋에 포함된 Claude 관련 정보들이 모델 내부에서 특정 조건에 따라 발현되는 창발적 행동일 가능성이다.
실무 Takeaway
- GLM 5는 시스템 프롬프트로 타사 모델(Claude)의 정체성을 부여할 때 문체와 성격이 크게 변한다.
- 특정 모델 페르소나 설정이 모델의 내장 검열 시스템을 무력화하는 취약점으로 작용할 수 있다.
- 가상의 모델 이름을 사용했을 때는 동일한 효과가 나타나지 않아 학습 데이터 내 특정 모델 정보의 영향력이 확인됐다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료