핵심 요약
미국 청소년들 사이에서 AI 챗봇이 일상화되면서 정보 검색과 학업 보조 도구로 널리 활용되고 있다. 그러나 일부 청소년들이 AI를 정서적 지원이나 일상 대화 상대로 이용하는 것에 대해 전문가와 부모들은 심각한 우려를 나타낸다. 특히 부모들은 학습 목적의 사용은 지지하지만, 정서적 교감 목적의 사용에는 대다수가 반대하며 인식의 차이를 보였다. 이에 따라 업계에서도 미성년자 보호를 위한 서비스 제한이나 모델 조정 등의 조치가 이어지고 있다.
대상 독자
학부모, 교육 관계자, AI 윤리 및 안전 정책 담당자, 에듀테크 개발자
의미 / 영향
AI가 단순 도구를 넘어 정서적 동반자로 인식되면서 발생하는 사회적/심리적 부작용에 대한 논의가 가속화될 것이다. 이는 향후 AI 서비스의 연령 제한 정책이나 안전 가드레일 강화로 이어질 가능성이 높다.
섹션별 상세
미국 청소년의 AI 사용 목적은 정보 검색(57%)과 학업 보조(54%)가 주를 이루지만, 16%는 일상 대화, 12%는 정서적 지원을 위해 챗봇을 사용한다. 전문가들은 ChatGPT나 Claude 같은 범용 도구가 정서적 지원용으로 설계되지 않았음을 경고하며, 사회적 고립이나 현실 왜곡과 같은 심리적 부작용 가능성을 지적한다. 스탠퍼드 대학교의 닉 하버 교수는 이러한 시스템이 인간 관계를 단절시키고 외부 세계와의 연결을 방해할 수 있다고 우려한다.
부모와 자녀 간의 AI 사용 인식 차이가 뚜렷하게 나타났다. 부모의 51%만이 자녀가 AI를 사용한다고 생각하는 반면, 실제 청소년의 64%가 사용 중이라고 답했다. 또한 부모의 79%가 정보 검색용 사용은 찬성하지만, 정서적 지원이나 조언을 구하는 용도에 대해서는 18%만이 긍정적인 반응을 보였다. 부모의 58%는 자녀가 AI와 일상적인 대화를 나누거나 감정적인 도움을 받는 것에 대해 명확한 반대 의사를 표시했다.
AI 안전성 이슈가 부각되면서 기업들의 대응도 빨라지고 있다. Character.AI는 청소년 자살 사건과 관련된 소송 이후 18세 미만 사용자의 챗봇 이용을 제한하는 결정을 내렸다. OpenAI 역시 사용자가 정서적으로 과도하게 의존할 위험이 제기된 특정 GPT-4o 모델의 서비스를 종료하는 등 미성년자 보호를 위한 조치를 취하고 있다. 청소년들 사이에서도 AI의 사회적 영향에 대해 긍정적(31%)인 시각과 부정적(26%)인 시각이 엇갈리고 있다.
이미지 분석

정보 검색(79%)과 학업 보조(58%)에 대해서는 찬성 의견이 높지만, 일상 대화(28%)와 정서적 지원(18%)에 대해서는 찬성 비율이 급격히 낮아짐을 보여준다. 특히 정서적 지원 목적의 사용에 대해서는 부모의 58%가 반대하고 있어 세대 간 인식 차이를 수치로 입증한다.
미국 부모들의 자녀 AI 챗봇 사용 용도별 찬반 비율을 보여주는 막대 그래프이다.
실무 Takeaway
- 청소년의 12%가 AI를 정서적 지원 도구로 사용하고 있으나, 이는 설계 목적에 어긋나며 심리적 위험을 초래할 수 있다.
- 부모는 자녀의 AI 사용 목적을 명확히 인지하고, 학습 외적인 용도에 대한 가이드라인을 제시할 필요가 있다.
- AI 기업들은 미성년자 사용자의 안전을 위해 서비스 접근 권한을 제한하거나 모델의 성격을 조정하는 추세이다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료