예방 원칙
심각한 피해의 위험이 있을 때 과학적 확실성이 부족하더라도 미리 조치를 취해야 한다는 원칙이다. AI 윤리에서는 의식이 있을 가능성을 배제할 수 없을 때 보호 조치를 취하는 근거가 된다.
AI가 인간과 구별 안 된다면 법적 권리를 줘야 할까? 새로운 '락 테스트' 제안