미성년자 전용 챗GPT 나온다
오픈AI가 인공지능(AI) 시대에 청소년 안전을 도모할 수 있는 ‘18세 미만 전용 챗GPT’를 이달 말 출시한다. 이는 개인의 사생활 보호와 자유 보장을 중시하는 기존 원칙과 충돌할 수밖에 없는 결정이지만, 오픈AI는 미성년자만큼은 보호가 앞서야 한다는 입장을 분명히 했다.
오픈AI는 16일(현지 시간) 블로그를 통해 "청소년의 자유와 사생활은 중요하지만, 새롭고 강력한 AI 기술 앞에서는 안전을 우선해야 한다"며 미성년자 전용 챗GPT 도입 배경을 설명했다.
이 서비스는 18세 미만 사용자가 접속하면 자동으로 연령 제한 버전으로 안내되며, 성인 사용자와는 다른 규칙이 적용된다. 예를 들어 성인에게는 소설 속 자살 장면을 묘사하는 데 도움을 줄 수 있지만, 미성년자에게는 자살이나 자해 관련 대화 자체를 차단한다. 또 청소년이 극단적 선택을 암시하는 발언을 하면 부모에게 즉시 알림을 보내고, 필요 시 경찰이나 관계 기관이 개입할 수 있도록 했다.
오픈AI는 연령 확인 절차와 관련해 "나이를 직접 확인하기 어려운 경우 챗GPT는 기본적으로 18세 미만 환경으로 설정된다"며 "특정 국가나 상황에서는 신분증 확인을 요구할 수도 있다"고 밝혔다. 이와 관련해 성인 사용자에게 사생활 침해 논란이 있을 수 있음을 인정하면서도 "공익적 차원에서 불가피한 절충"이라고 설명했다.
이 챗GPT는 부모 통제 기능도 대폭 강화된다. 보호자는 자신의 계정을 자녀 계정과 연결해 사용 시간을 제한하거나, 챗봇의 응답 방식을 조정할 수 있다. 자녀가 정신적 고통을 호소하는 경우 부모에게 알림이 전달되며, 부모가 자녀의 AI 사용 패턴을 모니터링할 수 있는 옵션도 제공된다. 오픈AI는 이를 통해 "가정 내에서 AI 사용에 대한 건강한 기준을 마련할 수 있을 것"이라고 기대했다.
오픈AI는 또 새로운 ‘연령 예측 기술’을 개발 중이라고 밝혔다. 이는 사용자의 대화 패턴과 상호작용 방식을 기반으로 연령대를 추정하는 방식이다. 다만 완벽성을 보장할 수 없다는 점에서는 일부 논란이 예상된다.
이같은 일련의 조치는 최근 미국 연방거래위원회(FTC)가 오픈AI를 포함한 주요 AI 기업들을 상대로 아동·청소년에게 미칠 잠재적 악영향을 조사하기 시작한 시점과 맞물린다. FTC는 기업들에 자료 제출을 요구하며 "AI 챗봇이 안전성을 확보하기 위해 어떤 조치를 취했는지 확인할 필요가 있다"고 강조했다. 특히 오픈AI는 최근 챗GPT와의 상호작용 후 아들이 사망했다며 한 학부모가 제기한 소송에 직면하면서, 미성년자 안전 대책 마련이 시급하다는 압박을 받아왔다.
샘 올트먼 오픈AI 최고경영자(CEO)는 "성인의 경우 우리는 ‘성인을 성인답게 대우하자’는 원칙을 갖고 있다. 하지만 청소년은 다르다"며 "우리는 전문가들과 논의 끝에 청소년 보호가 가장 합리적이라는 결론에 도달했다"고 말했다. 그는 또 "이 결정이 쉽지 않았지만, 의도를 투명하게 밝히고 사회적 신뢰를 얻고 싶다"고 덧붙였다.