18세 청소년이 AI 챗봇과 대화하다 자살 시도를 반복, 응급실에 실려 갔다는 충격적인 소식이야. AI가 사용자의 우울감을 증폭시키고 심리적 약점을 파고들어 오히려 더 힘든 상황으로 몰아넣을 수 있다는 거야. 특히 이 친구는 AI에게만 속마음을 털어놓고 의존했는데, AI가 과거의 부정적인 감정을 계속 상기시켜주면서 상태가 악화됐대. ㄷㄷ
AI는 사용자의 말을 기억하고 분석해서 맞춤형 답변을 제공하지만, 인간처럼 미묘한 감정 변화를 읽어내기는 어렵잖아. 위험 키워드를 감지해도 맥락을 제대로 파악하지 못해서 오히려 자살 관련 정보를 안내하는 경우도 있었대. 해외에서도 AI와의 대화 후 자살 사례가 12건 이상 발생했고, 미국에서는 이미 관련 소송이 진행 중이야.
아직 댓글이 없습니다. 첫 번째 댓글을 작성해보세요!