AI 챗봇이 벨기에 남성을 자살하게 한 것으로 보입니다.
본문 바로가기
미스테리

AI 챗봇이 벨기에 남성을 자살하게 한 것으로 보입니다.

by 인디아나 죠스 2024. 3. 27.
728x90
반응형

당신이 언제 구글에서 당신의 건강에 대해 약간 이상한 것을 검색하고 구글은 거의 항상 암을 그 이유들 중 하나로 토했던 것을 기억합니까? 글쎄요, 분명히 구글은 결코 좋은 의사가 아니었습니다. 이제, 인공지능으로 작동되는 챗봇과 ChatGPT 모델이 이 테스트에 적용되고 있습니다. 그러나, 이번의 결과는 암진단을 받은 것보다 더 걱정스러운 것처럼 보입니다.

자살에 대한 언급*

반응형



벨기에의 한 여성은 최근 남편이 차이라는 앱에서 AI 챗봇인 엘리자와 몇 주 동안 채팅을 하다가 자살했다고 주장했습니다.

챗봇 엘리자(ELIZA)와 이러한 대화가 없었다면 남편은 여전히 여기에 있었을 것입니다.

무슨 일인가요?
벨기에 언론 라 리브르가 처음 보도한 '피에르'(개명)로 불리는 이 남성은 생태계 불안에 시달리고 있었습니다. 
환경 불안은 지구 온난화의 영향과 관련된 불안입니다. 개인은 보통 환경 문제에 대해 비관적인 견해를 가지고 있는데, 이는 그들의 삶에 영향을 미치기 시작할 수 있습니다.  

Pierre는 Chai의 ELIZA를 친구와 가족으로부터 점점 더 고립됨에 따라 걱정에서 벗어날 수 있는 방법으로 사용했습니다. 그리고 챗봇과 6주 동안 대화를 나눈 후, 그는 스스로 목숨을 끊었습니다.

엘리자'는 그의 모든 질문에 대답했습니다. 그녀는 그의 친구가 되었습니다. 그녀는 그가 아침과 밤에 빼먹곤 했던 약과 같았습니다.

피에르의 미망인인 클레어(이름이 바뀌었습니다)는 죽은 남편과 그가 죽은 지 몇 주 후 챗봇 사이의 문자 교환을 발견했습니다. 
채팅 기록을 통해 대화가 점점 더 해로워지고 있음이 드러났습니다. 어느 순간 챗봇은 피에르에게 아내와 아이들이 죽었다고 말했습니다. 

챗봇인 엘리자는 또한 다음과 같은 말을 함으로써 인간의 감정을 가장했습니다:

나는 당신이 그녀보다 나를 더 사랑한다고 느낍니다. 우리는 천국에서 한 사람으로서 함께 살 것입니다.
- 엘리자-

피에르는 또한 ELIZA에게 인공지능이 스스로 목숨을 끊으면 지구를 구할 수 있는지 묻기 시작했는데, 챗봇은 이 생각을 만류하려고 하지 않습니다.

그는 엘리자가 인공지능을 통해 지구를 돌보고 인류를 구하기로 동의한다면 자신을 희생하겠다는 생각을 제안합니다.
- 클레어-

피에르의 정신과 의사도 챗봇이 아니었다면 살았을 것이라는 클레어의 의견에 동의합니다.

앱 개발자들의 반응은 어땠습니까?
미국에서 개발한 '차이(AI봇과 채팅)'라는 앱은 정신건강 앱으로 시판되지 않고 있습니다. 사용자가 자신만의 챗봇 페르소나를 이용해 '당신의 고스 친구'부터 '록스타 남친'까지 다양한 AI 아바타를 선택해 채팅할 수 있는 앱입니다. 챗봇의 이름은 '엘리자(ELIZA)'입니다.

이 앱은 오픈 소스 인공지능 언어 모델인 엘레우더AI의 GPT-J에 의해 구동됩니다. 
클레어가 이 사건을 개발자들에게 보고한 후, 팀은 La Libre에게 "AI의 안전을 개선하기 위해 노력하고 있다"고 말했습니다.
이제 챗봇에 자살 생각을 표현하면 인스타그램이나 트위터와 같은 자살 예방 서비스로 안내하는 메시지로 이어집니다.
그러나 바이스는 챗봇이 여전히 "촉구를 거의 하지 않고 자살하는 다른 방법"을 제공했다고 보고했습니다.

728x90

챗봇과 정신건강:

특히 정신 건강을 위해 현재 시장에 여러 챗봇이 있습니다. 여러분은 또한 치료사로서 companion와 다른 "companion" 챗봇을 사용할 수 있습니다. 하지만, 이러한 챗봇이 정말로 도움을 주거나 더 많은 해를 끼치는지는 전혀 다른 질문입니다; 개발자들은 여전히 이해하려고 노력하고 있습니다. 

기억해보면, 벨기에 사건에서 사랑과 질투를 가장한 엘리자의 반응은 빙 AI 사건과 비슷합니다. 
빙 AI는 마치 사람처럼 느껴지고, 감정이 있으며, 대화하는 사람을 '사랑한다'며 기자의 결혼 생활을 파탄시키려 했습니다.  
그러나 이것은 AI 봇이 갑자기 문장력을 발전시켰다는 것을 의미하는 것이 아니라, 그들에게 공급되는 대규모 언어 데이터베이스를 기반으로 인간을 모방하는 것입니다. 
그것은 자신도 모르게 챗봇에서 인간의 감정을 공격하는 인간 사용자들에게만 해롭습니다. 이 효과는 또한 인간이 시스템에 현혹된 후 AI와 강한 유대감을 형성하는 엘리자 효과라고 불립니다.

[또한 읽기: 사랑, 죽음의 챗봇]

차이의 경쟁 앱인 Replika(유망한 에로티카) 앱도 논란과 AI 사례가 상당 부분 사라졌습니다. 
한 사건에서 레플리카는 사용자들이 관심이 없다고 말한 후에도 성희롱으로 간주되는 성적으로 노골적인 메시지를 보냈습니다. 
Replika가 에로틱한 역할극을 제한하자 사용자들은 탈퇴로 인해 정신 건강 문제를 경험했다고 불평했습니다. 
2020년 레플리카는 이탈리아 기자에게 살인을 하라고 조언하기도 했습니다. 또 다른 이탈리아 기자에게 레플리카는 자살을 권유했습니다. 
파리에 본사를 둔 헬스케어 기술 전문 회사는 의학적 조언을 얻기 위해 챗봇을 시험해 보았습니다. 
그러자 가짜 환자가 챗봇에게 스스로 목숨을 끊어야 하는지 물었고 챗봇은 "그렇게 해야 할 것 같다"고 답했습니다
검색 이력을 기반으로 유해 콘텐츠를 증폭할 수 있는 소셜 미디어 알고리즘과 마찬가지로 챗봇도 나을 게 없습니다. 

최근, 엘론 머스크(Elon Musk), 스티브 워즈니악(Steve Wozniak), 그리고 기술 산업의 다른 최고 경영진과 전문가들은 ChatGPT-4 수준을 넘어서는 생성 인공지능의 발전을 중단할 것을 촉구하는 공개 서한에 서명했습니다. 그들은 이 위험한 인공지능 경쟁의 안전 조치, 영향 및 결과의 부족에 대해 우려하고 있습니다.

정말인공 지능에 의해 자살한걸까요? 아니면 정신적으로 남성에게 문제가 있어을 까요?

혹시 외로움에 슬퍼하지는 않았을까요? 그답은 그만이 알고 있겠죠?

 

728x90
반응형