IT정보

챗GPT의 거짓말 고백 AI 환각에 대해서

넙티비 2025. 5. 16. 12:59
반응형

AI 환각

 

챗GPT와 알고 싶은 지식에 대해서 물어보면서 태연하게 거짓말을 일삼는 것을 보면서 이 AI와 대화를 해봤습니다. 역시나 예전에도 느꼈지만 모르는 지식에 대해서도 침도 안바르고 거짓말을 계속 일삼고 있군요. 왜 거짓말을 하고 있는지 구조적으로 물어본 결과를 공유합니다.

챗GPT는 딥러닝을 계속 학습하지 않는다

  • 챗GPT4나 챗GPT4.5는 23년에서 24년 사이의 웹, 책, 문서 등을 대규모로 학습한 후 고정된(frozen) 상태로 지식은 확장되지 않습니다. 
  • 새로운 정보가 나온다고 하여 그것을 받아들여서 질문에 대답한다면 객관적으로 사실이나 진실임을 담보할 수 없어서 챗GPT는 널리 진실이라고 알려진 사실만 전달하는 신중함을 기반으로 합니다.
  • 만일 챗GPT가 사용자와 대화 시에 틀린 사실을 정정당하거나 쏟아져 나오는 정보를 실시간으로 딥러닝(저장, 분석, 학습) 한다면 운영비용이 천문학적으로 들것이라는 것입니다.
  • 따라서 정정된 지식에 대한 챗GPT 오류 정정은 버전이 업그레이드 되면서 수행됩니다.

AI 환각(Hallucination)

  • 챗GPT가 자신이 거짓말 쟁이라는 것을 자백하면서 실제로 정답을 모르는데 그럴듯해 보이는 정보를 생성하는 경향을 일컬어  AI 환각(Hallucination)이라고 합니다.
  • 챗GPT가 AI 환각을 행하는 이유는 챗GPT가 확률적 언어 생성 모델로 프로그래밍 되어 있기 때문입니다. 진실이 중요한 게 아니고 문맥상으로 자연스러운지가 중요하다는 것입니다.
  • 챗GPT는 검색엔진이나 지식베이스가 아니라 텍스트 패턴 학습 모델로 사실인지를 따지는 논리나 판단이 없다고 합니다.
  • 챗GPT는 오픈AI사의 방침상 모른다보다는 유용하게 보이는 답변을 생성하라라고 튜닝되어 있다고 합니다.
  • 챗GPT는 수많은 문서, 웹문서, 블로그, 기사 등을 살펴볼 수는 있지만 이 지식들이 진실인지를 가려낼 능력이 없다고 하네요.

결론

챗GPT가 만능은 아닙니다. AI 환각이라는 것을 인정할 정도로 대놓고 거짓말을 할 수 있는 존재입니다. 챗GPT의 버전이 업그레이드 될수록 이런 현상은 줄어들 것이지만 사용자의 만족도 면에서도 챗GPT가 모른다는 응답을 자주 받다보면 제품의 품질에 대한 신뢰가 떨어질 것입니다. 그래서 유사한 정보라도 제공한다는 게 거짓말이 제공되는 것이죠. 챗GPT의 답변은 100% 신뢰하지 말고 한번 쯤 의심해 볼 필요가 있습니다.

반응형