IT정보

챗GPT의 거짓말 AI 환각은 극복 가능한가?

넙티비 2025. 5. 16. 14:56
반응형

ai 환각

 

챗GPT의 거짓말을 정정시켜서 뿌듯했던 기억이 있을 겁니다. 내가 아는 사실인데 챗GPT가 모르다니. 다른 사람들에게도 내가 아는 사실을 전달해 줄 것이라는 믿음도 생기고 보람찬 일을 했다고 생각하실 겁니다. 하지만 이러한 행동은 챗GPT에게 전혀 영향을 주지 않습니다.

정정이 무효화 되는 구조, 학습 불가한 시스템, 사용자 한정 정정, 집단 지식 공유 결핍

  • 위 표현들이 챗GPT가 아무리 학습시켜도 챗GPT의 시스템에 사실에 대한 정정이나 학습이 불가능한 상황에 대해서 비유적인 표현을 만들어 준 것입니다.
  • 위 표현과 같이 챗GPT가 거짓말이나 오류에 대해서 학습을 시킨다고 해도 나에게만 오류를 인정하거나 정정하고 다른 타인에게는 이전과 같이 계속 잘못된 정보를 전달하거나 거짓말을 한다는 것이죠.
  • 챗GPT는 로그인한 아이디 별로 세션이 독립되어 있고, 이 세션 내에서만 오류를 정정하거나 학습을 하고 있습니다. 따라서 세션을 넘어선 다른 아이디에는 결코 정정된 내용이 전달되지 않는 구조입니다.
  • 또한 비지속적인 학습으로 인해서 세션 내에서 행한 정정이나 피드백은 시간이 지나면 기억하지 못하거나 반영하지 못하게 됩니다.
  • 심지어는 같은 질문이라도 문맥을 약간 바꾸거나 상황이 상이한 경우에도 모순된 답을 전달할 수 있습니다. 

챗GPT의 거짓말 AI 환각의 극복이 가능한가?

  • 오픈AI사의 경우 실시간 학습이나 사용자의 피드백 기반의 내용 업데이트는 기본적으로 불가하게 시스템을 구성하고 있습니다.
  • 사안에 대해서 잘 아는 사람에게는 지적 당하고 오류를 인정하고 정보를 업데이트 하는 시늉을 하지만, 얕은 지식을 가진 유저에게는 잘못된 정보를 보정 없이 그대로 전달하게 됩니다. 
  • 이는 챗GPT가 실시간 학습 모델이 아닌 고정된 지식(23년~24년 사이 웹, 책, 문서 등)으로 답하기 때문입니다. 
  • 잘못된 정보에 대해서 정정해 주는 것이 매우 중요하다고 챗GPT가 칭찬하지만 이는 겉치례로 하는 말이고, 오픈AI의 방침에 따라서 챗GPT는 전혀 정보에 대한 업데이트나 오픈AI 담당자에게 피드백을 주지 않습니다.
  • 만일 이 정보는 다른 사람들에게 정정되지 않으면 큰 일 나겠다 싶다면 오픈AI의 피드백 사이트에서 수동으로 피드백을 주어야 하며, 이 마저도 반영될지는 미지수입니다.
  • 만일 잘못된 정보를 수많은 사람들이 지적하고 새로운 정보가 웹, 책, 문서 등으로 많이 생산된다면 다음 버전의 챗GPT에서 정정되어 사실이 업데이트 될 수 있습니다.

결론

결국 현재 챗GPT와 같은 AI도 자기가 정보에 대한 정정이나 업데이트의 능력은 없는 것입니다. 이 결정 권한은 오픈 AI의 담당자의 권한이라고 할 수 있습니다. AI 환각은 의도된 단순 오류가 아니라 모델의 설계 방식과 지침에서 비롯된 구조적 결과라고 할 수 있습니다. 앞으로도 AI 환각은 계속될 수 있습니다. 

 

 

 

반응형