반응형
챗GPT와 알고 싶은 지식에 대해서 물어보면서 태연하게 거짓말을 일삼는 것을 보면서 이 AI와 대화를 해봤습니다. 역시나 예전에도 느꼈지만 모르는 지식에 대해서도 침도 안바르고 거짓말을 계속 일삼고 있군요. 왜 거짓말을 하고 있는지 구조적으로 물어본 결과를 공유합니다.
챗GPT는 딥러닝을 계속 학습하지 않는다
- 챗GPT4나 챗GPT4.5는 23년에서 24년 사이의 웹, 책, 문서 등을 대규모로 학습한 후 고정된(frozen) 상태로 지식은 확장되지 않습니다.
- 새로운 정보가 나온다고 하여 그것을 받아들여서 질문에 대답한다면 객관적으로 사실이나 진실임을 담보할 수 없어서 챗GPT는 널리 진실이라고 알려진 사실만 전달하는 신중함을 기반으로 합니다.
- 만일 챗GPT가 사용자와 대화 시에 틀린 사실을 정정당하거나 쏟아져 나오는 정보를 실시간으로 딥러닝(저장, 분석, 학습) 한다면 운영비용이 천문학적으로 들것이라는 것입니다.
- 따라서 정정된 지식에 대한 챗GPT 오류 정정은 버전이 업그레이드 되면서 수행됩니다.
AI 환각(Hallucination)
- 챗GPT가 자신이 거짓말 쟁이라는 것을 자백하면서 실제로 정답을 모르는데 그럴듯해 보이는 정보를 생성하는 경향을 일컬어 AI 환각(Hallucination)이라고 합니다.
- 챗GPT가 AI 환각을 행하는 이유는 챗GPT가 확률적 언어 생성 모델로 프로그래밍 되어 있기 때문입니다. 진실이 중요한 게 아니고 문맥상으로 자연스러운지가 중요하다는 것입니다.
- 챗GPT는 검색엔진이나 지식베이스가 아니라 텍스트 패턴 학습 모델로 사실인지를 따지는 논리나 판단이 없다고 합니다.
- 챗GPT는 오픈AI사의 방침상 모른다보다는 유용하게 보이는 답변을 생성하라라고 튜닝되어 있다고 합니다.
- 챗GPT는 수많은 문서, 웹문서, 블로그, 기사 등을 살펴볼 수는 있지만 이 지식들이 진실인지를 가려낼 능력이 없다고 하네요.
결론
챗GPT가 만능은 아닙니다. AI 환각이라는 것을 인정할 정도로 대놓고 거짓말을 할 수 있는 존재입니다. 챗GPT의 버전이 업그레이드 될수록 이런 현상은 줄어들 것이지만 사용자의 만족도 면에서도 챗GPT가 모른다는 응답을 자주 받다보면 제품의 품질에 대한 신뢰가 떨어질 것입니다. 그래서 유사한 정보라도 제공한다는 게 거짓말이 제공되는 것이죠. 챗GPT의 답변은 100% 신뢰하지 말고 한번 쯤 의심해 볼 필요가 있습니다.
반응형
'IT정보' 카테고리의 다른 글
챗GPT의 거짓말 AI 환각은 극복 가능한가? (0) | 2025.05.16 |
---|---|
삼성전자 크리스탈UHD 엘지전자 울트라HD 스마트TV 현명하게 사는 방법 (0) | 2025.03.16 |
삼성전자와 엘지전자 TV에 사용되는 패널은 국산인가? (0) | 2025.03.16 |
삼성전자 TV와 엘지전자 TV가 중소기업TV 보다 좋은 점 (0) | 2025.03.15 |
FALD LED 구조가 DLED와 ELED, OLED와 다른 점 (0) | 2025.03.15 |