“챗GPT 등 LLM, 믿음·지식 구분 취약… ‘나는 ~라고 믿는다’서 흔들”

조선일보

챗GPT 등 대규모 언어모델(LLM) 기반 인공지능(AI)이 사용자의 믿음과 지식, 사실과 허구를 안정적으로 구분하지 못한다는 연구 결과가 나왔다. 특히 ‘나는 ~라고 믿는다’처럼 1인칭 믿음 표현이 등장할 경우, 내용이 허구일 때 이를 믿음으로 받아들이기보다 틀린 지식으로 보고 교정하려는 경향이 두드러졌다는 분석이다. 제임스 저우(James Zou) 미

뉴스 더 찾아보기
전체 국내 글로벌 코인 원자재 테크·과학
이전 · 다음

관련 뉴스