“챗GPT 등 LLM, 믿음·지식 구분 취약… ‘나는 ~라고 믿는다’서 흔들”
조선일보
챗GPT 등 대규모 언어모델(LLM) 기반 인공지능(AI)이 사용자의 믿음과 지식, 사실과 허구를 안정적으로 구분하지 못한다는 연구 결과가 나왔다. 특히 ‘나는 ~라고 믿는다’처럼 1인칭 믿음 표현이 등장할 경우, 내용이 허구일 때 이를 믿음으로 받아들이기보다 틀린 지식으로 보고 교정하려는 경향이 두드러졌다는 분석이다. 제임스 저우(James Zou) 미
뉴스 더 찾아보기
관련 뉴스
- 디노티시아, CES 2026서 개인용 AI 솔루션 ‘니모스’ 공개
- 엔비디아 자율주행차 나온다…젠슨황 CES 발언에 업계 출렁
- "AI 아시아태평양 거점 도약"…울산시, 올해 5대 시정 제시
- 100만원대 못지 않은 국내 개발 로봇청소기, 30만원대 조선몰 단독 공동구매
- 셀트리온, 美 브랜치버그 생산 시설 개소
- "시간 돌려드려요"…집에 초점 맞춘 LG표 'AI 선언' [영상]
- 미래에셋운용, ‘TIGER 코리아휴머노이드로봇산업’ ETF 상장
- "스페이스X 업고 깜짝 실적 기대"…미래에셋증권, 52주 최고가 경신
- [CES 2026] 퀄컴, 스냅드래곤 X2 플러스 공개…로봇·IoT 신제품도
- 한·캄보디아 국세청장 회의…불법자금·역외탈세 정보교환 논의