문제
- 구글 "LLM, 반론 들으면 자신감 잃고 쉽게 마음 바꿔"
https://www.aitimes.com/news/articleView.html?idxno=200739 - 모델의 '아첨' 측정하는 벤치마크 등장..."모든 LLM은 인간보다 아첨 수준 1.5~4배 높아"
https://www.aitimes.com/news/articleView.html?idxno=170734
해결
- "사용자에게 쓴소리하는 챗봇이 효과적"...'적대적 AI' 등장
https://www.aitimes.com/news/articleView.html?idxno=157632
자기 성격대로 대화하는 책 속 등장인물의 조언이 효과적일 수 있지 않을까?
책 세계관에 충실한 챗봇을 만들어야 챗봇이 자신의 의견을 갖고 대화할 수 있지않을까?