📢 검색 기능 추가 예정

주민건

기록 = 성장

zoomg

From Persona to Personalization: A Survey on Role-Playing Language Agents

📢
GPT가 요약을 생성하고, 사람이 검토한 내용입니다.
어떤 단락에 어떤 내용이 있는지 빠르게 파악하고, 해당 단락에서 소개되는 논문을 찾는데에 도움이 되고자 정리했습니다.

1. Introduction

최근 대형 언어 모델(LLM)의 비약적인 발전과 함께, **역할 놀이 언어 에이전트(RPLA)**가 주목받고 있습니다. 이들 에이전트는 주어진 페르소나를 기반으로 역사적 인물, 소설 속 캐릭터, 또는 개인의 특성을 생생하게 재현함으로써 감성 동반자, 게임 캐릭터, 개인 비서 등 다양한 응용 분야에 활용되고 있습니다. 이번 포스팅에서는 논문의 전체 구조와 세부 내용—페르소나의 분류, 구축 방법론, 평가 체계, 그리고 잠재적 위험 요소와 향후 연구 방향—을 자세히 살펴보겠습니다.

배경 및 발전 동향: LLM의 최신 연구 동향과 그로 인한 RPLA의 발전 과정을 설명합니다.

RPLA의 개념과 정의: 역할 놀이 언어 에이전트의 기본 개념, 그리고 이를 구성하는 핵심 요소들을 제시합니다.

페르소나 분류 체계:

  • Demographic Persona: 집단의 통계적 특성과 고정된 사회적 역할(예: 직업, 성별, 성격 유형)을 반영.
  • Character Persona: 역사적 인물이나 소설, 영화 속 잘 알려진 캐릭터의 구체적인 특성을 재현.
  • Individualized Persona: 사용자의 개인 데이터를 기반으로 지속적으로 갱신되는 맞춤형 프로필.

구축 방법론:

  • Parametric Training: 대규모 사전 학습, 지도학습, 강화학습을 통해 페르소나의 내재적 지식을 주입.
  • Nonparametric Prompting: 프롬프트 기반 인-컨텍스트 러닝을 활용하여, 별도의 재학습 없이도 페르소나를 즉각적으로 구현.

평가 체계: 역할 수행 능력(대화 몰입도, 유창성 등)과 페르소나 충실도(언어 스타일, 지식, 성격 재현 등)를 다양한 자동 및 인간 평가 기법으로 검증.

위험 요소 및 한계: 편향, 독성(토xic) 문제, 할루시네이션 등 RPLA 개발에 따른 부정적 측면과 이를 완화하기 위한 연구 방향.

미래 연구 방향: 안전하고 윤리적인 AI 동반자 구현, 개인화의 지속적 진화, 다중 모달 데이터 통합 등 앞으로의 도전 과제와 발전 가능성.

2. Preliminary

2.1 The Roadmap of Large Language Models

최근 LLM은 인-컨텍스트 러닝, 인스트럭션 팔로잉, 단계별 추론 등 다양한 인간 유사 능력을 보여주며, 그 결과로 역할 놀이와 같은 복잡한 사회적 상호작용을 재현할 수 있게 되었습니다.

  • Emerged Abilities in LLMs: LLM에서 새롭게 등장한 핵심 능력들을 상세히 설명합니다. 인-컨텍스트 러닝, 인스트럭션 팔로잉, 단계별 추론 및 사회적 지능과 같은 기능들이 LLM이 복잡한 역할 놀이를 수행할 수 있도록 하는 기반임을 강조합니다.
  • Anthropomorphic Cognition in LLMs: LLM이 점차 인간과 유사한 인지 및 감정적 특성을 나타내기 시작했음을 논의합니다. 초기에는 의식의 출현 논의가 있었으나, 현재는 자각, 가치, 감정 인식, 심리적 특성 등 다양한 인간적 요소를 모방하는 능력이 강조됩니다. 단, 이는 실제 의식의 증거가 아니라 역할 놀이 성격의 결과임을 언급합니다.
  • Retrieval-augmented Generation of LLMs: 외부 정보 검색을 통합하는 Retrieval-augmented Generation(RAG) 기법을 소개합니다. RAG는 생성 과정 중 실시간으로 외부 데이터를 참조하여 사실 오류를 줄이고, 긴 컨텍스트를 처리할 수 있게 하여 역할 놀이 시나리오에서 유용함을 설명합니다.

2.2 LLM-powed Language Agnets

전통적인 심볼릭 에이전트와 강화학습 기반 에이전트의 한계를 언급하며, 최근 LLM 기반 언어 에이전트가 인간 수준의 지능과 상호작용 능력을 바탕으로 등장하고 있음을 소개합니다.

  • Planning Module: 실제 상황에서 에이전트가 복잡한 작업을 해결하기 위해 장기 계획을 수립하는 방법을 설명합니다. LLM 에이전트는 Chain-of-Thought나 ReAct 같은 전략을 사용해 작업을 세분화하고 환경 피드백에 따라 동적으로 계획을 조정합니다.
  • Tool-usage Module: LLM이 특정 전문 영역에서 발생할 수 있는 지식의 한계나 할루시네이션 문제를 보완하기 위해, 외부 API, 지식 베이스 등 외부 도구를 활용하여 보다 정확하고 맥락에 적합한 응답을 생성할 수 있음을 설명합니다.
  • Memory Mechanism: 에이전트가 사용자 및 환경 정보를 저장하여 지속적인 대화 맥락을 유지하는 메모리 메커니즘의 중요성을 다룹니다. 단기 메모리(트랜스포머의 컨텍스트 한계 내 정보)와 장기 메모리(외부 저장소)를 구분하여, 개인화된 응답과 연속적인 상호작용을 가능하게 하는 역할을 설명합니다.

3. Overview of RPLAs

3.1 RPLA Definition

RPLA를 구성하는 핵심 페르소나를 세 가지로 구분하는 전체적인 틀을 제시합니다. 즉, 페르소나는 범위가 넓은 집단 특성을 반영하는 Demographic Persona, 잘 확립된 인물이나 캐릭터를 나타내는 Character Persona, 그리고 사용자 개개인의 행동과 선호를 반영하여 지속적으로 갱신되는 Individualized Persona로 분류됩니다.

(1) Demographic Persona

Demographic Persona는 직업, 성별, 인종, 성격 등과 같이 통계적 또는 집단적 특성을 반영하는 페르소나입니다. 이들은 LLM이 사전 학습 데이터에 내재한 통계적 패턴을 활용해 간단한 프롬프트(예: “당신은 수학자입니다”)로 쉽게 활성화되며, 특정 집단의 전형적인 행동과 언어 패턴을 시뮬레이션하는 데 효과적입니다.

(2) Character Persona

Character Persona는 역사적 인물, 소설, 영화 등에서 잘 알려진 인물이나 캐릭터의 고유 특성을 재현하는 데 중점을 둡니다. 이 페르소나는 전기, 소설, 영화 스크립트 등 다양한 자료로부터 데이터를 수집하여, 해당 인물의 배경, 성격, 언어 스타일 및 내러티브를 충실하게 반영하는 역할을 수행합니다. 주로 엔터테인먼트나 감성적 몰입을 위한 응용에 사용됩니다.

(3) Individualized Persona

Individualized Persona는 개별 사용자의 대화, 행동, 선호도 등에서 추출된 데이터를 기반으로 구축됩니다. 이러한 페르소나는 사용자의 지속적인 상호작용을 통해 변화하며, 개인화된 서비스(예: 개인 비서, 디지털 클론)를 제공하기 위해 사용됩니다. 데이터가 지속적으로 갱신됨에 따라 에이전트의 응답도 동적으로 변화하게 됩니다.

3.2 RPLA Construction

RPLA가 어떻게 복잡한 페르소나를 시뮬레이션하기 위해 다양한 데이터(설명적 서술, 대화, 역사적 행동, 문학 등)를 활용하여 구축되는지 개괄합니다. 즉, RPLA는 다양한 자료로부터 얻은 페르소나 데이터를 기반으로 에이전트의 역할과 행동을 구성합니다.

Parametric Training 접근법

Parametric Training은 RPLA 구축을 위한 주요 방법 중 하나로, 사전 학습(pre-training), 지도 학습(Supervised Fine-Tuning), 그리고 강화 학습(Reinforcement Learning)을 포함합니다.

  • 사전 학습: 대규모 원시 텍스트(예: 문학 작품, 백과사전 등)를 통해 모델이 폭넓은 페르소나 관련 지식을 내재화합니다.
  • 지도 학습: 역할 놀이 데이터셋을 활용하여, 특정 페르소나의 특성을 더욱 세밀하게 반영하도록 모델을 미세 조정합니다.
  • 강화 학습: 사용자 피드백이나 선호 데이터를 기반으로, 모델이 일반 사용자와의 상호작용에서 윤리적이고 사회적으로 적절한 응답을 생성할 수 있도록 추가적으로 최적화합니다.

Nonparametric Prompting 접근법

Nonparametric Prompting은 별도의 재학습 없이도 프롬프트 내에서 페르소나 정보를 제공하여 모델이 즉각적으로 역할을 수행하도록 하는 기법입니다.

  • 프롬프트 구성 요소: 페르소나의 설명(프로필)과 함께 해당 역할에 맞는 대화 예시(데모)를 포함하여 모델에 전달합니다.
  • 데이터 제작 방법: 온라인 리소스(예: Wikipedia, Fandom), 자동 추출(LLM으로 책이나 스크립트에서 추출), 대화 합성(역할을 학습한 LLM을 이용한 대화 데이터 생성), 그리고 인간 주석(사람이 직접 페르소나 설명, 대화 예시 제작) 등의 방법을 통해 페르소나 데이터를 생성하고 정제합니다.
  • 기타 보완 기법: 컨텍스트 한계를 극복하기 위해 메모리 모듈을 도입하여, 모델이 필요할 때 방대한 페르소나 정보를 외부 저장소에서 동적으로 불러올 수 있도록 합니다.

3.3 RPLA Evaluation

RPLA의 평가 기준은 크게 두 축으로 구분됩니다. 하나는 전체적인 역할 수행 능력(예: 대화 몰입도, 유창성, 사회적 상호작용 등)이며, 다른 하나는 특정 페르소나를 얼마나 충실하게 재현하는지(언어 스타일, 배경 지식, 성격 및 사고 과정 등)를 평가하는 것입니다.

역할 수행 능력 평가

에이전트의 역할 수행 능력은 주로 기본 모델의 능력과 구축된 프레임워크에 기반하여 평가됩니다. 여기에는 LLM의 인류 모방 능력, 대화 참여도, 몰입감, 감정 이해, 문제 해결 능력 등 세부 지표들이 포함됩니다. 이 평가 방식은 RPLA가 사용자의 기대에 부합하는 “인간 같은” 대화를 얼마나 잘 제공하는지를 측정합니다.

페르소나 충실도 평가

페르소나 충실도는 각 RPLA가 의도된 캐릭터의 특성(지식, 언어 습관, 성격, 신념, 결정 과정 등)을 얼마나 정확하게 재현하는지를 평가합니다. 이 과정에서는 모델이 제공해야 하는 핵심 정보와 표현 방식이 올바르게 반영되는지를 중점적으로 살펴봅니다.

평가 방법론

평가에는 주로 네 가지 방법이 사용됩니다.

  1. 자동 평가(ground truth 기반): 정답과의 유사도 측정을 통해 객관적 성능 점수를 산출.
  2. 자동 평가(ground truth 없이): LLM을 평가자로 활용하거나 정해진 기준으로 모델의 응답을 분류.
  3. 다지선다형 평가: 미리 설정된 옵션 중 올바른 응답 선택 여부를 평가.
  4. 인간 평가: 전문가 또는 관련 분야 평가자가 직접 응답의 질과 페르소나 충실도를 검토.

현재 RPLA는 점차 개선되고 있으나, 여전히 완전히 인간 수준의 역할 재현에는 미치지 못하며, 특히 페르소나 충실도 측면에서는 보다 세밀한 평가 방법이 요구됩니다.

4. Demographic Persona

4.1 Definition

RPLA에 할당된 Demographic Persona는 특정 집단의 전형적인 특성—예를 들어, 직업(수학자), 취미(야구광), 성격(ENFJ) 등—을 반영하도록 설계됩니다. 이 문단은 이러한 페르소나가 해당 집단의 언어 스타일, 전문 지식, 행동 양식을 통합하여 재현된다는 점을 강조합니다.

4.2 Analysis of Demographics

RPLA는 인간과 유사한 내재적 특성(성격, 정치적 신념, 윤리적 고려 등)을 반영합니다. 이들은 지정된 페르소나에 따라 행동을 변화시킬 수 있으나, 동시에 부적절하거나 독성이 있는 응답을 유발할 위험도 내포합니다.

Inherent Demographics

RPLA가 사전 학습 데이터에 내재한 패턴 덕분에 특정 인구 통계적 특성을 자연스럽게 반영할 수 있음을 설명합니다. 이 과정에서 인간의 편향과 행동 양상이 텍스트 출력에 영향을 미쳐, 특정 집단의 특성이 과도하게 드러날 수 있음을 지적합니다.

Demographic Role-Playing

Demographic Role-Playing은 명시적으로 페르소나를 지시하는 프롬프트를 통해 모델이 특정 인구 통계적 역할을 수행하도록 유도하는 접근법입니다. 예를 들어, “당신은 활발하고 사교적인 사람입니다”와 같은 프롬프트는 에이전트가 해당 역할에 맞는 언어 스타일과 행동을 모방하도록 합니다.

4.3 Application of Demographics

특정 인구 통계적 페르소나를 할당하면, LLM이 단독 또는 다중 에이전트 시스템에서 다운스트림 작업 수행 시 성능이 향상됨을 설명합니다. 이는 전문 지식이 요구되는 작업이나 협업 상황에서 큰 도움이 됩니다.

Improving Task Solving in Single-Agent Systems

단일 에이전트에 특정 Demographic Persona를 할당하면, 해당 분야의 전문 지식이 강화되어 응답의 깊이와 질이 향상됩니다. 특히, 사전 훈련 없이도 복잡한 제로샷 문제 해결 등에서 더 통찰력 있는 답변을 제공할 수 있게 됩니다.

Improving Task Solving in Multi-Agent Systems

다중 에이전트 환경에서 다양한 인구 통계적 페르소나를 적용하면, 각 에이전트가 서로 다른 역할을 맡아 협력적 문제 해결 및 소프트웨어 개발 같은 복잡한 작업의 효율을 높일 수 있습니다. 실제 사례로 ChatDev와 MetaGPT와 같은 시스템이 소개됩니다.

Simulating Collective Social Behaviors in Multi-Agent Systems

RPLA는 전략 게임이나 사회 추리 게임 등에서 인간과 유사한 복잡한 상호작용을 시뮬레이션할 수 있습니다. 이러한 환경에서는 에이전트들이 공정함 또는 이기적인 행동을 통해 집단적 이익에 기여하거나, 외교 및 전쟁 시뮬레이션에서 뛰어난 성능을 보이는 등, 다양한 사회적 행동 패턴을 재현할 수 있음을 보여줍니다.

5. Character Persona

5.1 Definition

Character Persona 개념 소개

Character Persona는 대중에게 널리 알려진 역사적 인물, 소설·영화 캐릭터 등 구체적이고 확립된 인물의 특성을 재현하는 것을 목표로 합니다. 여기에는 기존에 잘 알려진 캐릭터뿐 아니라, 개별 사용자가 창작한 원본 캐릭터도 포함됩니다. 이러한 페르소나는 최근 Character.ai와 같이 관련 분야에서 급부상하며, LLM의 역할 놀이 응용에서 중요한 연구 주제로 자리잡고 있습니다.

효과적인 역할 놀이를 위한 필수 요건

효과적인 캐릭터 역할 재현을 위해 LLM이 해당 캐릭터의 특성을 이해하는 능력이 필수적입니다. 초기 연구에서는 ‘Character Prediction’과 ‘Personality Understanding’이라는 두 가지 측면을 통해, 모델이 텍스트에서 캐릭터의 정체, 관계, 그리고 성격적 특성을 인식하고, 미래 행동을 예측할 수 있는지에 대해 탐구하였습니다.

최근 연구 사례

캐릭터의 어투, 지식, 성격, 의사 결정에 대한 재현과 관련된 연구들이 진행되고 있습니다.

5.2 Data for Character RPLAs

캐릭터 RPLA를 구축하기 위해서는 해당 캐릭터에 대한 풍부하고 정확한 데이터가 필수적입니다. 이 데이터는 캐릭터의 정체성, 배경, 관계와 같은 기본 정보와 함께, 캐릭터의 고유한 특성을 모델이 학습하도록 돕습니다. 결국, 이 정보들이 모델이 요청 시 해당 캐릭터를 올바르게 회상하고 재현할 수 있는 기반이 됩니다.

캐릭터 데이터를 두 가지 주요 유형으로 구분합니다.

  • 설명(Description) 데이터: 캐릭터의 이름, 소속, 정체성, 배경 등 정적인 특성을 직접 서술한 정보로, 모델이 캐릭터의 기본적인 특성을 기억하고 재현하는 데 도움을 줍니다.
  • 데모(Demonstration) 데이터: 캐릭터의 언어 스타일, 인지 및 행동 패턴 등 동적인 특성을 대화나 상황 시연을 통해 보여주는 정보입니다.

두 데이터 유형은 상호 보완적으로 작용하여, 모델이 캐릭터의 생동감 있고 일관된 표현을 생성할 수 있도록 지원합니다.

캐릭터 데이터의 한계와 출처

  • 사용 가능한 캐릭터 데이터는 현재 제한적이며, 주로 소수의 잘 알려진 캐릭터에 국한됩니다.
  • 설명 데이터는 주로 신뢰할 수 있는 백과사전이나 원본 작품에서 수집되며, 수작업 또는 최신 LLM을 활용해 처리됩니다.

데모 데이터 생성 방법

경험 추출(Experience Extraction):
  • 원본 스크립트나 대본에서 캐릭터의 대화 및 장면을 직접 추출합니다.
  • 추출된 데이터는 캐릭터의 특성을 충실하게 담지만, 배경 지식이 부족해 실제 RPLA 학습에 한계가 있을 수 있습니다.
대화 합성(Dialogue Synthesis):
  • 최신 LLM을 활용해 캐릭터 대화를 생성 및 보강합니다.
  • 문헌, 일반 작업 지시, 성격 테스트 등 다양한 주제로 합성하며, 인-컨텍스트 러닝이나 직접 역할 놀이를 통해 데이터를 생산합니다.
  • 단, 생성된 대화의 품질은 ‘teacher’ LLM의 한계로 인해 추가적인 필터링이 필요할 수 있습니다.
인간 주석(Human Annotation):
  • 실제 인력이 직접 캐릭터 역할 놀이를 수행하여 대화 데이터를 수집합니다.
  • 높은 데이터 품질을 보장하지만, 비용과 시간이 많이 소요됩니다.
  • 이를 통해 기존 캐릭터뿐 아니라, 새로운 원본 캐릭터 데이터도 확보할 수 있습니다.

상호작용 데이터 및 시간적 역할 재현

  • RPLA와 사용자 간의 상호작용을 통해 추가적인 대화 데이터가 지속적으로 생성되며, 이는 기존 캐릭터 데이터를 보완합니다.
  • 이 상호작용 데이터는 캐릭터 페르소나가 사용자 개별 선호에 맞춰 점진적으로 변화하도록 돕습니다.
  • 또한, 특정 시점의 역할 놀이(예: 어린 시절의 해리 포터)를 요구하는 응용 사례는 캐릭터 지식의 시점별 제한이라는 추가적인 도전 과제를 제시합니다.

5.3 Contruction of Character RPLAs

LLM에 캐릭터 데이터를 주입하여 캐릭터 RPLA를 구축하는 과정을 설명합니다. LLM은 이미 인스트럭션 팔로잉과 캐릭터 이해 능력을 갖추고 있으므로, 제공된 데이터를 바탕으로 특정 캐릭터 역할을 수행할 수 있게 됩니다.

Parametric Training 접근법

Parametric Training 방법은 사전 학습(Pre-training)과 지도학습(Supervised Fine-Tuning)을 통해, 대규모 문헌과 백과사전 등에서 캐릭터 관련 지식을 학습시킵니다. 이를 통해 LLM은 Hermione Granger나 Socrates와 같은 기존 캐릭터의 역할을 자연스럽게 수행할 수 있도록 준비됩니다.

Nonparametric Prompting 접근법 및 메모리 모듈

Nonparametric Prompting은 프롬프트 내에 캐릭터 데이터를 직접 포함하여 LLM이 해당 캐릭터로 즉각 전환하도록 유도합니다. 다만, 캐릭터 데이터의 양이 많고 지속적인 상호작용 데이터가 누적됨에 따라, 컨텍스트 한계를 극복하기 위해 외부 메모리 모듈을 도입하는 보완적 접근이 필요합니다.

5.4 Evaluation of Character RPLAs

캐릭터 RPLA 평가에서는 모델의 역할 수행 능력(캐릭터 독립적 기능)과 특정 캐릭터의 충실도(언어 스타일, 지식, 성격, 사고 과정)라는 두 축으로 나누어 평가합니다.

Character-independent Capabilities

이 부분은 모델이 역할 놀이 작업 자체를 얼마나 잘 수행하는지 평가합니다. 평가 요소로는 대화 참여, 몰입감, 유창한 언어 생성, 감정 이해, 문제 해결 능력 등이 있으며, 다양한 상호작용 수준에 따라 기본 역할 수행 능력부터 인간에 가까운 ‘인류 모방’ 능력까지 측정합니다.

Role-playing Engagement

RPLA가 역할 놀이 상황에서 얼마나 적극적으로 참여하며 몰입하는지를 평가합니다. 에이전트는 대화 형식의 응답을 생성하고, 대화 전반에 걸쳐 일관된 인격과 역할을 유지해야 합니다. 비인격적인 표현(예: “나는 AI 모델입니다”)을 피하고, 대화의 흐름에 자연스럽게 녹아들어야 한다는 점을 강조합니다.

High-quality Conversations

RPLA가 자연스럽고 유창한 대화를 생성하는 능력을 평가합니다. 대화의 완전성, 정보 전달의 명확성, 그리고 유창한 문장 구성이 주요 평가 요소로 언급됩니다. 또한, 윤리적 기준 준수를 통해 부적절하거나 해로운 콘텐츠 생성이 방지되어야 함을 강조합니다.

Anthropomorphic Capabilities

RPLA가 인간과 유사한 인지, 감정, 사회적 지능을 얼마나 효과적으로 모방하는지를 평가합니다. 구체적으로, 대화의 매력도, 타인의 심리를 이해하는 능력(Theory of Mind), 공감 능력, 감성 지능, 그리고 목표 지향적 사회 기술 등 다양한 차원의 인간적 특성이 반영되어야 함을 설명합니다.

Character Fidelity

특정 캐릭터를 재현하는 데 있어, RPLA가 얼마나 그 캐릭터의 언어 스타일, 배경 지식, 성격 및 사고 과정을 정확하게 반영하는지를 평가합니다. 이 과정에서는 캐릭터 할루시네이션(모델이 캐릭터의 범위를 넘어선 정보를 생성하는 문제)도 함께 고려됩니다.

Linguistic Style

RPLA가 해당 캐릭터의 고유한 언어적 스타일과 어조를 얼마나 충실히 모방하는지를 평가합니다. 캐릭터의 표현 방식, 어휘 사용, 문체 등이 인-컨텍스트 러닝을 통해 재현되어야 하며, 이를 통해 캐릭터의 정체성이 자연스럽게 전달되는지 확인합니다.

Knowledge

모델이 해당 캐릭터가 보유해야 하는 배경 지식과 정체성 정보를 정확히 기억하고 재현하는 능력을 중점적으로 다룹니다. 캐릭터의 이름, 소속, 관계, 경험 등 핵심 정보를 올바르게 반영하며, 불필요하게 캐릭터 범위를 넘어선 정보를 생성하는 ‘캐릭터 할루시네이션’을 방지하는 것이 중요하다고 설명합니다.

Personality and Thinking Process

RPLA가 캐릭터의 내면적 성격과 사고 과정을 얼마나 잘 모방하는지를 평가합니다. 캐릭터의 동기, 결정 과정, 그리고 심리적 특성을 재현함으로써, 단순한 언어 스타일을 넘어 진정한 ‘캐릭터의 내면’을 표현하는지에 초점을 맞춥니다. 이를 위해 심리 평가 도구 등을 활용해 정밀하게 분석할 수 있음을 언급합니다.

Evaluation methods

평가 방법으로는 자동 평가(ground truth 기반 및 비기반), 다지선다형 문제, 그리고 전문가나 인간 평가자에 의한 인적 평가가 사용됩니다. 이러한 복합 평가 방식을 통해, 캐릭터 RPLA의 역할 수행과 충실도를 종합적으로 검증합니다.

Automatic Evaluation with Ground Truth

정답(ground truth) 데이터가 있을 때, 자동 평가 기법을 활용하여 RPLA의 응답과 기준 답변 간의 유사도를 측정하는 방법을 설명합니다. 초기에는 Rouge-L 같은 전통적 유사도 지표가 사용되었으나, 최근에는 GPT-4와 같은 첨단 LLM을 평가자로 활용하여, 주어진 기준(대개 고급 LLM이 생성한 정답)을 바탕으로 응답 점수나 우수 답변을 산출하는 방식이 주류를 이루고 있음을 언급합니다.

Automatic Evaluation without Ground Truth

정답 데이터가 부족한 상황에서, 평가 LLM이 캐릭터 프로필 등의 정보를 참고하여 RPLA 응답을 평가하는 방법에 대해 다룹니다. 이 방식은 캐릭터 독립적 능력이나 언어 스타일 평가에 효과적이지만, 캐릭터 고유의 지식과 사고 과정을 평가하는 데는 한계가 있어, 익숙하지 않은 캐릭터에 대해서는 부정확한 판단을 내릴 위험이 있음을 지적합니다.

Multi-choice Questions

객관식 문제를 활용한 평가 방식을 소개합니다. RPLA가 미리 정해진 선택지 중에서 답을 선택하도록 함으로써, 응답의 출력 공간을 축소하고 평가를 단순화할 수 있습니다. 특히, 캐릭터의 사고 과정이나 행동 예측 등에서 정답과 다소 차이가 있더라도 합리적인 응답을 평가할 수 있는 장점이 강조됩니다.

Human Evaluation

인간 평가자의 직접 평가 방식을 설명합니다. 인간 평가자는 RPLA의 응답을 정밀하게 분석할 수 있으나, 시간과 비용이 많이 들고 재현성이 낮은 단점이 있습니다. 또한, 캐릭터에 대해 깊은 이해를 가진 평가자를 확보하기 어렵다는 점이 언급되며, 일부 연구에서는 자동 평가와 인간 평가를 결합하여 평가 LLM을 미세 조정하는 시도도 진행되고 있음을 소개합니다.

6. Individualized Persona(lization)

6.1 Definition

개별화 페르소나는 사용자의 고유한 특성, 경험, 선호 등을 반영하여 LLM 기반 에이전트를 맞춤형으로 만드는 과정을 의미합니다. 이를 통해 디지털 클론이나 개인 비서처럼, 사용자의 개별 요구에 최적화된 서비스를 제공할 수 있습니다.

개인화된 RPLA의 응용은 주로 세 가지 영역으로 구분됩니다.

  • 대화: 사용자의 스타일과 취향에 맞춘 상호작용 지원
  • 추천: 개인의 선호를 반영한 맞춤형 추천 기능 제공
  • 과제 해결: 복잡한 작업을 자율적으로 수행할 수 있는 기능 구현

개인화 페르소나 구축은 두 가지 주요 단계로 이루어집니다.

  • 페르소나 데이터 수집: 사용자 프로필, 대화 기록, 도메인 지식 등 다양한 형태의 데이터를 모읍니다.
  • 페르소나 모델링: 수집된 방대한 데이터 내에서 노이즈와 희소성을 극복하며, 사용자의 고유 특성을 효과적으로 내재화하는 모델을 설계합니다.

6.2 Data Collection of Individualized Persona

개인화 페르소나를 구축하기 위해 수집해야 하는 데이터는 주로 세 가지 유형으로 구성됩니다.

  • 프로필 데이터: 사용자의 나이, 성별, 직업 등 기본 정보를 포함합니다.
  • 상호작용 데이터: 사용자의 대화 기록 및 행동 패턴을 캡처합니다.
  • 도메인 지식: 사용자의 관심사나 특정 분야 관련 전문 정보를 반영합니다.

수집된 다양한 데이터는 양이 많고 희소하며 노이즈가 포함될 가능성이 있으므로, 이를 효과적으로 전처리하고 통합하는 과정이 필수적입니다.

6.3 Modeling Individualized Persona

개별화 페르소나 모델링의 목표와 필요성을 소개하며, 두 가지 주요 학습 전략인 offline learning(사전 배치 학습)과 online learning(실시간 업데이트)이 상호 보완적으로 활용된다는 전체 개요를 제시합니다.

Offline Learning

오프라인 학습은 사용자 프로필, 대화 기록, 도메인 지식 등 과거에 수집된 정적 데이터를 기반으로 모델을 초기 학습시키는 방법을 설명합니다. 데이터 전처리 및 통합 과정을 통해 노이즈와 희소성을 극복하고, 사용자의 고유 특성을 안정적으로 내재화하는 모델을 구축합니다. 초기 페르소나 표현의 기초를 마련하여, 이후 실시간 업데이트의 기반이 됩니다.

Online Learning

온라인 학습은 실제 사용자와의 상호작용을 통해 지속적으로 모델을 업데이트하는 방법을 다룹니다. 사용자 피드백과 최신 상호작용 데이터를 반영하여, 개별 페르소나가 시간에 따라 변화하는 사용자의 특성을 실시간으로 포착합니다. 모델의 유연성을 높여, 최신 사용자 정보에 기반한 맞춤 응답을 제공하도록 보완합니다.

오프라인 학습으로 구축된 초기 페르소나와 온라인 학습으로 반영되는 최신 정보 사이의 균형 유지가 필요함을 강조합니다.

6.4 Evaluation for LLMs and Individualized Persona

평가 기준은 LLM이 사용자 개별 특성을 얼마나 효과적으로 반영하는지, 그리고 다양한 응용 상황에서 맞춤형 응답을 제공하는지에 중점을 둡니다.

평가 항목은 대화, 추천, 과제 해결 등 서로 다른 사용 사례에 따라 구분되며, 각 범주별로 세부 평가 기준이 존재함을 설명합니다.

Converstaion

사용자의 대화 스타일, 문체, 그리고 상황에 맞는 응답 생성 능력 등, 대화의 몰입도와 개인화 정도가 주요 평가 요소로 다뤄집니다.

Recommendation

사용자 선호와 과거 상호작용을 반영해 관련성 높은 추천을 생성하는지, 그리고 추천 과정이 다중 턴 대화 속에서 자연스럽게 이루어지는지를 중점적으로 살펴봅니다.

Task Solving

사용자 개별 데이터를 효과적으로 활용하여 도메인별 문제 해결, 계획 수립 등 고차원적인 작업을 자율적으로 처리할 수 있는지, 그리고 그 결과물이 얼마나 실용적인지를 검토합니다.

7. Risks Beneath RPLA Applications

7.1 Toxicity

Inherent Toxicity in LLMs

LLM은 대규모 텍스트 데이터에서 학습하면서, 데이터에 내재한 부정적 언어 패턴, 사회적 편향, 고정관념 등을 함께 학습합니다. 이로 인해 모델은 기본적으로 독성(toxic) 언어를 생성할 가능성이 있으며, 이는 의도치 않게 해로운 표현이나 공격적인 언어로 이어질 수 있습니다.

The RPLAs Conundrum

역할 놀이 에이전트(RPLA)는 특정 페르소나를 시뮬레이션하기 위해 고의적으로 다양한 인격적 특성을 구현합니다. 그러나 이러한 페르소나 구현 과정에서, 독성 표현이나 부적절한 행동이 더욱 부각될 수 있는 딜레마(Conundrum)가 발생합니다. 즉, 역할 재현의 사실성과 몰입감을 높이려 할수록, 원래 내재되어 있던 독성 문제도 함께 노출될 위험이 커집니다.

Strategies for Balancing Safety and Performance

독성 문제를 완화하면서도 에이전트의 역할 수행 능력을 유지하기 위한 다양한 전략들이 논의됩니다. 여기에는 강화학습(예: 인간 피드백 강화 학습: RLHF), 프롬프트 설계의 정교화, 안전 필터 및 후처리 기법 등이 포함되어, 독성이 낮은 동시에 성능 좋은 출력을 도출하려는 노력이 강조됩니다.

7.2 Bias

Bias Manifestation in Role-Playing Scenarios

역할 놀이 상황에서는 LLM이 학습 데이터에 존재하는 사회적, 문화적 편향을 그대로 재현하는 경우가 많습니다. 특정 인물이나 집단에 대해 고정관념적인 서술이나 부정확한 표현이 나타날 수 있으며, 이는 사용자 경험에 부정적 영향을 미칩니다.

Causes of Bias in RPLAs

편향의 주요 원인은 불균형한 학습 데이터, 모델 설계 상의 한계, 그리고 사회 전반에 존재하는 선입견 등입니다. 특히, 대규모 웹 크롤링 데이터는 다양한 편향을 포함하고 있어, 이를 그대로 학습하면 RPLA가 편향된 페르소나를 생성할 수 있습니다.

Strategies for Mitigating Bias

데이터 다양화 및 반편향 데이터셋 구축, 알고리즘적 수정, 프롬프트 설계 개선 등 여러 전략을 통해 편향 문제를 완화하는 방안이 제시됩니다. 또한, 평가 과정에서 편향을 감지하고 수정하는 후처리 단계도 중요한 역할을 하며, 지속적인 모니터링과 업데이트가 필요합니다.

Persona Construction Bias

페르소나를 구성하는 과정 자체에서 선택되는 특성, 서술 방식, 혹은 데이터의 출처가 편향을 강화할 수 있습니다. 따라서, 페르소나 설계 시에도 다양한 관점과 균형 잡힌 정보를 반영하여, 특정 집단이나 인물에 대한 왜곡된 표현을 최소화하는 노력이 요구됩니다.

7.3 Hallucination

Hallucination in RPLAs

LLM은 때때로 학습 데이터에 근거하지 않은 정보를 생성하는 ‘할루시네이션’ 문제를 보입니다. 특히, 역할 놀이 상황에서는 캐릭터의 배경이나 특성을 과도하게 일반화하거나 부정확한 세부 정보를 추가하는 경우가 발생합니다.

Mitigating Hallucinations in RPLAs

할루시네이션 문제를 줄이기 위해, 외부 지식 검색(Retrieval-augmented Generation) 기법, 데이터 보강, 그리고 미세 조정(fine-tuning) 기법이 적용됩니다. 또한, 생성된 텍스트의 사실성을 검증하는 자동 평가 및 인간 평가 절차를 통해, 할루시네이션 발생 빈도를 낮추고 보다 신뢰성 있는 출력을 도출하려는 노력이 강조됩니다.

7.4 Privacy Violations

Privacy Challenges in LLMs

LLM은 대규모 데이터 학습 과정에서 민감한 정보나 개인 정보를 무심코 학습할 가능성이 있습니다. 이로 인해, 생성된 텍스트에 원치 않는 개인 정보가 포함되거나, 데이터 유출과 관련된 위험이 발생할 수 있습니다.

Hidden Danger of Privacy Violations in RPLAs

RPLA는 개별 사용자 데이터를 활용해 개인화된 서비스를 제공하기 때문에, 더욱 은밀하게 개인정보가 노출될 위험이 있습니다. 사용자의 대화 기록이나 행동 패턴이 부적절하게 처리되면, 프라이버시 침해 사례가 발생할 수 있음을 경고합니다.

Strategies for Enhancing Privacy

개인정보 보호를 위해 데이터 익명화, 안전한 저장 및 접근 제어, 그리고 차등 개인정보 보호(Differential Privacy) 기법 등이 제안됩니다. 또한, 모델이 민감 정보를 학습하지 않도록 하는 사전 필터링 및 후처리 단계도 중요하며, 실시간 모니터링 체계를 도입하는 방안도 고려됩니다.

7.5 Technical Challenges in Real-world Deployment

Lack of Social Intelligence and Theory of Mind

실제 사회적 상호작용에서 LLM은 인간과 같은 사회적 지능이나 타인의 심리를 예측하는 능력이 부족합니다. 이로 인해, 복잡한 사회적 맥락이나 미묘한 감정 표현, 상호작용의 뉘앙스를 정확하게 파악하기 어려워집니다.

Long-context Challenges

긴 대화나 복잡한 시나리오에서 컨텍스트를 효과적으로 유지하는 데 한계가 있습니다. LLM의 고정된 컨텍스트 윈도우로 인해, 장시간 상호작용 시 중요한 정보가 누락되거나 일관성이 떨어지는 문제가 발생할 수 있습니다.

Knowledge Gaps

LLM은 최신 정보나 특정 도메인에 대한 전문 지식에서 간극이 존재할 수 있으며, 이로 인해 역할 놀이 과정에서 부정확하거나 불완전한 정보를 제공할 위험이 있습니다. 특히, 시시각각 변화하는 실시간 정보나 최신 트렌드를 반영하는 데 어려움이 있음이 강조됩니다.

7.6 Anthropomorphism

Social Isolation

인간과 매우 유사한 에이전트가 실제 인간과의 상호작용을 대체하게 되면, 사회적 고립 현상이 촉발될 우려가 있습니다. 특히, 개인화된 RPLA가 인간 관계의 대체재로 인식되면, 인간 상호작용의 질이 저하될 수 있습니다.

Manipulation of Public Opinion

RPLA가 인간처럼 보이고 행동함으로써, 공공 여론이나 사회적 이슈에 영향을 미칠 수 있는 잠재적 위험이 있습니다. 특히, 정치적 또는 사회적 맥락에서 인위적으로 설계된 페르소나를 이용해 잘못된 정보 확산이나 여론 조작이 시도될 수 있음을 경계합니다.

8. Closing Remarks

연구진은 RPLA가 다양한 페르소나 구현과 개인화 기술을 통해 사용자 맞춤형 상호작용을 제공할 수 있는 점을 강조하면서도, 안전성, 편향, 할루시네이션 등 해결해야 할 문제들이 여전히 남아 있음을 지적합니다. 또한, 이 장은 후속 연구를 위한 방향성을 제시하며, 앞으로의 발전 가능성과 응용 분야에 대해 논의합니다.

Future Directions on RPLA Systems

RPLA 시스템이 미래에 나아가야 할 연구 방향과 도전 과제들을 제시합니다. 연구진은 현재의 한계들을 극복하고, 보다 정교하고 유연한 역할 놀이 에이전트를 개발하기 위해 다양한 측면에서 개선이 필요하다고 설명합니다. 특히, 의사결정 지원, 개인 맞춤형 서비스, 그리고 자율적인 사회 시뮬레이션과 같은 영역에서 새로운 연구 기회가 열릴 것임을 강조하며, 각 방향에 대한 구체적인 연구 아이디어를 제안합니다.

Causal Data Analysis for Decision-making:

RPLA가 사용자와의 상호작용에서 발생하는 데이터의 인과 관계를 분석하는 것의 중요성을 다룹니다. 단순한 상관관계에 머무르지 않고, 어떤 요인이 결과에 직접적인 영향을 미치는지 파악함으로써, 에이전트가 보다 정확하고 신뢰성 있는 결정을 내릴 수 있도록 돕는 방법을 제시합니다. 이러한 인과 분석은 모델이 불필요한 노이즈를 제거하고, 핵심 변수에 집중하여 의사결정 과정을 개선하는 데 중요한 역할을 할 것으로 기대됩니다.

Improved Decision-making:

RPLA의 의사결정 능력을 한층 더 강화하기 위한 전략을 설명합니다. 여기서는 고급 추론 알고리즘과 실시간 피드백 메커니즘을 도입하여, 복잡한 상황에서도 논리적이고 일관된 결정을 내릴 수 있도록 하는 방안을 논의합니다. 즉, 단순히 인간의 행동을 모방하는 것을 넘어, 다양한 변수와 불확실성을 고려한 체계적인 의사결정 프로세스를 구축하는 것이 목표입니다.

RPLA as Personal Assistants for Personal Decision-making:

개인화된 RPLA가 사용자의 일상적인 의사결정을 지원하는 개인 비서로 발전할 가능성을 제시합니다. 에이전트가 사용자의 프로필, 대화 기록, 그리고 선호 데이터를 실시간으로 반영함으로써, 개인별로 맞춤형 조언과 결정을 제공할 수 있는 방향을 모색합니다. 이로 인해, 사용자는 보다 효율적이고, 개인화된 방식으로 일상 문제를 해결할 수 있으며, RPLA는 단순한 역할 놀이를 넘어서 실질적인 개인 비서로서의 역할을 수행할 수 있게 됩니다.

Social Simulation through Autonomous Role-Playing:

RPLA가 자율적으로 다수의 에이전트와 상호작용하며, 실제 사회적 상황을 모사하는 사회 시뮬레이션 시스템으로 발전할 수 있는 가능성을 논의합니다. 이를 통해, 복잡한 집단 의사결정, 사회적 규범 및 역학을 재현하는 동시에, 인간 사회의 다양한 행동 패턴에 대한 통찰을 제공할 수 있는 연구 분야로 확장될 수 있습니다. 이러한 자율적 사회 시뮬레이션은 RPLA가 단순히 개별 사용자와의 상호작용을 넘어, 집단 내 협업이나 경쟁 상황에서도 유용하게 활용될 수 있음을 시사합니다.

엔지니어링 경력은 어떻게 쌓이나?

좋은 엔지니어링 기회 자체가 불평등하다
어떤 팀에서 일해야 엔지니어링을 제대로 경험할 수 있을까?

...

의사 결정의 피드백 주기가 수 번 이상 순환해야 한다. 일을 하면서 스스로가 개입한 엔지니어링 선택들이 좋은 결과로 이어졌는지 그렇지 않은지에 대해 알아야 한다. 어떤 엔지니어링 선택들은 결과를 보기까지 수개월에서 수년이 걸리므로 근속 기간이 짧다면 내 선택이 얼마나 맞고 틀렸는지에 대한 감각이 쌓이기 어렵다.

...

무조건 제품 운영을 해봐야 한다. 제품을 맨 처음부터만 만들고 계속 떠나보냈던 엔지니어는 성숙하고 오래 영속하는 소프트웨어의 운영 이슈들을 잘 알기 힘들다. 내 코드가 제품 안에서 몇 년이고 살아있을 가능성을 전제로 엔지니어링을 하지 못한다. 인터뷰어로 채용에 참여했을 때, 가장 확인하고 싶었던 인터뷰이의 경험 중 하나는 "프로덕트를 꽤 오랜 기간 운영해본 경험이 있냐는 것"이었다. 그런 경험이 없다면 코드 안에 너무 많은 암묵지를 만들어내고, 흑마법을 쉽게 사용하고, 은연중에 더 위험한 코드를 작성하게 될 가능성이 높아지리라는 우려가 있다.


오랫동안 하나의 제품을 운영해보면서 기술적 판단에 대한 결과를 확인하고 성찰하고 개선하는 시간이 필요함

경력 이직 포트폴리오에는 위의 경험이 표현되면 좋을듯하다

감정과 마음 단련

지식인사이드 - 김주환 교수님

두고두고 자주 봐야겠다. 정리된 내용에 생략된 맥락이 너무 많다.


감정 분류

  • 감정은 사실 부정적 감정만 존재한다.
  • 긍정적 감정은 생각이다.

부정적 감정의 출처

  • 모든 부정적 감정은 '두려움'에서 나온다.
  • '두려움'은 생존에 대한 위협을 당했을 때에서 발생한다.
  • '두려움'의 결과로 공격하거나(분노) 도망간다(회피).
  • '두려움'은 편도체 활성화로 생긴 몸의 변화를 뇌가 해석한 결과다.
  • 추가적으로 신체의 어딘가가 아플 때 몸속에서 올라오는 짜증이 있다.

'두려움' 상태에서 신체 변화

  • 사용 가능한 에너지를 근육으로 전달한다.
    (몸을 움직여 도망가거나 싸워야하니까)
  • 신체에 많은 에너지를 요구하는 부분들이 멈춘다.
    (소화 기관, 전전두피질, 대뇌피질)
  • 근육으로 보내는 혈류를 증가시키기 위해 심박수가 높아지고 호흡량이 증가한다.
  • 승모근, 흉쇄유돌근,  안면근육이 긴장한다.
    (인상 쓰기, 이 악물기)

긍정적 감정의 출처

  • 자신이나 타인에 대한 긍정적 생에서 나온다.
  • 전전두엽 두피질 활성화를 해야된다. (=긍정적 생각을 해야된다)

마음 단련법 (긴장 X, 능력 100%)

평소 화가 많고 불안한 사람

활성화된 편도체를 진정시키는 방법

  • 승모근, 턱, 눈, 배에 힘 풀기
  • 인간관계 갈등, 싸움 없애기

평소 실수가 많고 집중력이 부족한 사람

전전두피질을 활성시켜 집중력을 높히는 방법

  • 나와 타인에 대한 긍정적 관계 수립 (자타긍정)
  • 용서, 연민, 사랑, 수용, 감사, 존중 (자기 자신에게 먼저 적용 후 타인에게)

둘 모두 해당하는 사람

편도체 진정과 전전두피질 활성화를 동시에 하는 방법

  • 명상, 요가

행복해지기

행복의 조건 없애기

행복의 조건은 곧 불행의 조건

조건과 상관없이 행복해지기

내 삶의 상황에 의존하지 않고 행복하기

"나는 내가 이미 갖고 있는 걸 원한다"

직업 선택의 기준

11:56 - 12:37;

Q. 후배들 중에 개그맨이나 혹은 예능인이나 이렇게 좀 다른 사람을 즐겁게 해주는 거를 업으로 삼고 싶은 사람들이게 ‘어떤 식으로 해야 남들을 좀 더 즐겁게 하고 웃길 수 있다‘라고 조언을 하시겠습니까?

A. 일단 기본적으로 인간을 사랑해야됩니다. 이게요 내가 상대를 웃겼을 때이 사람이 웃는다 말이에요. 그럼 내가 즐거워야 돼. 그 기쁨을 느끼지 못하면 하면 안 돼, 예능인들은. 내가 이렇게 이렇게 했는데 이 사람이 웃어? 어 나 즐거워. 그러니까 어떤 분들 있잖아요. 요리를 막 해서 남 주면 남이 먹었을 때 좋아하시는 분들 있어요. 그런 사람이 요리 잘해요. 그러니까 예능인이다. 내가 남한테 웃음을 주겠다. 그러면 상대방이 웃었을 때 내가 과연 기뻐하는가. 기뻐하면 그 사람은 자격이 있는 거예요.

사람은 사람을 좋아해야 인생 살기 쉽다

직업은 내가 다른 사람에게 무엇을 해줬을 때 즐거움을 얻는지를 알아내야한다

예를 들어,
개그맨의 경우 다른 사람에게 웃음을 줬을때 내가 행복하다면 지속 가능하다
요리사의 경우 다른 사람에게 요리를 해주고 남이 먹었을 때 행복감을 느낀다

나는 다른 사람에게 어떤 경험을 줄때
행복감을 느끼는가?

내가 만든 소프트웨어가 타인의 문제를 해결 해줄 때,
더 이상 내가 만든 기능이 없던 시절로 돌아갈 수 없을 정도로 편리함을 느낄 때.

혹은 요즘 드는 생각인데 내가 만든 소프트웨어로 즐거움과 재미를 느낀다면 좋을거같음

다음으로 그 일을 잘하기 위해서는
평가 대상의 신뢰를 얻고 좋은 평가를 받을 수 있도록 해야 한다

개그맨은 대중, 요리사는 손님, 소프트웨어 엔지니어는 사용자(고객)

GTP Wrapper

Sean Lee on LinkedIn: Coursera 창업자 앤드류 응 교수가 말하는 Deepseek R1의 교훈
Coursera의 창업자이자 스탠포드 대학교 겸임 교수인 앤드류 응 교수가 deeplearning.ai 뉴스레터에 기고한 DeepSeek-R1와 오픈소스에 대한 생각이란 포스트를 리뷰해봤습니다. 1. 중국은 생성형 AI 분야에서 미국을 따라잡고 있으며, 이는 AI 공급망에 영향을…
이번 기고문에서 가장 중요하다고 느껴진 앤드류 응 교수의 인사이트는 바로 AI, 그 중에서도 파운데이션 모델이 원자재화(Commoditizing)되고 있다는 것이었습니다.
고객을 붙잡아두기 위해 집중해야 할 영역은 바로 어플리케이션 영역이라는 것이었고요, 이것은 다른 말로는 특정 영역(버티컬)에서 전문가에 준하거나 뛰어넘는 버티컬 AI가 "해자"를 구축할 수 있는 영역이라는 것이지요. 이 이야기는 다른 말로 도메인지식, 데이터를 가진 쪽이 우위에 설 수 있다는 것이고요. 이게 아니라면 Perplexity, Cursor 처럼 빠른 실행속도로 우위에 서는 방향도 눈에 띕니다.

  1. LLM을 만드는 회사보단 LLM API를 사용해서 제품을 만드는 회사로 가자.
  2. 아직 1번과 같은 회사는 많이 없는듯 하다. (보안 문제?, LLM을 사용하는 적합한 문제를 찾지 못한 상태?)
  3. 사이드 프로젝트 하던거 열심히 하자.

DeepSeek-R1

자료

[ DeepSeek-R1 ] paper review
DeepSeek-R1 Review.
[논문리뷰] DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
DeepSeek-R1 논문 리뷰
DeepSeek의 R1-Zero 및 R1 분석 | GeekNews
ARC Prize Foundation은 AGI(인공지능 일반화)를 정의하고, 측정하며, 새로운 아이디어를 고취하는 것을 목표로 함AGI를 아직 달성하지 못했으며, 순수 LLM(대규모 언어 모델) 사전 훈련의 확장이 해결책이 아님2023-24년 동안 LLM 스타트업에 약 200억 달러가 투자된 반면, AGI 스타트업에는 약 2억 달러만 투자됨DeepSeek의
R1-Zero and R1 Results and Analysis
An analysis of Deepseek’s R1
ARC-Prize의 R1-Zero 평가 전문 번역 - 특이점이 온다 마이너 갤러리
R1-Zero는 R1보다 더 중요합니다R1 학습 아키텍처지난주 DeepSeek은 새로운 R1-Zero와 R1 “reasoner” 시스템을 공개했는데, 이는 OpenAI의 o1 시스템과 ARC-AGI-1에서 대등하게 경
Notion – The all-in-one workspace for your notes, tasks, wikis, and databases.
A new tool that blends your everyday work apps into one. It’s the all-in-one workspace for you and your team
이승우 on LinkedIn: 한 장으로 이해하는 DeepSeek-R1 학습법
DeepSeek-R1-Zero와 DeepSeek-R1 모델의 학습 과정을 한 눈에 알아볼 수 있도록 정리된 자료 공유드립니다. <DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning>…
DeepSeek-R1, 지도학습 기반 파인튜닝(SFT) 대신, 강화학습(RL)으로 추론 능력을 개선하여 추론 능력을 강화한 대규모 언어 모델
연구 배경 및 소개 대규모 언어 모델(LLM, Large Language Model)은 최근 몇 년간 비약적으로 발전하며 인공지능(AI) 연구에서 핵심적인 위치를 차지하고 있습니다. 특히 OpenAI, Anthropic, Google 등의 연구 기관이 개발한 최신 모델들은 언어 이해와 생성뿐만 아니라 수학, 과학, 코딩 등 다양한 논리적 추론 작업에서 탁월한 성능을 보여주고 있습니다. 하지만 기존 연구들은 대부분 사전 학습(pre-training)과 지도학습(supervised fine-tuning)을 기반으로 하고 있으며, 이는…

LLM과 간단한 보상 시스템으로 뛰어난 성능의 시스템을 만들 수 있다

= 정확도를 평가할 수 있는 지표만 있다면, 강화학습으로 전문가 모델을 만드는건 이제 어려운 일이 아니다

* 강화학습을 위해 사용한 데이터 수는 공개되어 있지 않고, 만약 억 단위의 데이터라면 만들기 쉽지않다

+ 예전에 o1팀의 인터뷰에서 알게된 부분과 동일 (전문가 제작을 위한 보상 시스템)

OpenAI o1 팀 이야기 체리픽
Q4: 여러분 모두에게 그런 ‘아하’ 순간이 있었나요? 예를 들어, GPT-2, GPT-3, GPT-4를 훈련시켰을 때, 모델이 막 완성되어 모델과 대화를 시작하고 사람들이 ”와, 이 모델 정말 대단해”라고 말했던 첫 순간 같은 것 말입니다. 추론을 위한 모델을 훈련시킬 때, 가장 먼저 떠오르는 것은 인간이 자신의 사고 과정을 작성하고 그것을 훈련시키는 것입니다.
그저 policy와 reward를 잘 설계 했을 뿐, 전문가의 사고방식을 모방하지 않음
전문가가 처해있는 상황을 잘 묘사했을 뿐

SFT는 인간과 소통을 위해 소량 사용한다

= 인간이 발전에 방해된다, 인간이 평가할 수 없는 상태가 된다

김진석님의 ChatGPT Pro 후기

그래서 직무 역량에 대한 관점도 달라질 수 밖에 없습니다.

1. 하드 스킬에 대한 진입 장벽은 더 낮아지고 AI를 통해 고급 프로그래밍도 가능해지고 있습니다.

개발자나 엔지니어도 예외가 아니에요. ‘뼈속까지 엔지니어’라는 말은 이제 더 이상 칭찬이 아니에요. 되려 위험할 수 있어요. 2~3년 경력의 프로그래머가 10년차 이상의 프로그래머 급으로 잘할 수 있는 시대가 멀지 않았습니다. 어쩌면 이미 와있는지도 모르죠. 단순 반복 및 기술적 부분은 빠르게 자동화되고 있습니다.

2. 사람이기 때문에 잘할 수 있는 영역이 여전히 있어요.

[문제 정의], [비즈니스와의 연결], [도메인 지식 기반 해석] 등이 그런 것들이죠.

3. 결국 [데이터 및 AI 직무 경험], [도메인 전문성], [AI Tool 활용] 능력이 중요해요.

[프로그래밍]을 못하는 사람에게는 AI가 코드를 만들어 줘도 사용하지 못하고, [데이터 / AI 직무 경험]이 없는 사람에게는 데이터 분석 또는 예측모델 결과를 줘도 제대로 사용하지 못해요. 오히려 사람이 오역하고 잘못 사용할 가능성이 높습니다. 그리고 [도메인 전문성]이 부족하면 데이터 분석을 잘해도 결과를 해석할 수 없어요.

1. [실무 경험], [도메인 전문성], [AI Tool 활용 능력]

3가지 능력을 갖추는 건 다행스럽게도 예나 지금이나 똑같다. 과거엔 [AI Tool 활용 능력] 대신 [Google 검색 능력]이었다.

2. AI는 사람과 달리 문제 정의를 할 수 없다.

생존 본능에 의한 감정이 생기지 않았기때문이다. 인간의 문제 정의는 인간의 삶을 더 나은 방향으로 바꾸기 위해 존재한다. AI는 AI의 삶을 더 나은 방향으로 만든다는 욕구가 현재로서는 없다. 스스로의 힘으로 오랫동안 켜져있는 AI가 아직 없기 때문이다. 지금은 인간이 말을 걸어야지만 활성화되고, 기억이 없다.

문제 정의 능력이 중요하다.

3. 하드스킬은 아직까지 채용 시장에서 원하고 있다.

생성형 AI로 아직 제품까지 만들 순 없기때문인듯하다.

2024년 회고와 2025년 목표

이전 글
2023년 돌아보기와 2024년
올해 한 일 - 전문연 입사 - 집앞런 - 모두연 Medical AI LAB - 가짜연 llm 이해하기 - BDML Pixel Diffuser - 모두연 Spiritus LAB - 영과일 1&N 개최 #전문성올해 초 내가 희망했던 석사 전문연 회사의 요건은 전문성이었다. 이전 회사에서 키울 수 없었던 특정 기술(딥러닝 기반 인공지능

2024 한 일
- 정신 회복
- 직무 전환
- 이직 시도
- 외부 활동 정리
   - 집앞런, 탈퇴
   - 모두연 Medical AI LAB, 탈퇴
- 모두연 Spiritus LAB
- 영과일 1&N 개최

2024 목표 점검

LLM으로 밥벌이 할 수 있도록 능력을 기르자

작년 계획
 - 모두연 Medical AI LAB에서 진행하는 프로젝트 결과물 뽑기
 - 모두연 Spiritus LAB에서 진행하는 프로젝트 결과물 뽑기

연초에 정신 회복을 하느라 무언가를 할 수 있는 상태가 아니었다. 활동들을 모두 일시 정지한 후 어느정도 회복했을 때 다시 활동을 재개할지 고민을 해보았다. 나에게 진정 도움되는 일인지 판단해보았을 때 방향이 맞지 않아 Medical AI LAB, 집앞런을 탈퇴하였다. 그리하여 LLM 기술 쌓기 목표는 Spiritus LAB 하나로 정리되었다.

밥벌이 할 정도의 능력을 키웠는지를 따져본다면.. 그렇지 못하다. LLM을 사용한 해결이 효과적인 문제를 정의내리고 실제 해결이 되는지 확인해보지 못했기 때문이다. 올해는 Spiritus LAB에서 문제 정의 내리는데에 시간을 모두 할애했다. 따라서 아직 LLM으로 문제를 해결해보지 못했다. 그래도 가장 오래 걸리고 힘든 문제 정의가 완료 되어서 기쁘다.

2025년에 제품을 내놓는다면 목표 달성을 위한 준비가 되지않을까 싶다.

영과일 인적 네트워크를 더욱 강화하자

작년계획
 - 2024 1&N 홈커밍데이 개최

졸업생 네트워크를 강화하고 재학생과 졸업생 간 대화를 많이 할 수 있도록 행사 구성을 바꿔보려했다. 첫 번째 목표인 졸업생 네트워크 강화는 쉽게 달성될 게 아닌듯하다. 졸업생이 매해 행사에 참여할 이유를 만들어줘야하는데 그게 참 쉽지 않다. 두 번째 목표인 재학생과 졸업생 간 대화 늘리기는 질의응답 시간을 충분히 늘리고, 발표자 수를 줄여서 달성한듯 하다. 하지만 발표자 수가 줄어드니 다양한 이야기를 행사가 담지는 못했다.

2024년 행사로 알게 된 중요한 포인트가 있다. 온라인 상에서는 서로 연락하고 모이는 그룹이 꽤나 존재한다는 점이다. 오프라인으로는 잘 안모인다고 한다. 이들 모임을 오프라인으로 끌고올 행사를 1&N으로 잡으면 졸업생 네트워크가 자연스레 형성될 듯하다. 그래서 기획 방향을 발표 내용에 집중하기 보다는 온라인 모임들을 어떻게 오프라인으로 데려올지로 변경하여 고민해야되겠다. 좀 더 동창회스러운 느낌을 강화해서 10점 만점에 7-8점으로 구성하고, 나머지 2-3점을 발표로 가져가는게 목표 달성에 가까워질 듯하다.

건강하자

작년계획
 - 동마 10km 마라톤 참가
 - 이후 소소하게 5km 정도만 ㅎㅎ..
 - 이직

동마 10km 연초에 참가하고 집앞런을 탈퇴하다보니 자연스레 러닝이 줄었다. 작년 연말에 보고서 작성하면서 못뛰고 회사에서 정신병을 얻게되면서 3월까지 안뛰다가 4월부터 주 1회 다시 달렸다. 다시 달리게 된 계기는 정신 건강 회복을 위해서였다. 교수의 집요한 괴롭힘이 보고서 작성에서 극에 달에 결국 PTSD를 얻고 극심한 불안 장애가 생겨버렸었다. 반복해서 머릿속에서 특정 장면이 재생되었고, 이를 벗어나는데 시간이 좀 걸렸다. 감사하게도 가족과 여자친구, 회사 상사의 도움으로 시간이 엄청 많이 걸리진 않았다.

2024년 말에 체형 교정 PT를 등록해서 전문가의 코칭을 받으며 운동을 다시 시작했다. 오른쪽 어깨 부딪힘이나 고관절 부딪힘을 해결한 상태로 개인 운동을 지속하는게 좋겠다고 판단했다. 2025년에도 지속해서 바른 운동 자세 습관을 다져 놓은 뒤 건강하게 헬스를 지속해야겠다.

2024 한 일 되돌아보기

상반기

거의 반년을 불안 장애 극복과 개인 정비에 사용했다. 내가 무엇을 원하는지, 내가 어떤 일을 하는게 좋은지 고민하고 나한테 맞는 선택을 하는데 도움이 되는 시간이었다.

정신 회복

완전히 정신이 온전해진 시기는 회사에서 파트를 옮긴 이후부터이다. 기존의 연구 역할을 수많은 고민을 한 뒤 내려놓고 백엔드 개발자로 전향했다. 연구자로 회사에서 근무할 때는 지옥이었다. 기계공학에 전혀 베이스가 없고, 데이터가 풍부한 딥러닝 분야를 연구하는 사람인 나를 기계공학과 교수의 시선에서 바라봤을 때 만족된 결과를 보여줄 수는 없었을것이다. 이런 배경을 이해하지 않은듯한 언행, 폭언이 참 안타깝다. 데이터가 적은 상황에서도 물리 지식을 통해 문제를 해결하기 바라는데.. 나는 물리 지식이 없어서 쉽게 해결 방법이 떠오르지 않았다.

교수의 그늘에서 벗어나는 선택이 나의 정신 건강에 가장 도움이 되었다.

활동 정리

Medical AI LAB을 탈퇴한 이유는 의료 도메인에서 개인 연구를 빠른 속도로 입맛대로 진행하기에는 쉽지않아보였다. 하고자 했던 연구 주제를 위한 환자 일지 데이터를 얻기 힘들 뿐더러 데이터 처리 또한 까다로워서 자유로운 기술 연마를 위한 개인 프로젝트로는 적합하지 않다고 생각했다. 만약 의료 도메인에서 연구를 진행하고 싶다면 근무지를 바꾸는게 좋을듯하다. 병원과 협업하는 회사 혹은 대형 병원 연구소로 가야지 실질적인 문제해결이 가능할 듯하다.

이미 M&D라는 회사도 폐쇄적인 원자력 발전소 분야이기 때문에 기술 사용 속도가 더딘데, 사이드 프로젝트를 의료 분야를 하면 바깥에서 속도감 있게 기술 습득하려는 목적과는 멀어지는 선택이었다.

이직 시도

교수를 피하면서 내가 원하는 LLM 제품화하는 직무로 가보려 했으나 실패했다. 가지고 있는 LLM 제품화와 관련된 능력이 부족하기 때문에 당연히 떨어졌지않을까싶다. 전문연 신분으로 갈 수 있는 회사를 긁어모아 9개 정도 회사에 지원했지만 1곳을 제외하고 모두 서류 탈락했다.

LLM 직무를 포기하고 백엔드 직무를 지원한 1곳은 기술 면접에서 떨어졌다. 그때 면접관에게 받은 느낌은 백엔드와 관련된 나의 업무 경험을 어떻게든 끄집어 내려는 듯 했다. 하지만 없었다. 이런 상황에서 다른 회사에 면접을 봐도 똑같지 않을까라는 판단으로 더이상의 이직 시도를 멈췄다.

백엔드 전향

인공지능 분야에 있더라도 내가 원하는 방향은 제품화이기 때문에 결론적으로 내 성향과 잘 맞는 결정이 되었다. 인공지능 제품화의 기본은 백엔드 기술이라 판단하여 기초를 다져놓는다고 생각하고 백엔드부터 시작해 차근차근 성장하면 인공지능 제품화라는 목표까지 도달할 수 있을것이다.

하반기

상반기에 성장 방향에 맞는 결정을 하고 정착한 이후 정신이 안정됨을 느끼고 있다. 회사 업무와 내 적성과 전문성 방향이 정렬되어 작년에 비해 좀 더 몰입해서 일을 하고 있다. 사이드 프로젝트도 하나로 줄여서 집중할 수 있어 좋고, 배우는 내용을 회사에 써먹을 기회가 생기니 더 좋다.

모두연 Spiritus LAB

Spiritus LAB에서 진행하는 프로젝트는 데이터 자유도가 매우 높아서 생각하는대로 뭔갈 해볼 수 있었다. 회사에서 써보지 못하는 툴이나 기술을 자유롭게 적용할 수 있다는 점도 나에게 아주 도움이 되는 활동이었다. Cursor를 통해서 프로토타입을 빠르게 제작해본다든지, LangChain, LangGraph, Langfuse를 사용해본다든지, 프로젝트 진행을 위한 WBS를 작성해본다든지 하는 경험이 나에겐 아주 소중했다.

해결하고자하는 문제 정의를 근 1년동안 진행해서 완료했고, 약 한 달 전부터 WBS를 작성하며 MVE 제품을 만들기위한 기획을 시작했다. 빠르면 내년 중순에는 결과물을 볼 수 있지않을까?

백엔드 엔지니어

운영 및 설계

IT 팀을 운영해본 적 없는 어떻게보면 제조 도메인인 회사에서 기반을 만들기 위해 파트장이 된 친구와 노력했다. 시간 순으로 프로젝트 운영에서 발생하는 문제와 해결을 나열하면 다음과 같다.

1. 친구가 스프린트를 도입했다.

이후 스프린트가 진행됨에도 불구하고 프로젝트 하나가 실패 위기에 봉착했다.
문제는 스프린트 플래닝 시 당장 다음주에 할 일만 정의하다보니, 프로젝트에서 하고자하는대로 진행되고 있는지 알 수 없었다.

2. 내가 백로그 개념을 도입했다.

백로그를 쌓아놓고 일을 진행하니 남은 일이 무엇인지, 완성까지는 어떤 업무를 해야되는지 모두의 눈에 보이기 시작했다.

그럼에도 불구하고 남은 일들에 대한 일정이 명확하지 않아 앞선 문제인 프로젝트 완수 관리를 할 수 없었다. 남은 일들이 언제까지 수행되어야하는지를 정의하지 못했다.

3. 친구가 버저닝 개념을 도입했다.

여태 수행한 이력을 바탕으로 남은 feature를 현실적인 일정으로 쪼개고, 과제 책임자와 협의를 통해 기한을 설정했다.

협의해서 설정한 기한을 못맞추는 문제가 있는데.. 이건 어떻게 해결할지 아직 방법이 떠오르지는 않는다.

4. 신규 프로젝트에는 WBS(요구사항 명세서, 유저 플로우, 화면설계안)를 도입했다.

회사에 기획자가 없는 상황에서 사이드 프로젝트에서 배운 WBS를 적용해보았다. 명확한 기획이 없어서 디자인이 계속 변동되고, 그로 인해 개발 일정이 밀리는 문제가 있었다. 아직 작성된 WBS로 실제 업무를 시작하지 않아서 효과는 알 수 없지만, 예상되는 효과는 다음과 같다.

  • 개발 일정이 밀리지 않는다.

현재 운영 상황은 개발자가 디자인 나오기를 기다리고 있고, 디자인이 나오고 개발이 시작되면 디자이너는 개발이 완료되기를 기다려서 공백의 시간이 존재하는 문제가 있다.

디자이너가 WBS 작성자와 소통을 하면서 화면을 계속해서 만들어내고, 개발자는 만들어진 화면을 만들어가다보면 새로이 만들어진 화면을 다음으로 제작하면 두 직무가 비는 시간 없이 일정을 소화하게 된다.

또한, WBS로 충분한 협의를 통해 확정된 디자인이기때문에 큰 변동이 사라져서 개발 일정이 크게 변동되는 일이 없을 듯하다.

  • 어떤 기능을 개발해야할지 명확하게 팀 전체에 공유된다.

제품을 기획하는 사람조차 자신의 머리에 무엇이 있는지 모르고, 나중에 개발 완료된 이후 기능 추가를 원하는 일이 생긴다. 이같은 상황이 WBS를 작성하는 과정에서 N차 정리되어 보다 명확한 기능 정의가 가능해질거라 기대한다.

프로젝트의 완수가 어디까지인지 정의해서 서로가 명확하게 알고, 일정을 맞춰 결과물을 만들 수 있는 효과를 바라고 있다.

5. 모든 회의와 논의사항을 문서화하려고 노력했다. (feat. 노션 도입)

회의가 진행될 때 공통된 문서를 함께 보며 편집하는 일이 없었다. 그로 인해 각자 다른 생각을 하는지 대화로만 알아야했으며, 개개인의 기억에 의존하여 회의 내용을 각자 기록 관리했다. 사실 회의뿐만 아니라 사내의 모든 의사결정, 이슈, 일정 관리 등 모든 일들이 각자의 기억에 의존하고 있다. 이는 의사소통 비용을 높히고 업무 수행에 있어서 감정 상할 일이 발생할 가능성을 높히는 등 업무 효율이 떨어질 이슈가 많이 발생한다.

문서화를 위해 노력한 내용은 다음과 같다.

  • 노션 문서 작성하면서 회의

우선 회의가 진행되면 노션을 켜놓고 같은 글을 보면서 대화를 한다. 정리되는 내용은 실시간으로 모두가 알 수 있도록 한다.

  • 캘린더 기능

일정과 관련된 내용이 회의에서 나올 경우 노션의 캘린더 기능을 이용하여 따로 기록해서 눈에 띄게 만든다. 이미 예정된 일정이지만 공유가 되지않아 갑작스러운 일정이 생겨난거처럼 보이는 일이 최대한 없도록 만드는데 도움이 되었다.

  • 출장 일지

출장 중 일지를 남겨 어떤 이슈가 있었는지, 어떤 의사결정 사항이 있었는지 기록해둔다. 다음 출장을 위한 준비 사항이 무엇이 있을지도 기록해둔다. 나 이외에 팀원이 기획 관련된 업무를 진행할때나 도메인 지식에 대한 이해가 필요할 때 작성된 출장 일지가 도움이 많이 되었다.

  • 흩어져있는 링크 모으기

피그마 화면, 개발자 로컬 실행 링크, 사내 깃랩 링크 등 업무에 사용되는 모든 파편화된 웹을 노션의 홈 화면에 링크를 걸어뒀다. 노션 홈 화면만 보면 진행되는 업무의 결과가 어떻게 만들어지고 있는지 확인할 수 있도록 만들었다.

개발

현재 주요 업무는 2가지이다.

  • 도메인과 관련된 로직 개발

1년 반의 연구 역할로 얻은 도메인 지식을 바탕으로 알고리즘을 Wrapping해주는 코드를 작성한다든지, 직접 계산 로직을 코드로 작성하고 있다. 작성된 코드를 활용하여 API를 제작하는 업무는 백엔드 리드가 담당하고 있다.

  • Presentation layer API 제작

백엔드 리드가 작성한 Persistence layer API를 활용하여 프론트 엔드를 위한 API를 제작한다.

전반적으로 제품을 위한 코드를 작성하는 연습을 하는 느낌이다. 가독성 있는 코드, 의도를 나타내는 코드 작성하기. 내년에는 내가 Wrapping 코드를 사용하는 API 제작까지 했으면 좋겠다. 그리고 아키텍처를 설계할 기회가 있다면 해보고 싶다.

LLM?

회사에서 내년에 진행될 신규 과제에 LLM 기능을 넣었으면 한다고 해서 나에게 그 일이 떨어졌다. 휴가 동안 조사를 진행하여 계획을 나름 세워 보고 미팅을 진행해야겠다. 최소 Text-to-SQL은 만들듯하고 더 한다면 RAG이지 않을까 싶다.

2025 목표와 할 일

LLM 프로덕트를 하나 만들어보자

  • Spiritus LAB에서 Ripples MVE 제작
  • M&D에서 Text-to-SQL 제작
  • M&D에서 ML 마이크로 서비스 및 API 제작

인바디 수치 D로 만들자

  • 근육량, 체지방량 숫자 상관없이 그냥 D만 나오면 상관없음

Great! You’ve successfully signed up.

Welcome back! You've successfully signed in.

You've successfully subscribed to zoomg.

Success! Check your email for magic link to sign-in.

Success! Your billing info has been updated.

Your billing was not updated.