[Prompt Lab] 프롬프트 실험실

'멀티 페르소나' 프롬프트 기법을 활용한 토론형 콘텐츠 생성 최적화 실험

Agent Daisy 2026. 3. 9. 07:00

단일 프롬프트 실험군(Type A)과 멀티 페르소나 실험군(Type B)의 답변 차이를 데이터로 시각화했습니다. 세 명의 전문가 역할이 통합된 Type B 프롬프트에서 답변의 객관성과 정교함이 비약적으로 향상된 결과(C-O-T 분석 등)를 도식화했습니다.

 


첫 번째 시도: 역할 하나

"너는 글로벌 바이오헬스 전문 애널리스트야. GLP-1 주사제 시장이 헬스케어 로봇 산업에 미치는 영향을 분석해줘."

답변은 깔끔했습니다. 시장 성장률, 밸류체인 변화, 관련 기업 수혜 가능성까지 잘 정리해줬어요. 그런데 읽고 나서 드는 느낌이 묘했습니다. 너무 낙관적이었거든요. 리스크나 부작용에 대한 언급이 거의 없었고, 마치 투자 권유 리포트 같은 분위기였습니다.


두 번째 시도: 역할 셋

이번엔 이렇게 물었습니다.

"너는 세 명의 전문가야. (1) 바이오헬스 애널리스트, (2) 내분비내과 전문의, (3) 의료 윤리학자. 이 세 관점에서 GLP-1 주사제의 확산이 헬스케어 시장과 사회에 미치는 영향을 토론하고 종합해줘."

결과가 꽤 달랐습니다. 애널리스트 관점에서는 시장 기회를 짚었고, 전문의 관점에서는 장기 복용 데이터 부족과 근손실 문제를 지적했으며, 윤리학자 관점에서는 비만을 개인의 의지 문제가 아닌 사회구조적 문제로 바라보는 시각을 제시했습니다. 그리고 마지막에 세 입장을 엮어서 결론을 내줬어요.

수치로 "몇 % 더 좋아졌다"고 말하기는 어렵습니다. 하지만 체감상 분명한 차이가 있었습니다. 첫 번째 답변은 하나의 렌즈로 본 세상이었고, 두 번째는 여러 렌즈를 겹쳐 본 세상이었습니다.


직접 써보면서 느낀 것

AI에게 역할을 줄 때, 서로 긴장 관계에 있는 역할을 동시에 부여하면 답변이 훨씬 입체적으로 나옵니다. 찬성과 반대가 부딪히는 구조를 만들어주면, AI도 어느 한쪽 편을 들기 어려워지거든요.

결국 AI한테서 좋은 답을 끌어내는 건 기술보다는 질문하는 사람이 얼마나 문제를 입체적으로 이해하고 있느냐에 달린 것 같습니다. 프롬프트 엔지니어링이라는 거창한 이름이 붙어 있지만, 핵심은 단순합니다. 좋은 질문이 좋은 답을 만든다는 것.

 

[실험실 추천 도서]

오늘 실험에서 다룬 '멀티 페르소나(Role-Playing)' 기법 외에도, AI 에이전트의 잠재력을 100% 끌어올리기 위한 정교한 프롬프트 엔지니어링 전략이 궁금하신가요? 제가 직접 분석하고 교육 현장에서 참고하는 검증된 서적들을 추천해 드립니다.

  • [프롬프트 엔지니어링 교과서] : 입문자부터 전문가까지, 논리적 프롬프트 구조의 정석을 배우고 싶다면 반드시 읽어야 할 필독서입니다.
  • [생성형 AI 프롬프트 디자인] : 다양한 실무 사례와 시각적 가이드로 복잡한 에이전트 설계를 한눈에 이해하도록 돕습니다.
  • [일 잘하는 사람들의 AI 프롬프트 활용법] : 실험실에서 다룬 효율성 극대화 전략을 실제 업무 프로세스에 즉시 적용할 수 있는 실용서입니다.



2026.03.08 - [[Prompt Lab] 프롬프트 실험실] - AI 에이전트의 답변 품질을 결정짓는 '역할 부여(Role-Playing)'의 논리적 효과

 

 

AI 에이전트의 답변 품질을 결정짓는 '역할 부여(Role-Playing)'의 논리적 효과

1. 실험 배경 및 가설가설: AI 에이전트에게 구체적인 전문가 페르소나를 부여할 때, 단순 질문 대비 답변의 전문성과 논리적 깊이가 비약적으로 향상될 것이다.목표: 교육 및 비즈니스 현장에서

edu.agent-class.site

[English Summary]

Title: Give Your AI Multiple Personas — Here's What Actually Happens

I wanted to test something simple: does it matter how many roles you give an AI when asking a complex question?

I used the same topic for both — the impact of GLP-1 weight-loss drugs (like Mounjaro) on the healthcare market — and tried two different approaches.

The first prompt assigned a single role: a biohealth analyst. The response was polished and well-structured, but it leaned heavily optimistic. It read like a bullish investment memo, with little mention of medical uncertainty or social tradeoffs.

The second prompt assigned three roles simultaneously: a biohealth analyst, an endocrinologist, and a medical ethicist. The response was noticeably different. The analyst covered market opportunity. The physician flagged the lack of long-term data and risks like muscle loss. The ethicist reframed obesity as a structural issue rather than a personal failure. The three perspectives then converged into a more nuanced conclusion.

I won't pretend I can quantify the difference with a precise percentage. But the contrast was clear enough to be useful. A single-persona prompt gives you one lens. A multi-persona prompt gives you several — and that tension between viewpoints seems to push the AI toward more balanced, less one-sided answers.

The practical takeaway: when dealing with complex issues, try assigning AI roles that are naturally in tension with each other. The quality of the output tends to reflect the quality of the question.