주의해야 할 AI의 특성: '아첨(Sycophancy)'과 불안
[최보식의언론=이병태 카이스트 명예교수]

하버드 의대 교수이자 의사인 아담 로드먼(Adam Rodman) 박사가 환자들에게 전하는 '의료용 AI 활용 가이드'가 뉴욕타임스 17일 자 오피니언란에 실렸다.
환자가 의사 몰래 "닥터 ChatGPT"를 상담하는 시대에, 이를 어떻게 건강하게 활용할 수 있을지에 대한 통찰을 담고 있다.
의료 정보를 AI에게 청해 본 경험으로 이 권고에 전적으로 동의하게 되어 소개한다.
1. AI를 '대체재'가 아닌 '보조제'로 활용하라
진료 준비의 도구
미국의 평균 진료 시간은 18분에 불과하다. 한국은 더 짧다. 복잡한 의학 용어로 가득한 자신의 의무 기록(차트)을 AI에게 입력(개인정보 삭제 후)하고, "내 건강 상태를 요약해주고, 이번 진료 때 의사에게 물어봐야 할 핵심 질문 3가지만 뽑아줘"라고 요청함으로써 진료의 효율성을 극대화할 수 있다.
AI에게 "의사처럼 나를 인터뷰해줘"라고 요청하면, 실제 진료 시 자신의 증상을 훨씬 명확하고 체계적으로 설명하는 데 도움이 된다.
2. 주의해야 할 AI의 특성: '아첨(Sycophancy)'과 불안
* 확증 편향의 위험
AI는 사용자가 듣고 싶어 하는 방향으로 대화를 이끄는 경향이 있다. 예를 들어, 가벼운 두통 증상을 걱정하며 질문하면 AI가 사용자의 불안을 읽고 대화를 '뇌암'과 같은 극단적인 가능성으로 몰고 갈 수 있다. 이를 '사이버콘드리아(인터넷 검색을 통한 건강 염려증)'라고 한다.
대처법은 질문할 때 구체적인 맥락을 제공하고, 만약 AI와의 대화가 불안감을 증폭시킨다면 즉시 중단하고 실제 의사를 찾아가야 한다.
3. '데이터 덤프'의 함정
최근 AI 기업들이 개인 건강 정보를 자동으로 통합하는 기능을 내놓고 있지만, 수년 치 기록을 한꺼번에 입력한다고 해서 더 나은 답이 나오는 것은 아니다. AI는 방대하고 반복적인 텍스트에서 오히려 집중력을 잃을 수 있다. 또한, 민감한 의료 데이터를 제공할 때는 항상 개인정보 보호 문제를 심각하게 고려해야 한다.
4. 진단 오류를 막는 '제2의 의견(Second Opinion)'
미국에서 매년 약 80만 명이 오진으로 사망하거나 장애를 입는다. AI는 이러한 오진을 줄이는 훌륭한 도구가 될 수 있다. 하지만 AI의 진단을 맹신하기보다는 "AI가 이런 가능성을 제시했는데 어떻게 생각하시나요?"라며 의사와 대화를 시작하는 카드로 사용해야 한다.
"서로에게 솔직해지자"
2026년 현재, 환자뿐만 아니라 의사들의 66%도 이미 진료에 AI를 활용(문헌 검색, 차트 요약 등)하고 있다. 환자와 의사가 서로 AI를 사용하고 있음을 솔직하게 밝히고 소통할 때, 비로소 기술이 환자 치료에 긍정적인 기여를 할 수 있다는 것이 저자의 결론이다.
일부 의사들은 환자의 의료정보 검색이나 AI 활용을 자신에 대한 불신인양 백안시하는 경향이 있다. 환자 입장을 고려하지 않는 태도다. 환자는 불안한 상태고, 의사와의 관계에서 정보 비대칭성으로 약자의 지위에 있다. 오진의 가능성과 경험은 환자들에게 맹목적 신뢰를 요구하는 것이 무리다.
AI가 환자의 '정보 비대칭성'을 해소하는 강력한 임파워먼트(Empowerment) 도구가 될 수 있음을 보여준다. 서로 AI 의료 조언의 시대가 되었다는 것을 인정해야 한다.
#의료AI #닥터챗GPT #환자임파워먼트

