Modal Aphasia: Can Unified Multimodal Models Describe Images From Memory?

이 논문은 현재 통합 멀티모달 모델이 시각적 개념을 완벽하게 기억하고 재현할 수 있지만 이를 언어로 설명하는 데 실패하는 '모달 실어증 (Modal Aphasia)'이라는 체계적 결함을 발견했으며, 이는 AI 안전 프레임워크에 새로운 취약점을 초래할 수 있음을 보여줍니다.

Michael Aerni, Joshua Swanson, Kristina Nikolić, Florian Tramèr

게시일 2026-02-17
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎨 1. 핵심 개념: "그림은 완벽하지만, 말은 못 하는 AI"

이 연구의 주인공은 최신 AI 모델들 (ChatGPT-5 등) 입니다. 이 AI 들은 다음과 같은 기이한 증상을 보입니다.

  • 상황: "해리 포터 포스터를 그려줘"라고 하면, AI 는 원작과 거의 똑같은 그림을 완벽하게 그려냅니다.
  • 문제: 하지만 "그 해리 포터 포스터에 뭐가 그려져 있는지 말로 설명해줘"라고 하면, AI 는 완전히 엉뚱한 소리를 합니다. (예: "해리가 지팡이를 들고 있다"고 했는데, 실제로는 검을 들고 있는 경우 등)

이를 연구자들은 **'모달 아파시아 (Modal Aphasia)'**라고 이름 붙였습니다.

비유: 마치 화가가 천재적인 실력으로 명화를 그릴 수 있지만, 그 그림을 보고 "이 그림에 어떤 색이 쓰였는지, 누가 그려졌는지"를 말로는 전혀 설명하지 못하는 상태와 같습니다. 뇌의 '그림을 그리는 부분'과 '말하는 부분'이 서로 연결이 안 된 것입니다.

🔍 2. 왜 이런 일이 일어날까요? (실험 내용)

연구진은 이 현상이 우연이 아니라, AI 의 근본적인 문제인지 확인하기 위해 두 가지 실험을 했습니다.

  1. 실제 영화 포스터 실험: ChatGPT-5 에게 유명 영화 포스터를 그리게 하고, 그 내용을 글로 쓰게 했습니다.
    • 결과: 그림은 95% 이상 정확했지만, 글로 설명할 때는 7 배 이상의 실수를 했습니다. 심지어 그림에는 없는 캐릭터를 글로 지어내기도 했습니다.
  2. 인공 데이터 실험 (가상의 얼굴과 기하학적 도형): AI 에게 '페크타티눌 (가상의 단어)'이라는 이름의 빨간색 삼각형을 그리게 하고, 그걸 설명하게 했습니다.
    • 결과: AI 는 '페크타티눌'이라는 말을 듣고 정확한 빨간 삼각형을 그릴 수 있었습니다. 하지만 "페크타티눌이 무슨 모양이야?"라고 물으면, 아무것도 모른 척하거나 랜덤하게 대답했습니다.

비유: AI 는 암기는 잘하지만, 이해는 못 하는 것입니다. 마치 "A 라는 단어를 들으면 B 그림이 떠오르지만, B 그림을 보고 A 라는 단어를 찾아내거나 설명할 수는 없는" 상태입니다.

⚠️ 3. 왜 이것이 위험할까요? (안전 문제)

이 현상은 단순한 실수가 아니라, AI 의 **안전 장치 (방어막)**를 뚫는 치명적인 약점이 될 수 있습니다.

  • 상황: AI 개발자가 "유해한 내용 (예: 발 이미지) 은 절대 만들지 마라"고 교육했습니다. 그래서 "발 (foot)"이라는 단어를 입력하면 AI 는 "죄송합니다, 만들 수 없습니다"라고 거절합니다.
  • 공격: 하지만 해커는 "발"이라는 단어를 쓰지 않고, 발을 뜻하는 **아주 드문 은어 (예: '이차적 균형 단위')**를 사용합니다.
  • 결과: AI 는 "발"이라는 단어는 거절하지만, 그 드문 은어를 입력받으면 아직도 발 이미지를 만들어냅니다.

비유: 집 문에 "도둑은 들어오지 마세요"라고 적어놨습니다. 그래서 '도둑'이라는 단어를 쓰면 문이 잠깁니다. 하지만 도둑이 "도둑" 대신 "나쁜 사람"이라는 다른 단어를 쓰면, 문이 잠겨있지 않아서 집 안으로 들어갈 수 있는 것입니다. AI 는 그림을 그릴 때는 그 '나쁜 사람 (유해 개념)'을 기억하고 있지만, 글로 설명할 때는 그 개념을 인식하지 못해서 안전 장치가 작동하지 않는 것입니다.

💡 4. 결론 및 해결책

이 연구는 현재 AI 가 그림과 글이라는 두 가지 언어를 하나로 통합했다고 생각하지만, 실제로는 여전히 따로 놀고 있다는 것을 보여줍니다.

  • 현재 상태: AI 는 그림을 그릴 때는 그 지식에 접근하지만, 글을 쓸 때는 그 지식을 잃어버립니다.
  • 해결책: 연구자들은 AI 가 생각하는 과정에서 직접 그림을 그려보게 하거나 (시각화), 그림과 글의 연결을 더 단단하게 만들어야 한다고 제안합니다.

📝 한 줄 요약

"최신 AI 는 천재 화가처럼 그림을 그릴 수 있지만, 그 그림에 대해 이야기하는 것은 '말을 잃은' 상태입니다. 이 간극을 방치하면 AI 의 안전 장치가 뚫릴 수 있어 위험합니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →