A Theory of LLM Information Susceptibility

이 논문은 통계물리학의 도구를 활용하여 고정된 LLM 개입의 성능 한계를 규명하고, 오픈엔디드 에이전트 자기 개선에 필수적인 중첩된 공규모 (nested, co-scaling) 아키텍처의 필요성을 제시하는 'LLM 정보 취약성 이론'을 제안합니다.

원저자: Zhuo-Yang Song, Hua Xing Zhu

게시일 2026-03-26
📖 3 분 읽기☕ 가벼운 읽기

이것은 아래 논문에 대한 AI 생성 설명입니다. 저자가 작성하거나 승인한 것이 아닙니다. 기술적 정확성을 위해서는 원본 논문을 참조하세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 비유: "현명한 중재자 vs. 시스템의 한계"

이 논문의 저자들은 거대한 인공지능 (LLM) 을 **'고정된 중재자 (Fixed LLM)'**라고 상상합니다. 이 중재자는 우리가 만든 여러 가지 해결책 (전략) 을 보고 "어떤 게 가장 좋을까?"를 골라주는 역할을 합니다.

연구의 핵심 결론은 다음과 같습니다.

"자원이 무한히 늘어나도, 고정된 중재자 (LLM) 가 시스템의 성장 속도를 영원히 가속화할 수는 없다."

이를 더 구체적으로 설명하기 위해 세 가지 상황을 비유해 보겠습니다.

1. 고정된 중재자의 한계 (Susceptibility Bound)

  • 상황: 여러분이 100 명의 요리사 (전략 생성기) 를 고용해서 최고의 요리를 만들게 했다고 칩시다. 요리사 수가 늘어날수록 (컴퓨팅 자원 증가) 요리의 맛은 점점 좋아집니다.
  • 중재자의 역할: 이제 이 100 명의 요리사가 만든 요리를 보고 "가장 맛있는 요리를 골라주세요"라고 한 **한 명의 미식가 (고정된 LLM)**를 고용했습니다.
  • 결과: 요리사 수가 100 명에서 1,000 명, 10,000 명으로 늘어날수록, 미식가가 고른 최고의 요리 맛은 계속 좋아집니다. 하지만 미식가 (LLM) 가 고른 요리의 '맛이 좋아지는 속도'는, 요리사들이 직접 고른 요리의 '맛이 좋아지는 속도'를 절대 넘을 수 없습니다.
  • 이유: 미식가는 이미 요리사들이 만든 요리만 보고 선택할 뿐, 새로운 요리를 직접 창조하지 않기 때문입니다. 요리사들이 이미 거의 완벽한 요리를 만들어냈다면, 미식가는 더 이상 그 이상의 '맛의 향상'을 이끌어낼 수 없습니다.

2. 언제 LLM 이 도움이 될까? (저예산 vs. 고예산)

  • 초기 단계 (저예산): 요리사가 5 명뿐일 때는 미식가의 도움이 큽니다. 미식가는 자신의 '세상 지식'을 바탕으로 5 명의 요리사 중 가장 유망한 사람을 골라주어 평균 이상의 성과를 냅니다.
  • 후기 단계 (고예산): 요리사가 10,000 명이나 된다면? 이미 통계적으로 가장 맛있는 요리가 나올 확률이 매우 높습니다. 이때 미식가가 끼어들어도 '맛의 향상 속도'는 더 이상 빨라지지 않습니다. 오히려 미식가가 실수할 수도 있습니다.
  • 결론: LLM 은 자원이 부족할 때는 '지식'으로 도움을 주지만, 자원이 풍부해지면 그 도움의 '효율'은 한계에 부딪힙니다.

3. 해답: '중첩된 구조 (Nested Architecture)'

그렇다면 어떻게 하면 LLM 이 계속 성장할 수 있을까요? 저자들은 **'중첩된 구조'**를 제안합니다.

  • 비유: 단순히 요리사를 늘리는 게 아니라, 미식가 (LLM) 자체도 함께 성장시키는 것입니다.
    • 요리사가 많아질수록 (생성기 성장), 그를 평가하는 미식가의 능력도 함께 키워주는 것입니다.
    • 이렇게 **생성기와 평가자가 함께 성장 (Co-scaling)**하면, 시스템 전체의 성장 속도가 폭발적으로 늘어날 수 있습니다.
  • 의미: AI 가 스스로 진화하려면, 단순히 같은 LLM 을 반복해서 쓰는 게 아니라, 시스템의 각 부분이 서로의 성장을 도와주는 구조로 만들어야 합니다.

📝 이 연구가 우리에게 주는 교훈

  1. 무조건 LLM 을 붙인다고 해서 무한히 똑똑해지지는 않는다.

    • 이미 계산 능력이 충분한 시스템에 LLM 을 덧붙여도, 성능이 '더 빨리' 좋아지지는 않습니다. (마치 이미 달리는 자동차에 더 좋은 내비게이션을 달아봤자, 차의 최고 속도가 빨라지지 않는 것과 같습니다.)
  2. 자원을 어디에 쓸지 고민해야 한다.

    • 초기에는 LLM 의 '지식'이 유용하지만, 자원이 충분해지면 기본적인 알고리즘 (요리사들) 을 더 강력하게 만드는 것이 더 효율적일 수 있습니다.
  3. 진정한 '자율 진화'를 원한다면?

    • AI 가 스스로를 무한히 발전시키려면, 생성하는 부분과 평가하는 부분이 서로 맞춰서 성장하는 (Nested) 구조가 필수적입니다. 고정된 구조에서는 진화의 한계가 명확히 존재합니다.

💡 한 줄 요약

"고정된 LLM 은 자원이 부족할 때는 '지식'으로 도와주지만, 자원이 풍부해지면 '성장 속도'를 더 이상 높여줄 수 없다. 진정한 무한 진화를 원한다면, 시스템의 모든 부품이 함께 성장하는 구조를 만들어야 한다."

이 연구는 물리학의 '감수성 (Susceptibility)' 개념을 AI 에 적용하여, AI 시스템 설계에 대한 새로운 통찰을 제공했다는 점에서 매우 중요합니다.

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →