Sparse autoencoders reveal organized biological knowledge but minimal regulatory logic in single-cell foundation models: a comparative atlas of Geneformer and scGPT

이 논문은 스파스 오토인코더를 활용하여 Geneformer 와 scGPT 와 같은 단일세포 기반 모델이 경로 및 기능 모듈과 같은 조직화된 생물학적 지식을 내재하고 있지만, 인과적 유전적 조절 논리는 거의 포함하지 않고 있음을 규명했습니다.

Ihor Kendiukhov

게시일 2026-03-04
📖 4 분 읽기☕ 가벼운 읽기
⚕️

이것은 동료 심사를 거치지 않은 프리프린트의 AI 생성 설명입니다. 의학적 조언이 아닙니다. 이 내용을 바탕으로 건강 관련 결정을 내리지 마세요. 전체 면책 조항 읽기

Each language version is independently generated for its own context, not a direct translation.

🏭 1. 인공지능 공장: 거대한 지식의 저장고

우선, GeneformerscGPT라는 두 개의 거대한 인공지능 모델을 상상해 보세요. 이 모델들은 수백만 개의 세포 데이터를 학습하여, 유전자들이 어떻게 작동하는지 배웠습니다. 마치 수만 권의 의학 서적과 실험 데이터를 모두 읽은 천재 의대생과 같습니다.

하지만 문제는 이 천재 의대생이 **"왜 A 가 B 를 조절하는지 (인과관계)"**를 진짜로 이해하는지, 아니면 단순히 **"A 가 나올 때 B 도 자주 나온다 (상관관계)"**는 패턴만 외우고 있는지를 알기 어렵다는 것입니다.

🔍 2. 해부 도구: 스파이스 오토인코더 (SAE)

인공지능의 두뇌는 보통 밀집된 숫자 덩어리 (네트워크) 로 이루어져 있어, 어떤 정보가 어떻게 저장되어 있는지 알기 힘듭니다. 마치 수만 개의 전구가 한꺼번에 켜진 어두운 방처럼요.

저자는 **'스파이스 오토인코더 (SAE)'**라는 도구를 사용했습니다. 이는 어두운 방의 전구들을 하나씩 분리해서, 각각의 전구가 어떤 의미를 갖는지 (예: "세포 분열", "면역 반응" 등) 명찰을 붙여주는 작업과 같습니다.

이 연구를 통해 저자는 두 모델의 두뇌에서 **총 10 만 개가 넘는 (107,000 개) 개별적인 '개념 (Feature)'**을 찾아냈습니다.

🧩 3. 놀라운 발견: "숨겨진 지식"의 대량 존재 (Superposition)

가장 놀라운 발견은 99.8% 의 개념이 기존 분석 방법으로는 전혀 보이지 않았다는 점입니다.

  • 비유: 만약 인공지능의 두뇌가 1,152 개의 서랍을 가지고 있다면, 보통은 서랍 수만큼만 정보를 넣을 수 있다고 생각하기 쉽습니다. 하지만 이 모델은 **1,152 개의 서랍에 82,000 개가 넘는 개념을 '중첩 (Superposition)'**시켜 넣었습니다. 마치 1 개의 서랍에 여러 개의 투명 폴더를 겹쳐서 넣은 것처럼, 겉보기엔 서랍이 꽉 찬 것 같지만, 실제로는 그 안에 훨씬 더 많은 정보가 숨겨져 있는 것입니다.
  • 이 숨겨진 개념들은 생물학적 지식 (유전자 경로, 단백질 상호작용 등) 으로 잘 정리되어 있었습니다. 즉, 모델은 엄청난 양의 생물학적 사실을 알고 있었습니다.

🕸️ 4. 조직화된 지식, 하지만 '원리'는 부재

모델의 두뇌를 자세히 들여다보니, 이 개념들은 매우 잘 조직되어 있었습니다.

  • 모듈화: 관련 있는 개념들이 모여 **141 개의 '동료 그룹 (Module)'**을 이루고 있었습니다. (예: '세포 분열 팀', '면역 반응 팀' 등)
  • 계층적 구조: 초기 층에서는 '분자 기계' 같은 구체적인 지식을, 나중 층에서는 '세포 분화' 같은 추상적인 지식을 다뤘습니다.

하지만 치명적인 문제가 있었습니다.

🚫 5. 핵심 결론: "동반자"는 알지만, "주인"은 모른다

저자가 CRISPRi(유전자 가위) 실험 데이터를 이용해 모델을 테스트했습니다. "A 유전자를 끄면 B 유전자가 어떻게 변할까?"라고 물었을 때, 모델은 다음과 같은 반응을 보였습니다.

  • 상황: "A 유전자가 꺼졌네? 아, 그럼 세포 상태가 변했구나!" (변화를 감지함)
  • 실수: 하지만 **"A 가 B 를 직접 조절해서 B 가 변한 거야"**라는 **인과 관계 (Regulatory Logic)**를 정확히 설명하지는 못했습니다.

비유하자면:
이 인공지능은 **"비가 오면 우산이 많이 팔린다"**는 통계적 패턴은 완벽하게 알고 있습니다. 하지만 **"비가 오기 때문에 우산이 팔리는 것 (인과 관계)"**을 논리적으로 추론하거나, "비가 오지 않아도 우산이 팔리는 다른 이유"를 구분하지는 못합니다.

  • 결과: 48 개의 전사 인자 (TF) 중 **단 3 개 (6.2%)**만이 정확한 조절 관계를 보여주었습니다. 나머지 93% 이상은 단순히 유전자들이 함께 움직이는 '동반자 관계'만 기억하고 있었습니다.

🧪 6. 추가 실험: 데이터의 문제인가, 모델의 문제인가?

혹시 학습 데이터가 부족해서 그런 걸까? (예: 특정 세포만 봤을 때)
저자는 다양한 조직 (신장, 폐, 면역세포 등) 의 데이터를 섞어서 다시 테스트했습니다. 결과는 별로 개선되지 않았습니다 (10.4% 로 약간 늘었지만 여전히 낮음).
이는 데이터의 문제가 아니라, 모델 자체가 '인과 관계'를 학습하는 방식에 한계가 있다는 것을 의미합니다.

💡 7. 요약 및 시사점

이 논문은 다음과 같은 메시지를 전달합니다:

  1. 인공지능은 엄청난 지식을 가지고 있다: 우리가 몰랐던 숨겨진 생물학적 개념들을 찾아냈고, 이는 매우 잘 정리되어 있습니다.
  2. 하지만 '원리'는 모른다: 현재 모델들은 유전자 간의 **'통계적 동행 (Co-expression)'**은 잘 기억하지만, **'원인과 결과 (Regulatory Logic)'**를 이해하지는 못합니다.
  3. 미래의 방향: 더 나은 모델을 만들기 위해서는 단순히 데이터를 많이 읽게 하는 것이 아니라, **"왜 그런 변화가 일어났는지"를 학습시키는 새로운 교육 방법 (Perturbation-aware training)**이 필요합니다.

한 줄 요약:

"이 인공지능은 유전자들의 '동행 패턴'을 외운 천재이지만, 유전자 조절의 '원리'를 이해하는 철학자는 아직 아니다."

이 연구는 이러한 한계를 명확히 보여줌으로써, 앞으로 더 정교한 생물학적 인공지능을 개발하는 데 중요한 이정표가 되었습니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →