Verifying the existence of maximum likelihood estimates for generalized linear models

이 논문은 일반화 선형 모델 (GLM) 에서 최대우도추정량의 존재를 보장하는 조건을 규명하고, 이러한 조건이 충족되지 않더라도 일부 선형 모수 추정값의 일관성을 보장할 수 있음을 보여주며, 고정효과가 포함된 고차원 모델에서 해당 조건을 검증하는 방법을 제시합니다.

Sergio Correia, Paulo Guimarães, Thomas Zylkin

게시일 2026-03-06
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 문제: "완벽한 예측"이라는 함정 (Separation)

통계 모델 (특히 GLM 이라는 종류) 은 데이터를 보고 "이런 특징이 있으면 결과가 A 일 확률이 높다"는 공식을 찾아냅니다. 하지만 가끔 데이터가 너무 깔끔하게 나뉘어 문제가 생깁니다.

  • 비유: 당신이 "우산이 있으면 비가 온다"는 규칙을 찾으려 한다고 가정해 봅시다. 그런데 데이터에 우산을 쓴 사람은 100% 비를 맞았고, 우산을 쓰지 않은 사람은 100% 비를 맞지 않았다는 기록만 있다면요?
  • 문제: 이 경우 통계 프로그램은 "우산을 쓰면 비가 올 확률이 무한대다!"라고 결론 내리게 됩니다. 수학적으로 '무한대 (Infinity)'는 계산기나 컴퓨터가 처리할 수 없는 숫자입니다. 이 상태를 논문에서는 **"분리 (Separation)"**라고 부릅니다.
  • 결과: 컴퓨터는 "정답을 찾을 수 없다"며 오류를 내거나, 엉뚱한 숫자를 만들어냅니다. 경제학자들은 이 문제를 잘 몰라서, "무한대"인 숫자를 진짜 값인 것처럼 믿고 잘못된 결론을 내릴 위험이 있었습니다.

2. 발견: 모든 모델이 같은 문제를 겪는 건 아니다

저자들은 이 문제가 이진형 (예/아니오) 데이터뿐만 아니라, **수 (Count) 데이터 (예: 무역량, 특허 수)**나 Gamma 분포를 사용하는 모델에서도 발생한다는 것을 확인했습니다.

  • 중요한 차이: 어떤 모델은 문제가 생기면 완전히 무너져버리지만, Poisson(포아송) 모델 같은 경우는 문제가 생긴 데이터만 잠시 치워두면 나머지 데이터로는 여전히 정확한 답을 구할 수 있다는 것을 발견했습니다.
  • 하지만 주의: Gamma 모델 같은 다른 모델들은 치워도 답이 나오지 않거나, 훨씬 더 까다로운 조건을 만족해야 합니다. 즉, "어떤 모델을 쓰느냐"에 따라 대처법이 다릅니다.

3. 해결책: "나쁜 학생"을 제외하고 다시 가르치기

이 논문이 제안하는 가장 강력한 해결책은 매우 단순합니다.

  • 비유: 반에서 시험을 치렀는데, 어떤 학생은 모든 문제를 100% 맞추고, 어떤 학생은 0%만 맞췄다고 합시다. 이 두 그룹은 완전히 분리되어 있습니다. 선생님이 "왜 A 학생은 100% 맞췄을까?"라고 분석하려 해도, 그 학생은 이미 답을 알고 있었기 때문에 분석이 불가능합니다.
  • 해법: 선생님은 그 "완벽한" 학생들 (분리된 데이터) 을 시험지 분석에서 제외하고, 나머지 학생들만 가지고 분석을 다시 합니다.
  • 효과:
    1. 제외된 학생들은 이미 "무조건 맞다/틀리다"가 정해져 있으니, 분석에 방해가 되지 않습니다.
    2. 나머지 학생들만 분석해도, 나머지 학생들에 대한 결론은 원래 전체를 분석했을 때와 똑같은 결과가 나옵니다.
    3. 제외된 학생들에 대해서는 "이 학생은 무조건 맞을 것이다"라고 예측만 하면 됩니다.

이 방법은 기존에 쓰이던 복잡한 방법 (페널티를 주거나 변수를 뺀다) 보다 훨씬 안전하고, 고정 효과 (Fixed Effects) 가 많은 복잡한 데이터에서도 작동합니다.

4. 새로운 도구: "Iterative Rectifier (반복 정류기)"

이제 문제는 "어떻게 그 '완벽한 학생들'을 찾아낼 것인가?"입니다. 데이터가 수만 개이고 변수가 수천 개라면, 일일이 찾아보는 것은 불가능합니다.

  • 기존 방법: 선형 프로그래밍이라는 복잡한 수학적 도구를 썼는데, 데이터가 너무 많으면 컴퓨터가 "계산 중... (계산 안 됨)"이라고 멈춰버렸습니다.
  • 새로운 방법 (이 논문의 기여): 저자들은 **"Iterative Rectifier (IR)"**라는 새로운 알고리즘을 개발했습니다.
    • 비유: 마치 스무고개 게임을 하듯, 컴퓨터가 "이 학생은 분리된 것 같아? 아니야? 다시 확인해 봐"를 반복하면서, 아주 빠르게 분리된 데이터를 찾아냅니다.
    • 장점: 이 방법은 컴퓨터가 아주 빠르게 계산할 수 있도록 최적화되어 있어, 수백만 건의 데이터가 있는 거대한 무역 데이터나 패널 데이터에서도 순식간에 문제를 찾아냅니다.

5. 실제 사례: 무역 데이터의 함정

논문의 마지막 부분에서는 실제 무역 데이터를 예로 들었습니다.

  • 상황: 어떤 국가 간 무역 협정 (FTA) 이 체결되기 전까지, 두 나라 사이에는 단 한 건의 무역도 없었던 경우가 있었습니다.
  • 문제: 컴퓨터는 "FTA 체결 전에는 무역이 0 이고, 체결 후에는 무역이 있다"는 완벽한 분리를 보게 되어, 해당 FTA 의 효과를 "무한대"라고 계산해 버렸습니다.
  • 결과: 연구자들은 이 "무한대"를 보고 "와, 이 협정이 무역을 무한히 늘렸네!"라고 잘못 해석할 뻔했습니다.
  • 해결: 이 논문의 방법을 쓰자, 컴퓨터는 "아, 이 7 개의 데이터는 분리된 거야"라고 찾아내고 제외시켰습니다. 그랬더니 나머지 데이터로 계산한 결과는 정당하고 신뢰할 수 있는 값으로 바뀌었습니다.

요약

이 논문은 **"데이터가 너무 완벽하게 나뉘면 통계 모델이 망가질 수 있다"**는 사실을 명확히 하고, **"그런 나쁜 데이터만 잘라내면 나머지는 여전히 믿을 수 있다"**는 사실을 증명했습니다. 또한, 수천 개의 변수가 있는 거대한 데이터에서도 그 나쁜 데이터를 순식간에 찾아내는 새로운 도구를 개발했습니다.

이는 경제학자들이 더 정확한 모델을 만들고, 잘못된 결론을 피하는 데 큰 도움이 될 것입니다. 마치 거대한 퍼즐을 풀 때, 끼워지지 않는 조각을 먼저 찾아내어 나머지 퍼즐을 올바르게 맞추는 것과 같습니다.