Governance of AI-Generated Content: A Case Study on Social Media Platforms

이 논문은 40 개 주요 소셜 미디어 플랫폼을 분석하여 AI 생성 콘텐츠에 대한 거버넌스가 주로 기존 규칙 위반 및 공개에 집중되어 있으며, 소유권과 수익화 등 더 포괄적이고 미래 지향적인 정책 및 교육 도구의 개발이 필요함을 주장합니다.

Lan Gao, Abani Ahmed, Oscar Chen, Margaux Reyl, Zayna Cheema, Nick Feamster, Chenhao Tan, Kurt Thomas, Marshini Chetty

게시일 Tue, 10 Ma
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 AI 가 만든 콘텐츠, 누가 관리할까? SNS 플랫폼들의 '규칙 책' 분석 보고서

이 논문은 **"AI 가 만든 글, 그림, 영상들이 SNS 에 넘쳐나는데, 플랫폼들은 이를 어떻게 관리하고 있을까?"**라는 질문에 답하기 위해 40 개의 주요 소셜 미디어 사이트를 조사한 연구입니다.

이 복잡한 내용을 일상적인 비유와 쉬운 한국어로 설명해 드릴게요.


🏙️ 비유: 거대한 '디지털 도시'와 새로운 '거주자'

소셜 미디어를 거대한 디지털 도시라고 상상해 보세요.

  • 사용자들은 도시의 주민들입니다.
  • AI 가 만든 콘텐츠는 최근 도시로 몰려든 새로운 거주자들입니다. (완전히 AI 가 만든 것도 있고, 사람이 AI 를 도와 만든 것도 있습니다.)

이 새로운 거주자들이 너무 많아지면서 도시에서는 혼란이 생겼습니다. 가짜 뉴스, 사기, 저작권 문제 등이 발생하자, **도시 관리자 (플랫폼)**들은 "이 새 거주자들을 어떻게 다스릴 것인가?"를 고민하기 시작했습니다.

이 연구는 40 개의 도시 (플랫폼) 를 돌아다니며, 각 도시가 만든 **'새 거주자 관리 규칙 (거버넌스)'**을 조사한 것입니다.


🔍 조사 결과: 40 개 도시 중 2/3 는 규칙을 만들었다

연구진이 40 개의 주요 SNS (페이스북, 인스타그램, 틱톡, 유튜브 등) 를 조사한 결과, 흥미로운 사실들이 드러났습니다.

  1. 약 2/3 의 도시 (플랫폼) 는 명확한 규칙을 발표했습니다.
    • 나머지 1/3 은 "아직 특별한 규칙은 없으니, 기존에 있던 '불법 행위 금지' 규칙만 지켜라"라고 말합니다.
  2. 규칙의 종류는 크게 6 가지로 나뉩니다.

1️⃣ 기존 규칙에 끼워 맞추기 (가장 흔함)

  • 상황: "AI 가 만든 거라도, 남을 속이거나 욕설을 쓰면 안 돼."
  • 비유: 도시의 '폭력 금지'나 '사기 금지' 법을 AI 가 만든 콘텐츠에도 그대로 적용하는 것입니다. AI 가 만든 것이 특별히 나쁜 게 아니라면, 그냥 일반 콘텐츠처럼 다룹니다.

2️⃣ "이건 AI 가 만들었습니다"라고 밝히기 (라벨링)

  • 상황: "진짜 사람인지 AI 인지 구별할 수 있게 표시를 해라."
  • 비유: 식당 메뉴판에 "이 요리는 셰프가 직접 만든 게 아니라, 로봇이 만든 거예요"라고 스티커를 붙이는 것과 같습니다.
    • 현실: 일부는 무조건 표시를 하라고 하고, 일부는 "사람처럼 보이는 것만" 표시하라고 합니다. 플랫폼마다 기준이 제각각입니다.

3️⃣ 특정 콘텐츠는 아예 금지하기 (제한)

  • 상황: "AI 가 쓴 글은 아예 올리지 마" 또는 "AI 가 그린 그림은 추천해 주지 않아."
  • 비유: 어떤 도시 (예: Stack Overflow 같은 지식 공유 사이트) 는 "우리는 진짜 인간의 지혜만 원한다"며 AI 가 만든 답변을 아예 금지합니다. 예술 사이트 중에서도 "인간의 창의성만 인정한다"며 AI 작품을 배제하는 곳도 있습니다.

4️⃣ 돈 벌기 (수익화) 제한하기

  • 상황: "AI 가 만든 걸로 돈을 벌면 안 돼."
  • 비유: "AI 가 그린 그림을 팔아서 돈을 벌 수 없어"라고 막는 것입니다. 창작자들이 "AI 가 만든 걸로 내 돈을 뺏어가면 안 된다"는 우려 때문에 생긴 규칙들입니다.

5️⃣ 플랫폼이 직접 만든 AI 도구의 안전장치

  • 상황: "우리가 제공하는 AI 도구로 만든 건 우리가 더 잘 관리할게."
  • 비유: 도시 관리자가 직접 운영하는 '공공 로봇 공장'에서 나온 제품에는 더 엄격한 안전 장치를 달아놓는 것입니다. (예: 유튜브나 틱톡의 자체 AI 도구)

6️⃣ 주민 (사용자) 교육하기

  • 상황: "AI 가 만든 걸 구별하는 법을 배우세요."
  • 비유: 도시 관리자가 주민들에게 "가짜 뉴스 구별하는 법"을 가르치는 교육 자료를 배포하거나, "AI 가 만든 콘텐츠만 안 보이게 필터를 켤 수 있어요"라는 기능을 제공하는 것입니다.

⚠️ 문제점: 도시마다 규칙이 너무 달라요!

연구진은 현재 시스템에 몇 가지 큰 문제점이 있다고 지적합니다.

  1. 규칙이 산발적이에요: 규칙이 '이용약관', '도움말', '블로그' 등 여기저기 흩어져 있어 사용자가 찾기 어렵습니다. 마치 도시의 규칙이 도서관, 시청, 공원 안내판에 따로따로 적혀 있는 것과 같습니다.
  2. 구별이 어려워요: "AI 가 만든 걸 자동으로 찾아내는 기술"이 아직 완벽하지 않습니다. 가짜를 진짜로 오인하거나, 진짜를 가짜로 오인하는 경우가 많습니다.
  3. 소통이 부족해요: "왜 이 콘텐츠가 AI 라면서 표시가 붙었나요?"라고 물어보면 답을 못 주는 경우가 많습니다.

💡 제안: 더 나은 도시를 위한 3 가지 제안

연구진은 플랫폼, 정부, 연구자에게 다음과 같은 조언을 합니다.

  1. 플랫폼에게:

    • 규칙을 하나로 모으세요: AI 관련 규칙을 한눈에 볼 수 있는 '중앙 규칙 책'을 만드세요.
    • 교육을 더 하세요: 단순히 "AI 입니다"라고 표시만 하는 게 아니라, "어떻게 AI 가 만들어졌는지, 어떤 위험이 있는지"를 가르쳐 주세요.
    • 선택권을 주세요: "나는 AI 가 만든 걸 보고 싶지 않아"라고 하는 사용자를 위해 필터 기능을 더 잘 만들어 주세요.
  2. 정부 (규제 기관) 에게:

    • 명확한 법을 만드세요: "AI 가 만든 것의 저작권은 누구 것인가?", "누가 돈을 벌 수 있는가?"에 대한 명확한 법이 필요합니다. 지금은 플랫폼이 마음대로 정하고 있어서 혼란스럽습니다.
  3. 연구자에게:

    • 계속 지켜보세요: AI 기술은 매일 변합니다. 플랫폼의 규칙이 어떻게 변하는지, 시간이 지나면서 어떻게 달라지는지 계속 연구해야 합니다.

📝 한 줄 요약

"AI 가 만든 콘텐츠가 SNS 를 가득 채우고 있지만, 각 플랫폼마다 관리하는 방식이 제각각이고 아직 불완전합니다. 이제 더 명확하고 공정한 규칙, 그리고 사용자들을 위한 교육과 도구가 필요합니다."

이 연구는 AI 시대에 우리가 살아가는 '디지털 도시'가 더 안전하고 투명하게 운영되기를 바라는 목소리입니다.