Each language version is independently generated for its own context, not a direct translation.
🍽️ 비유: 배달 앱과 요리사 (생성형 엔진)
생성형 AI 를 **요리사 (Chef)**라고 상상해 보세요. 사용자는 요리사에게 "오늘 저녁 메뉴 추천해 줘"라고 주문합니다.
이 요리사는 직접 재료를 사오지 않고, **인터넷이라는 거대한 마트 (웹)**에서 재료를 찾아와서 요리를 만들어 줍니다. 그리고 "이 요리는 A 마트의 신선한 고기로 만들었습니다"라고 출처를 밝히죠.
이 연구는 바로 **"요리사가 마트에서 어떤 재료를 사오는가?"**와 **"그 재료가 진짜 맛있는지, 아니면 독이 든 재료를 사오진 않는지"**를 조사한 것입니다.
🔍 연구의 핵심 문제: "누가 마트 주인인가?"
기존에는 요리사가 마트에서 가져온 재료를 그대로 요리했는지 (정확성) 만 확인했습니다. 하지만 이 연구는 더 중요한 질문을 던집니다.
"요리사가 가져온 재료를 누가 팔고 있는 걸까? 그 재료를 누가 마음대로 바꿀 수 있을까?"
인터넷 마트에는 두 가지 종류의 가게가 있습니다.
- 공식 관공서/정당 사이트 (높은 장벽): 누가 마음대로 내용을 바꿀 수 없습니다. (예: 민주당 공식 홈페이지)
- 블로그/소셜 미디어/개인 사이트 (낮은 장벽): 누구나 쉽게 글을 쓰고 내용을 바꿀 수 있습니다. (예: 개인 블로그, 트위터, 레딧)
🇺🇸🇯🇵 일본과 미국의 차이 (실험 결과)
연구진은 일본과 미국의 정치 질문에 대해 AI 가 어떤 재료를 가져오는지 조사했습니다.
일본 (조심스러운 요리사):
- 요리사들이 **공식 관공서나 정당 사이트 (높은 장벽)**에서 재료를 가져오는 비율이 **60~65%**로 매우 높았습니다.
- 즉, 일본 정치 질문에 대한 답은 공식적인 정보를 바탕으로 하는 경우가 많아, 악의적인 사람이 내용을 조작하기 상대적으로 어렵습니다.
미국 (다양한 재료를 쓰는 요리사):
- 요리사들이 공식 사이트에서 재료를 가져오는 비율은 **25~45%**로 낮았습니다.
- 대신 **블로그, 소셜 미디어, 개인 사이트 (낮은 장벽)**에서 가져온 재료가 **약 30%**나 됩니다.
- 위험 신호: 누구나 내용을 마음대로 바꿀 수 있는 '낮은 장벽'의 재료를 많이 쓴다는 뜻입니다. 만약 해커가 블로그에 거짓 정보를 심어두면, AI 가 그걸 진짜로 믿고 요리해서 사용자에게 줄 수 있습니다.
🎭 또 다른 발견: "참고한 것과 실제 요리의 차이"
연구진은 흥미로운 사실을 더 발견했습니다.
- 높은 장벽의 재료 (공식 사이트): AI 가 이걸 가져오면, 실제 요리 (답변) 에 그 내용이 정확하게 반영됩니다.
- 낮은 장벽의 재료 (블로그 등): AI 가 이걸 가져오기는 하지만, 실제 요리에는 그 내용이 제대로 반영되지 않거나, 엉뚱하게 변형되는 경우가 많습니다.
하지만 여기서 함정이 있습니다!
비록 AI 가 블로그 내용을 완벽하게 반영하지는 않더라도, 그 가짜 정보가 섞여 들어갈 가능성은 여전히 열려 있습니다. 마치 요리사가 "이건 블로그에서 봤는데, 사실은 좀 이상하네"라고 생각하면서도, 그 재료를 요리에 조금씩 섞어 넣는 것과 비슷합니다.
💡 결론: 우리가 알아야 할 점
- 미국은 더 위험할 수 있습니다: 미국 정치 관련 답변은 누구나 글을 쓸 수 있는 사이트 (블로그, SNS 등) 를 많이 인용하기 때문에, 해커가 거짓 정보를 심어 AI 를 속이기 (Poisoning Attack) 훨씬 쉽습니다.
- 일본은 상대적으로 안전하지만: 일본은 공식 사이트를 많이 인용하지만, 그래도 30% 는 여전히 누구나 글을 쓸 수 있는 곳에서 왔습니다.
- 우리의 역할: 우리가 AI 에게 질문할 때, "이 답변의 출처가 공식 기관인가, 아니면 아무나 글을 쓸 수 있는 블로그인가?"를 한번 더 확인하는 습관이 필요합니다.
🛡️ 요약
이 논문은 **"AI 가 인터넷 정보를 찾아와 답을 줄 때, 그 정보가 누가 쓴 것인지, 얼마나 조작하기 쉬운지"**를 분석했습니다. 특히 미국 정치 정보는 누구나 글을 쓸 수 있는 사이트 (낮은 장벽) 를 많이 인용하므로, 가짜 뉴스나 해킹으로 AI 를 속일 위험이 일본보다 훨씬 크다는 것을 경고하고 있습니다.
우리는 AI 가 '누구의 말'을 듣고 있는지, 그 출처가 '공식적인지' 아니면 '누구나 쓸 수 있는 곳인지'를 구분하는 눈이 필요하다는 것입니다.