Each language version is independently generated for its own context, not a direct translation.
🕵️♂️ 문제: "표면은 웃음인데 속은 독약"
인터넷에는 직접적으로 "너를 싫어해"라고 말하는 노골적인 혐오 발언도 있지만, 훨씬 더 위험한 숨겨진 (암시적) 혐오 발언이 많습니다.
- 노골적 혐오: "저 사람은 나쁜 놈이야!" (누구나 바로 알아챔)
- 숨겨진 혐오: "그 사람들은 책을 안 읽고 라디오만 듣지." (표면적으로는 사실처럼 보이지만, 특정 인종이나 집단을 '지적 수준이 낮다'고 비꼬는 암시가 담겨 있음)
기존의 인공지능 (PLM) 은 노골적인 말은 잘 찾아내지만, 이런 속뜻이 다른 숨겨진 말은 "아, 그냥 평범한 이야기구나"라고 잘못 판단하는 경우가 많습니다. 마치 겉보기엔 달콤한 사탕이지만 속은 쓴 약인 것을 구별하지 못하는 것과 같습니다.
💡 해결책: FiADD (숨겨진 뜻의 맛을 찾아내는 기술)
저자들은 이 문제를 해결하기 위해 FiADD라는 새로운 기술을 만들었습니다. 이 기술은 크게 두 가지 마법 같은 작업을 합니다.
1. "속뜻을 입 밖으로 꺼내서 붙여주기" (Inferential Infusion)
숨겨진 혐오 발언을 분석할 때, AI 는 그 말의 표면적인 의미와 **실제 의도 (속뜻)**를 따로 떼어놓고 생각하다가 혼란을 겪습니다.
- 비유: 어떤 사람이 "오늘 날씨가 참 좋네요"라고 말했는데, 실제로는 "너무 더워서 죽겠네"라는 불평을 하고 싶었던 경우를 상상해 보세요.
- FiADD 의 역할: AI 가 이 말을 분석할 때, 단순히 "날씨 좋음"이라고만 보지 않고, "(속뜻: 너무 더워)"라는 설명을 자동으로 덧붙여서 함께 학습시킵니다.
- 효과: AI 는 "아, 이 말은 겉으로는 날씨 이야기지만, 속뜻은 불평이구나"라고 깨닫게 되어, 숨겨진 혐오를 더 잘 찾아냅니다.
2. "경계선 근처의 혼란스러운 학생들을 집중 관리" (Focal Density Discrimination)
기존 AI 는 모든 학습 데이터를 똑같은 중요도로 봅니다. 하지만 가장 헷갈리는 말들 (표면과 속뜻이 섞여 있어 분류하기 어려운 말) 이 가장 중요합니다.
- 비유: 교실에서 시험을 치를 때, 점수가 90 점과 60 점 사이인 '경계선'에 있는 학생들을 가장 집중적으로 가르쳐야 전체 평균이 오릅니다.
- FiADD 의 역할: AI 가 "이건 혐오인가, 아닌가?"를 고민하며 경계선 근처에 있는 말들을 발견하면, "이건 정말 중요하니까 더 열심히 공부해!"라고 **특별한 점수 (벌점)**를 매겨 집중적으로 학습시킵니다.
- 효과: 헷갈리는 말들을 구별하는 능력이 비약적으로 향상됩니다.
🧪 실험 결과: 정말 효과가 있을까?
저자들은 이 기술을 다양한 데이터 (트위터, Gab 등) 와 다른 작업 (반어법, 아이러니, 입장 파악 등) 에 적용해 보았습니다.
- 결과: 숨겨진 혐오를 찾아내는 정확도가 크게 향상되었습니다.
- 확장성: 이 기술은 혐오 발언뿐만 아니라, **"겉과 속이 다른 말"**을 찾아야 하는 모든 상황 (예: "와, 진짜 잘했네"라고 말하면서 실제로는 "너무 못했네"라고 비꼬는 반어법이나 아이러니를 찾는 일) 에도 잘 작동했습니다.
📊 결론: 왜 이 기술이 중요한가요?
지금까지의 AI 는 "노골적인 나쁜 말"은 잘 찾아냈지만, "교묘하게 숨겨진 나쁜 말"은 놓치고 있었습니다. FiADD 는 AI 가 말의 '표면'과 '속뜻' 사이의 거리를 좁혀주면서, 헷갈리는 말들을 집중적으로 가르쳐 줍니다.
한 줄 요약:
"겉으로는 innocently(순수해) 보이지만 속은 독약인 말들을 찾아내기 위해, AI 에게 '속뜻을 읽어내는 안경'을 끼워주고, 헷갈리는 말들을 집중 훈련시킨 기술입니다."
이 기술이 발전하면 인터넷상의 숨겨진 혐오와 차별을 더 일찍 발견하여, 사이버 공간의 환경을 더 안전하게 만드는 데 큰 도움이 될 것입니다.