QUARE: Multi-Agent Negotiation for Balancing Quality Attributes in Requirements Engineering

이 논문은 안전, 효율성, 신뢰성 등 다양한 품질 속성 간의 갈등을 체계적으로 해결하기 위해 다섯 가지 전문 에이전트 간의 협상 프로토콜과 KAOS 목표 모델 생성을 결합한 다중 에이전트 프레임워크 'QUARE'를 제안하며, 이를 통해 기존 방법론 대비 요구사항 준수율과 의미 보존성을 크게 향상시킨다는 것을 입증합니다.

Haowei Cheng, Milhan Kim, Foutse Khomh, Teeradaj Racharak, Nobukazu Yoshioka, Naoyasu Ubayashi, Hironori Washizaki

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"QUARE"**라는 이름의 새로운 소프트웨어 개발 도구를 소개합니다. 이 도구는 인공지능 (AI) 여러 대가 함께 일하며, 복잡한 소프트웨어의 요구사항을 만들어내는 방식을 혁신합니다.

기존의 방식이 "한 명의 천재가 모든 것을 다 해결하려다 실패하는 것"이라면, QUARE 는 **"전문가들이 모여 토론하고 합의하는 회의실"**과 같습니다.

이 내용을 일상적인 비유로 쉽게 설명해 드릴겠습니다.


1. 문제: 왜 소프트웨어 개발은 실패할까?

소프트웨어를 만들 때, 우리는 많은 것을 동시에 원합니다.

  • "차량이 안전해야 해 (Safety)"
  • "속도가 빨라야 해 (Efficiency)"
  • "전기 소모가 적어야 해 (Green)"
  • "해킹당하지 않아야 해 (Trustworthiness)"
  • "법과 윤리를 지켜야 해 (Responsibility)"

하지만 이 요구사항들은 서로 충돌합니다. 예를 들어, "안전성을 위해 브레이크를 500ms(0.5 초) 안에 작동하게 하라"고 하면, "속도를 위해 30ms(0.03 초) 안에 작동하게 하라"는 요구사항과 정면으로 부딪힙니다.

기존의 AI 는 이 충돌을 해결할 때, "한쪽을 무시하고 다른 쪽을 택하거나 (우선순위 부여)" 혹은 "모호하게 중립적인 답을 내는" 방식을 썼습니다. 그래서 중요한 안전 규정을 놓치거나, 실제 구현이 불가능한 요구사항이 만들어지곤 했습니다.

2. 해결책: QUARE 의 '전문가 회의'

QUARE 는 이 문제를 해결하기 위해 **5 명의 AI 전문가 (에이전트)**와 **1 명의 회의 진행자 (오케스트레이터)**를 고용합니다.

🎭 등장인물들 (5 명의 전문가)

각자 한 가지 분야에 특화된 AI 들입니다.

  1. 안전 요원 (Safety): "사고가 나면 안 돼! 무조건 안전이 최우선이야."
  2. 효율 요원 (Efficiency): "시간과 자원을 아껴야 해. 너무 느리면 안 돼."
  3. 환경 요원 (Green): "전기나 연료를 아껴서 지구를 지켜야 해."
  4. 신뢰 요원 (Trustworthiness): "해커들이 침입하지 못하게 잠금장치를 강화해야 해."
  5. 책임 요원 (Responsibility): "법규와 윤리를 지키는 게 중요해."

🗣️ 회의 방식: '변증법적 협상' (Dialectical Negotiation)

이들은 단순히 투표하거나 순서대로 말하지 않습니다. **철학적인 토론 (테제 - 반테제 - 종합)**을 합니다.

  • 테제 (제안): 안전 요원이 "브레이크는 500ms 안에 작동해야 해"라고 제안합니다.
  • 반테제 (비판): 효율 요원이 "그건 너무 느려! 30ms 안에 해야 해. 그래야 차가 제때 멈출 수 있어"라고 반박합니다.
  • 종합 (해결): 여기서 기존 방식이라면 "안전이 중요하니까 500ms 로 하자"라고 한쪽을 밀어냈을 것입니다. 하지만 QUARE 는 창의적인 해결책을 찾습니다.
    • 해결책: "평소에는 30ms(빠른 경로) 로 작동하고, 이상 징후가 감지되면 500ms(철저한 경로) 로 작동하는 이중 시스템을 만들자!"
    • 결과: 안전도 지키고, 속도도 지키는 모두가 만족하는 합의가 나옵니다.

3. 검증: "이게 진짜 법을 지키는 거야?"

회의가 끝난 후, 만들어진 요구사항은 검증 단계를 거칩니다.

  • 구조적 검사: 논리적 모순이 없는지 확인합니다. (예: "A 가 B 를 필요로 하는데, B 는 A 를 필요로 한다"는 순환 논리 방지)
  • 규정 준수 검사 (RAG): 실제 산업 표준 (예: 자동차 안전 기준 ISO 26262) 과 비교합니다. AI 가 "지식"을 검색해서, 우리가 만든 요구사항이 실제 법규를 98% 이상 충족하는지 확인합니다.

4. 결과: 왜 QUARE 가 더 좋은가?

이 논문은 QUARE 를 기존 방식 (MARE, iReDev) 과 비교했습니다.

  • 더 많은 요구사항: 기존 방식보다 25~43% 더 많은 요구사항을 찾아냈습니다. (전문가들이 각자 다른 관점을 제시했기 때문입니다.)
  • 충돌 해결 능력: 서로 다른 요구사항을 단순히 무시하지 않고, 창의적으로 통합했습니다.
  • 규정 준수율: 기존 방식이 47% 정도만 법규를 만족했다면, QUARE 는 **98.2%**까지 달성했습니다. 이는 안전이 중요한 자율주행차 같은 분야에서 매우 중요합니다.
  • 의미 보존: 대화 과정에서 원래 의도가 왜곡되지 않고 잘 보존되었습니다 (94.9% 유지).

5. 핵심 교훈: "큰 AI 가 답이 아니다"

이 연구의 가장 중요한 메시지는 **"AI 모델이 거대할수록 좋은 게 아니다"**입니다.
오히려 **잘게 쪼개진 역할 분담 (전문가화)**과 명확한 대화 규칙 (협상 프로토콜), 그리고 엄격한 검증이 더 중요합니다.

📝 한 줄 요약

"QUARE 는 서로 다른 의견을 가진 AI 전문가들이 격렬하게 토론하고, 서로의 요구를 절충하여 '안전하고 빠르며 법을 지키는' 완벽한 소프트웨어 설계도를 만들어내는 시스템입니다."

이처럼 QUARE 는 단순한 자동화를 넘어, 인간이 복잡한 문제를 해결할 때처럼 논리적이고 창의적인 협상을 통해 소프트웨어의 품질을 획기적으로 높여줍니다.