Temperature-Aware Scheduling of LLM Inference in Large-Scale Geo-Distributed Edge Data Centers with Distributed Optimization

이 논문은 호주 전역의 지리적으로 분산된 엣지 데이터 센터에서 LLM 추론 시 주변 온도 차이를 고려하여 에너지 비용, 탄소 배출, 대기 시간 및 물 소비를 통합 최적화하는 분산 알고리즘을 제안함으로써 지속 가능성을 향상시키는 방법을 제시합니다.

Arash Khalatbarisoltani, Amin Mahmoudi, Jie Han, Muhammad Saeed, Wenxue Liu, Jinwen Li, Solmaz Kahourzade, Amirmehdi Yazdani, Xiaosong Hu

게시일 Tue, 10 Ma
📖 1 분 읽기☕ 가벼운 읽기

이 언어로는 아직 설명이 없습니다.

다른 언어: DE, EN, ES, FR, IT, JA, KO, NL, PT, ZH