강달러 시대, 게임업계는 웃고 울었다
안녕하세요! 😊 이번 글에서는 화웨이가 새롭게 발표한 오픈소스 AI 가속 소프트웨어 ‘Flex:ai’에 대해 깊이 있게 살펴봅니다. 엔비디아 GPU에 제약이 커진 상황에서, 중국이 소프트웨어 최적화를 통해 어떻게 AI 학습 능력을 끌어올리고 있는지 이해하는 데 매우 중요한 이슈입니다. Flex:ai는 여러 AI 칩을 묶어 하나처럼 활용하고, 활용도를 높여 기존 인프라 효율을 극대화하는 솔루션입니다.
미국의 대중국 수출 규제로 인해 중국 빅테크들은 최신 엔비디아 GPU에 직접 접근하기 어렵습니다. AI 학습·추론 역량을 높이기 위해선 하드웨어가 아닌 소프트웨어 최적화가 핵심 전략으로 떠오른 상황입니다.
화웨이는 이미 반도체 제약 속에서도 자체 NPU, Ascend 칩을 개발해왔으며, 이번 Flex:ai는 부족한 GPU 자원을 최대한 효율적으로 활용하려는 목적에서 등장했습니다. 즉, “칩이 부족하면 소프트웨어로 해결하자”라는 전략입니다.
Flex:ai는 GPU, NPU 등 여러 칩 제조사의 AI 가속기를 하나의 통합 플랫폼에서 관리하며 병렬 처리 능력을 크게 향상시키는 기술입니다.
특히 칩 하나를 여러 개의 가상 연산 리소스로 분할하는 기능이 핵심인데, 이는 작은 작업은 과할당을 방지하고, 큰 작업은 여러 칩을 묶어 처리할 수 있어 AI 학습 효율이 크게 높아집니다.
| 기능 | 설명 |
|---|---|
| AI 칩 통합 제어 | GPU·NPU 등 서로 다른 칩을 하나의 클러스터처럼 운영 |
| 가상 분할(Virtualization) | 칩 하나를 여러 가상 연산 유닛으로 할당해 동시 작업 수행 |
Flex:ai에는 화웨이 자체 스케줄러인 Hi Scheduler가 포함되어 있습니다. 이 스케줄러는 GPU·NPU 자원을 자동으로 배분하며, 남아 있는 유휴 연산력을 다른 작업으로 재할당하는 알고리즘을 갖추고 있습니다.
화웨이에 따르면 이를 통해 칩 사용률이 평균적으로 30% 향상되며, 이는 동일한 하드웨어 환경에서 더 많은 AI 모델을 훈련하거나 더 빠른 속도로 AI 작업을 수행할 수 있음을 의미합니다.
Flex:ai는 화웨이 단독 프로젝트가 아니라 상하이교통대·시안교통대·샤먼대 연구진이 함께 참여한 대규모 오픈소스 프로젝트입니다.
화웨이는 “AI 개발은 혼자서는 불가능하다”며 국제 커뮤니티에 참여를 요청했고, 실제로 Flex:ai는 화웨이 개발자 커뮤니티(ModelEngine)를 통해 완전 공개되었습니다.
중국의 AI 업체들은 미국 제재로 인해 엔비디아의 CUDA 생태계를 활용하기 어렵습니다. 그래서 화웨이는 오픈소스 기반 AI 소프트웨어 플랫폼 CANN과 메모리 효율 개선 기술 UCM(Unified Cache Manager)을 공개해 AI 추론 및 학습 성능을 최대한 끌어올리고 있습니다.
| 기술명 | 역할 |
|---|---|
| CANN | Non-CUDA AI 개발 생태계 구축 |
| UCM | 메모리 배치 최적화, 추론 성능 향상 |
화웨이 Flex:ai는 엔비디아와 같은 첨단 GPU 없이도 대규모 모델 학습을 가능하게 하는 중요한 기술적 대안입니다. 이는 중국뿐 아니라 연산 자원이 부족한 여러 국가·기업에게도 새로운 선택지를 제공할 수 있습니다.
또한 2024년 엔비디아가 7억 달러에 인수한 스타트업 Run:ai 모델과도 유사해, 소프트웨어 기반 AI 가속 기술이 글로벌 표준화로 가는 움직임이라는 평가도 있습니다.
화웨이 Flex:ai는 AI 칩 부족과 GPU 제약이 심화되는 시대에 소프트웨어 최적화만으로 학습 성능을 끌어올릴 수 있는 중요한 돌파구입니다. 앞으로 AI 가속 기술의 중심이 하드웨어에서 소프트웨어로 이동하면서, Flex:ai 같은 플랫폼이 글로벌 표준이 될 가능성도 있습니다. 더 깊은 분석이나 비교 모델 소개가 필요하다면 언제든 알려주세요! 🙌