중국 vs 스타클라우드, 우주에서 AI를 돌린다: ‘오비탈 슈퍼컴퓨터’ 패권 전쟁과 2030년 시나리오

중국 vs 스타클라우드, 우주에서 AI를 돌린다: ‘오비탈 슈퍼컴퓨터’ 패권 전쟁과 2030년 시나리오

‘우주 슈퍼컴퓨터’는 무엇이고, 왜 갑자기 뜨나

1960년대 우주 경쟁이 “누가 먼저 달에 발을 디디느냐”였다면, 2020년대 후반의 새로운 우주 레이스는 “누가 먼저 저궤도(LEO)에 AI 데이터센터를 띄우느냐”에 가깝습니다. AI 모델 학습·추론에 필요한 연산량이 폭증하면서, 지상 데이터센터는 전기·냉각·수자원·탄소배출 측면에서 점점 부담이 커지고 있습니다.

이 때문에 중국과 미국 빅테크·우주 스타트업들은, 태양광이 풍부하고 냉각 부담이 적은 우주 공간에 슈퍼컴퓨터를 올려 AI 인프라 일부를 이주시킬 구체적인 계획을 경쟁적으로 내놓고 있습니다. 이른바 “오비탈(궤도) 데이터센터”“우주 슈퍼컴퓨터(space supercomputer)” 개념입니다.


중국: 국가 연구소+우주 기업이 만드는 ‘궤도 슈퍼컴퓨터’ 구상

중국은 이 분야에서 상당히 공격적인 로드맵을 내고 있습니다. 베이징에 위치한 중국과학원(Chinese Academy of Sciences) 컴퓨팅 기술 연구소(ICT)는, 고성능 컴퓨팅 카드 1만 개 규모의 AI 데이터센터를 궤도에 띄우는 계획을 추진하고 있습니다.

이를 뒷받침하는 움직임으로:

  • 항공우주 기업 Guoxing Aerospace와 연구기관 Zhejiang Lab이 협력해, 저궤도에 12기의 인공지능 위성(컴퓨팅 컨스텔레이션)을 발사했습니다.
  • 이 위성 군집이 운용하는 AI 모델은 5 peta-operations per second(초당 5페타 연산)와 80억 파라미터 규모 성능을 구현하고 있으며, 이는 상업 응용까지 염두에 둔 “우주 기반 AI 서비스”의 첫 단추로 평가됩니다.
  • ICT에서 분사된 Zhongke Tiansuan은 2022년에 이미 고성능 칩을 탑재한 우주 컴퓨터를 발사했고, 이 위성은 1000일 넘게 안정적으로 궤도에서 운영 중입니다.

성능 자체는 이후에 등장한 스타클라우드-1보다 낮지만, “실제로 수년 동안 돌아가고 있는 우주 AI 컴퓨팅 플랫폼”이라는 점에서 의미가 큽니다.


미국·실리콘밸리 진영: 스타링크·블루 오리진·구글, 그리고 스타클라우드

지구 반대편에서는 미국 빅테크와 우주 기업들이 각자 다른 방식으로 우주 AI 인프라 조각을 만들고 있습니다.

  • 일론 머스크 – 스타링크(Starlink)
    • 기존 인터넷 위성망에 AI 연산 페이로드를 실을 수 있도록 업그레이드하는 방안을 검토 중입니다.
  • 제프 베이조스 – 블루 오리진(Blue Origin)
    • 1년 이상에 걸쳐 독자적인 궤도 AI 데이터 허브 구상을 개발하고 있으며, 자사 로켓·우주정거장 프로젝트와 연계할 가능성이 거론됩니다.
  • 순다 피차이 – 구글 Project Suncatcher
    • 소형 마이크로 랙(micro-rack) 형태의 서버를 위성에 탑재해 시험 중으로, 파일럿 성공 시 대규모 확장을 노리는 프로젝트입니다.

하지만 현재 가장 앞서 나갔다고 평가받는 곳은, 엔비디아가 지원하는 스타트업 스타클라우드(Starcloud)입니다.


스타클라우드-1: H100을 달고 나노GPT를 우주에서 학습하다

스타클라우드는 최근 Starcloud-1이라는 위성을 발사하면서, 우주 AI 컴퓨팅에서 두 가지 ‘세계 최초’를 달성했다고 주장합니다.

  1. 엔비디아 H100 GPU를 궤도에 올린 첫 사례
    • Starcloud-1에는 80GB 메모리를 가진 H100 GPU가 탑재되어 있으며, 이는 지금까지 우주에 올라간 어떤 칩보다 약 100배 이상 강력한 연산 성능을 제공합니다.
  2. 우주에서 AI 모델을 직접 학습·추론한 첫 사례
    • 이 H100는 OpenAI 공동창업자 Andrej Karpathy가 설계한 경량 LLM인 NanoGPT를 궤도에서 학습하는 데 사용되었습니다.
    • 이는 “우주에서 처음으로 학습된 AI 모델”로 기록되며, 이후에는 구글의 오픈 LLM Gemma를 얹어 우주에서 LLM 추론을 수행하는 데 활용되고 있습니다.

즉, **우주 위성 + 엔비디아 GPU + 대형언어모델(LLM)**이라는 조합이 이미 데모 수준을 넘어 실제 운용 단계에 들어갔다는 의미입니다.


왜 굳이 우주까지 가서 AI를 돌릴까? (에너지·물·탄소)

우주 기반 AI 인프라가 주목받는 이유는 단순한 ‘간지’ 때문이 아니라, 지상 데이터센터의 자원 한계에 대한 대응책으로서입니다.

  • 전기 사용량
    • AI 학습·추론에 쓰이는 전력은 폭발적으로 늘고 있으며, 일부 추정치에선 대형 LLM 하나가 소도시 규모의 전기를 먹는다는 경고도 나옵니다.
    • 스타클라우드는 태양광 기반 오비탈 데이터센터가 지상 대비 전력 사용량을 10분의 1 수준까지 줄일 수 있다고 주장합니다.
  • 냉각과 물 사용량
    • 데이터센터 냉각에 사용되는 물 소비는 환경·지역사회와 갈등을 일으키는 주요 요인입니다.
    • 우주에서는 진공·극저온 환경을 적절히 활용한 방사 냉각(radiative cooling)으로, 육상보다 냉각 부담과 물 사용량을 크게 줄일 수 있을 것으로 기대됩니다.
  • 탄소배출
    • 태양광 중심의 궤도 전력 시스템을 사용하면, 화석연료 기반 전력망에 의존하는 지상 센터보다 탄소 집약도가 낮을 수 있다는 논리입니다.

스타클라우드는 백서에서 “기가와트급 오비탈 데이터센터는 인류가 시도한 가장 야심찬 우주 프로젝트 중 하나가 될 것”이라며, AI를 지속 가능하게 확장하기 위해 경제적·기술적으로 충분히 가능하고 필요하다고 주장합니다.


기술적 난제: 우주 환경은 반도체에게 지옥이다

물론, 우주에 슈퍼컴퓨터를 띄우는 것은 SF처럼 들리지만, 현실에서는 엄청난 기술 난제를 동반합니다.

  • 발사 단계 진동·충격
    • 로켓 발사는 고성능 칩·보드·냉각 구조에 극심한 진동·가속도를 가해, 지상용 서버보다 훨씬 강한 내구성과 패키징 기술이 필요합니다.
  • 극한 온도·진공·마이크로 중력
    • 우주는 그림자와 태양광 면의 온도차, 진공 환경, 마이크로 중력 등으로 열 관리·재료 피로·냉각 설계가 매우 까다롭습니다.
  • 우주 방사선·태양풍 입자
    • 고에너지 입자는 반도체 내부에 소프트 에러, 비트 플립, 누적 손상을 일으킬 수 있어,
    • ECC, 중복 연산, 방사선 차폐·경화(radiation hardening) 설계가 필수입니다.

현재 각 연구소·기업들은 칩 설계·패키징·열·전력·소프트웨어 레벨에서 이 리스크를 줄이는 방법을 시험 중이며, 상당수 전문가들은 “완전한 의미의 우주 슈퍼컴퓨터는 2030년대에나 본격 가동될 것”이라고 봅니다.


2030년대 시나리오: 누가 ‘첫 우주 슈퍼컴퓨터’ 타이틀을 가져갈까

기사에서 인용된 전문가·업계 전망을 종합하면, 2030년대에는 다음과 같은 그림이 유력합니다.

  • 중국
    • 이미 AI 위성 컨스텔레이션과 장기 운용 위성을 다수 띄운 경험 덕분에, 국가 주도형 궤도 슈퍼컴퓨터를 가장 먼저 완성할 가능성이 있습니다.
  • 스타클라우드·미국 빅테크 연합
    • 스타클라우드는 “우주에서 첫 LLM 학습·추론”이라는 상징적인 선점 효과를 안고 있고,
    • 스타링크·블루 오리진·구글 등은 강력한 로켓·위성·클라우드 인프라를 통해 상업용 오비탈 데이터센터 네트워크를 구축할 잠재력이 있습니다.
  • 공동·하이브리드 모델
    • 일부 시나리오에서는, 지상 데이터센터와 오비탈 클러스터를 하이브리드로 엮어,
    • 추론은 지상에서, 일부 특수 학습·전처리·에지 연산은 우주에서 수행하는 방식이 제시되고 있습니다.

결국 “누가 가장 먼저 우주 슈퍼컴퓨터를 띄우느냐”는 기술·자본 경쟁일 뿐 아니라, 에너지·환경 문제를 어떻게 풀 것인가, 우주 인프라에 대한 국제 규범은 어떻게 만들 것인가라는 정치·환경 이슈와도 직결되는 문제입니다.