|
newsletter no.19 | 2025. 11. 17 |
|
2025년 10월 31일부터 11월 1일까지 경주에서 개최된 APEC의 주인공은 의외로 젠슨 황이었다. 그는 한국에 26만 장의 GPU 공급을 약속했고, AI 인프라 경쟁의 열기는 순식간에 달아올랐다. 그러나 며칠 뒤 트럼프 대통령의 한마디가 이 열기에 찬물을 끼얹었다. “최고급 칩은 미국만 쓴다.” |
|
그 말 한마디에 글로벌 공급망은 다시 긴장했고, 국가들은 AI 인프라 확보가 결코 안정적이지 않다는 사실을 절감했다. 이제 AI 인프라의 핵심 부품은 단순한 기술이 아니라 지정학적 무기가 되었다. |
|
그런데 아이러니하게도, 바로 이 시기에 전혀 다른 방향의 실험이 진행되고 있다. 바로 AI 인프라를 우주로 올리려는 시도다. 이 새로운 흐름의 선두에는 Starcloud, Google 같은 미국 기업들이 서 있다. |
|
스타클라우드(Starcloud)는 NVIDIA의 H100 GPU를 탑재한 위성 ‘Starcloud-1’을 곧 발사할 예정이다. 이 실험이 성공하면 클라우드 컴퓨팅은 문자 그대로 지상에서 하늘로 확장되는 새로운 단계에 진입하게 된다. |
|
지상 데이터센터는 전력, 냉각수, 부지 확보 등의 문제로 점점 더 확장에 어려움을 겪고 있다. 반면 우주는 전혀 다른 환경을 제공한다. 태양광은 사실상 24시간 끊기지 않고 공급되며, 진공 상태는 자연적인 냉각 효과를 만들어낸다. 스타클라우드는 이러한 조건을 활용해 4km 규모의 태양광 패널로 구동되는 5GW급 궤도 데이터센터를 장기적으로 구축할 계획이다. 이들은 지상 대비 10배의 탄소 절감 효과를 예상하고 있으며, AI 연산과 데이터 처리가 궤도에서 실시간으로 이루어지는 미래를 그리고 있다. 지구 관측, 재난 감지 같은 응용 작업은 데이터를 지상으로 내려보내기 전에 바로 우주에서 처리될 수 있다. |
|
Google은 더 큰 그림을 내놓았다 — Project Suncatcher. 태양광 효율이 지상 대비 최대 8배 높은 궤도에 수백 대의 AI 위성을 클러스터 형태로 배치하고, 이를 테라비트급 레이저 링크로 연결하는 구상이다. |
|
Google은 TPU가 우주의 방사선 환경을 견딜 수 있는지 검증한 뒤, 2027년 첫 프로토타입 위성 발사를 준비 중이다.또한 발사 비용이 kg당 200달러 수준으로 하락하는 시점이 오면, 우주 데이터센터의 경제성이 본격적으로 열릴 것이라고 전망한다. 다만 유지보수와 업그레이드 같은 구조적 비용 문제는 아직 검증되지 않았다. |
|
혁신적 잠재력만큼이나 해결해야 할 현실적 과제도 적지 않다. 무엇보다 우주 환경은 기술적 불확실성이 크다. 고에너지 방사선은 하드웨어 오류를 유발할 수 있고, 지상과 궤도 사이에서 발생하는 통신 지연은 실시간 서비스의 품질을 떨어뜨린다. 고장이 나더라도 직접 수리가 사실상 불가능하다는 점은 더 큰 제약이다. |
|
경제적 부담 역시 무시하기 어렵다. 초기 발사와 배치에 필요한 비용은 막대하며, 이를 장기적으로 회수할 수 있을지에 대한 검증도 충분하지 않다. 지상 데이터센터와 비교해 실질적인 비용 경쟁력을 확보하는 시점이 언제가 될지 역시 불확실하다. |
|
환경과 정책 측면에서도 고민해야 할 점들이 있다. 위성 증가로 인한 우주 쓰레기 문제는 궤도 환경을 위협하고, 궤도와 주파수 사용권을 둘러싼 국제적 조율도 필요하다. 더불어 대규모 위성 배치는 천문 관측에 방해가 될 수 있다는 지적도 계속 제기되고 있다. |
|
궤도 환경에서는 기술자의 즉각적 개입이 불가능하다. 따라서 우주 데이터센터는 스스로 상태를 진단하고, 고장난 노드를 우회하며, 시스템을 재구성하는 '자가 복구형 인프라(Self-healing infrastructure)'로 설계되고 있다. |
|
이는 단순한 기술적 개선이 아니라, 인프라가 자율성을 갖추는 방향으로 진화하고 있음을 보여준다. 다만 이러한 시스템이 실제로 장기간 안정적으로 작동할 수 있을지는 여전히 검증이 필요한 부분이다. |
|
AI 인프라가 지상과 우주로 동시에 확장되는 지금, 우리에게 필요한 것은 단순한 기술 이해에 그치지 않는다. 환경·경제·안보·과학·거버넌스가 서로 얽힌 복합적 문제를 분석하고 해석하며, 그 속에서 새로운 길을 설계하는 능력, 즉 기술과 사회를 함께 읽어내는 지적 역량이다. |
|
AI 시대의 교육은 ‘어떤 기술을 쓸 것인가’를 넘어 “이 기술이 어떤 세계를 만들고, 우리는 그 안에서 무엇을 책임질 것인가”를 질문할 수 있는 사람을 길러야 한다. |
|
미래의 기술 인프라를 비판적으로 바라보고, 다학제적 관점에서 대안을 상상하는 힘이 AI 시대가 교육에 요구하는 새로운 전략적 상상력이 아닐까? |
|
격주로 찾아오는 AI 융합연구원의 인사이트를 기대해 주세요! |
|
- 소버린 AI는 “모델 하나”가 아니라 데이터·인프라·법/정책·감사 체계까지 포함한 운영 능력이다.
- Anthropic의 <Subliminal Learning: Language models transmit behavioral traits via hidden signals in data> 실험은 “데이터가 깨끗해도 모델이 품은 세계관(정렬) 이 은근히 전이된다”는 점을 보여줬다. 즉, 누가 기준값을 정하느냐가 성능보다 중요하다.
- 그래서 한림 AI튜터가 성능이 좀 부족해 보여도 필요하다. 위기·감사·윤리 결정을 우리 기준으로 내리기 위해서다. |
|
“그러면 필요성은 알겠는데, 어떻게 구현해야 할까요?” 오늘 칼럼의 내용은 바로 이 부분을 다루려고 합니다. |
|
소버린 AI의 필요 여부는 “어떻게 구현하느냐”를 같이 봐야 판단할 수 있습니다. 여기 세 가지 길이 있습니다.
2-1) 중앙집권형: “정부 관할” 상위 모델 + 하위 다모델 |
|
중앙 집권형 소버린 AI 모델은 최상위 감독자 위치에 대한민국의 AI를 놓고, 그 아래 하위 차원에 각종 오픈 소스 AI 모델들로 소형 AI들을 훈련시키는 모든 과정을 감독하는 방식입니다.
- “스위스에서 오셨어요? 사업하시려면 대한민국식 법을 따르셔야 합니다” 하는 식으로 관리자 역할을 하는 대한민국 소버린 AI를 정부 공공기관 같은 역할을 하는 것이죠.
- 하지만 역설적으로 대한민국 소버린 AI 자체가 너무 큰 권한을 가지게 되어, 대한민국 소버린 AI 자체가 편향되어 있거나 리스크가 있을 경우 견제할 체제가 없게 됩니다.
- 무엇보다 어쨌든 이런 역할을 할 소버린 AI가 뭐라도 있어야 이 시나리오가 성립이 된다라는 결론이 나옵니다. |
|
2-2) 평의회형: UN 회의처럼 여러 모델의 상호견제
다음으로 두번째로 생각해볼 모델은 UN/중세 왕없는 귀족 평의회 스타일 소버린 AI 모델 입니다. |
|
- 이 모델은 GPT, Gemini, Mistral, Kimi 등 여러가지 AI 모델이 동등한 위치를 가지고, 이들이 서로 독립적인 위치에서 서로 상호 교차 검증하는 방식입니다.
- UN 회의에서 우크라이나에 파병을 해야하냐 말아야 하냐 등을 결정할 때 각 국가들이 찬성하거나 혹은 VETO를 행사하는 방식과 유사하다고 할 수 있습니다.
- 이러한 방식은 여러가지 모델들이 서로 편향성을 견제하기 때문에, 편향성을 제거하는 측면에서탁월하며 집단지성의 효과를 가질 수 있다고 할 수 있겠습니다.
- 하지만 이러한 모델은 그만큼 데이터나 학습 등의 과정이 복잡하고 오래 걸릴 수 있습니다.
- 현실의 UN 안전보장 이사회 회의 등에서도 각 국가마다 첨예하게 이해관계가 갈려서 의사 결정이 느리고 복잡한 것을 떠올리면 될 것 같습니다.
- 무엇보다, 이 시나리오도 한국식 소버린 AI가 존재하고 이러한 'AI 평의회' 의석에 앉혀놓을 수는 있어야 이 모델이 성립한다는 결론이 나옵니다. |
|
2-3) 이종(異種) 결합형: 드래곤볼 ‘퓨전’으로 편향 상쇄
다음으로 세 번째로 생각해볼 모델은 이종성 훈련/합체 모델 (일명 드래곤볼 퓨전식 모델) 입니다 |
|
이종성 훈련/합체 모델 (일명 드래곤볼 퓨전식 모델)은 서로 완전히 성격과 설계가 다른 AI를 합쳐서 Anthropic 논문에서 제기한 베이스라인 모델 편향성의 무의식적 전수 문제를 상쇄시키는 방법입니다.
- 드래곤볼에서는 손오천과 트랭크스가 합체해서 손오천도, 트랭크스도 아닌 "오천크스"라는 캐릭터로 변신 합체하는 장면이 등장합니다.
- AI도 비슷한 원리로, 설계 철학이 전혀 다른 모델을 “합체”해 편향을 희석하려는 시도가 가능합니다.
- 하지만 몇가지 문제가 있습니다:
1. 드래곤볼 만화에서 언급된 '퓨전'에서도 나오지만, 합체를 위해서는 손의 모양, 각도, 팔과 다리의 자세 등 두명이 완벽하게 똑같은 동작을 취해야 한다는 설명이 나옵니다.
2. AI의 경우도, 이종간 합체를 해서 편향성 효과가 완벽하게 상쇄되지 않고, 일부 답변에서 여전히 중국을 찬양하는 답변이 나온다던가 하는 문제가 나올 수 있죠.
- 그리고 이 경우도 마찬가지로, 소버린 AI가 있어야만 애초에 퓨전 시도 자체가 가능합니다. |
|
물론 이 방법이 당장은 가능합니다. 하지만 장기적으로는 큰 문제가 있습니다. |
|
예를 들어 GPT 4.1과 Kimi를 섞어서 당장 '편향되지 않은' 혼합 AI를 적당히 만들어서 가져다 쓰면 당장은 잘 굴러갈 수 있습니다.
하지만 이럴 경우, 애초에 각각의 AI가 어떻게 설계되었고 어떤 가중치 (weight) 를 가지고 있는지 전혀 알 수가 없기 때문에, 나중에 AI자체를 업그레이드 할 경우 큰 문제가 발생합니다.
더 쉽게 생각해보면, 이는 벤츠와 BMW를 뜯어서 억지로 합쳐서 어찌저찌 잘 굴러가게는 만들어놓은 상황과 같습니다.
외국산 오픈 AI 모델들을 합쳐서 만드는 데에만 급급한다면, 이는 벤츠와 BMW를 어찌저찌 뜯어서 합쳐서 굴러가게 만들 줄은 알지만,
추후에 성능이 떨어져 업그레이드 하고자 할 때 부품 딱 한 개만 교체했는데 완전히 고장나 버려다시는 작동하지 않는데 무엇이 문제인지 알 수조차 없는 상황과 같습니다.
또한, 위의 "퓨전" 문제에서도 설명한 것처럼 특정 AI모델의 성격이 더 강할 경우 편향성 문제가 다시 재발할 수 있으며,"때 마침 GPT-6, 7 등이 나오는 바로 그 타이밍에 맞춰서 아주 친절하게도 중국 오픈 소스 동급의 모델이 출시될" 보장도 없습니다. |
|
학생들은 이미 Gemini for Students, NotebookLM, GPT-5 학습모드를 씁니다. 순수 성능과 매끈한 UX만 보면 한림 AI튜터가 ‘후져’ 보일 수 있습니다. 하지만 교육 현장에서 더 본질적인 질문은 이것입니다:
“누가 기준값을 정하느냐? 데이터를 누가 소유·감사하고, 위기 시 누구의 규칙으로 전환하느냐?”
소버린 AI는 효율성 경쟁이 아니라 주체성과 책임성의 문제입니다. 한림 AI튜터의 가치는 “더 똑똑한 답”보다 “우리의 학습 규칙을 우리가 설계하고 검증하는 권한”에 있습니다. |
|