
한번에 이해하는 AI의 모든 것 - 인프라 경쟁 심화 속 승자는?
최근 전 세계를 뜨겁게 달구는 인공지능(AI)은 딥러닝이라는 방법론으로 만들어진 소프트웨어다. 딥러닝은 인공신경망을 통해 AI가 스스로 방대한 데이터를 학습하도록 한다. 이때 병렬 연산에 강점을 가진 GPU라는 반도체가 핵심적인 역할을 수행한다. AI 모델을 학습시키고, 또 작동시키는 데 GPU는 필수적이다.
2017년, 구글은 '트랜스포머'라는 새로운 딥러닝 방식을 제시했다. 이는 데이터 양, 매개변수 크기, GPU 연산량을 늘리면 AI 성능이 계속 향상된다는 '스케일링 법칙'을 확립했다. 오픈AI는 이 법칙을 극한으로 밀어붙여 챗GPT와 같은 거대언어모델(LLM)을 탄생시켰다. LLM은 인간의 언어 능력에 가장 근접하며, 일부 영역에서는 능가하는 수준에 이르렀다.
LLM은 언어 능력을 넘어 이미지 인식, 영상 제작, 로봇 제어 등 다양한 분야로 확장되고 있다. 이미 우리 스마트폰, PC, 스마트 안경 등에 스며들며 일상생활을 변화시키고 있다. 챗GPT나 딥시크 같은 최신 AI 기술은 갑자기 등장한 것이 아니다. 2014년 '알렉스넷' 이후 빅테크 기업과 연구자들의 끊임없는 노력과 투자가 있었기에 가능했다.
AI는 터미네이터처럼 스스로 생각하고 움직이는 존재가 아니다. 인간 이상의 능력을 발휘하는 소프트웨어 기술로 이해해야 한다. 자동차나 핵무기처럼 AI 역시 어떻게 활용하느냐에 따라 인류의 삶을 풍요롭게 할 수도, 파괴할 수도 있다.
AI는 어디에 살까? 클라우드 속 데이터센터
AI는 클라우드와 온디바이스, 두 가지 방식으로 사용된다. 현재 대부분의 인터넷 서비스는 클라우드 기반으로 작동한다. 챗GPT에 질문을 던지면, 스마트폰을 거쳐 데이터센터 속 AI 모델에서 처리된 후 답변이 다시 전송되는 방식이다. AI 모델은 크기가 크고, 스마트폰 성능이 부족하기에 데이터센터에서 처리하는 것이 효율적이다.
그러나 인터넷 연결이 안 된 상황에서도 AI를 사용하고 싶거나, 개인 정보 유출을 막고 싶다면 온디바이스 AI가 필요하다. 온디바이스 AI는 클라우드 사용료가 들지 않는다는 장점도 있다. 스마트폰이나 PC에 LLM을 탑재하려면 AI 모델을 작게 만들어야 한다. 이 과정에서 성능 저하가 발생하므로, 스마트폰과 PC의 성능을 높이는 것이 중요하다. 삼성전자의 AI폰, 마이크로소프트의 코파일럿+PC는 이러한 노력의 결과물이다.
물론, 온디바이스 AI는 특수한 경우에만 사용될 뿐, 대부분의 AI는 클라우드에서 작동한다. 우리는 24시간 인터넷에 연결되어 있으며, 실시간 정보 검색과 고성능 AI 활용에는 클라우드가 필수적이다. 따라서 AI는 데이터센터와 함께 발전해나갈 것이다.
AI 시대의 데이터센터, 새로운 발전소
AI는 CPU가 아닌 GPU에서 작동해야 빠르고 효율적이다. LLM이 일상생활에 깊숙이 들어오면서 GPU 수요는 폭발적으로 증가할 수밖에 없다. AI 검색, AI 개인 비서, AI 기반 창작 도구 등의 사용이 늘어날수록 데이터센터 내 GPU 수요는 더욱 커질 것이다.
기존에는 GPU를 AI 모델 학습에 주로 사용했지만, 앞으로는 AI 서비스를 제공하는 '추론'에 더 많이 활용될 것이다. AI 학습이 거푸집을 만드는 과정이라면, AI 추론은 거푸집으로 도구를 계속 생산하는 과정과 같다.
AI를 사용하는 것은 클라우드를 통해 데이터센터의 AI를 사용하는 것과 같다. 클라우드 컴퓨팅은 전기를 사용한 만큼 요금을 내는 것과 유사하다. 데이터센터 건설비는 AI 사용료에 큰 영향을 미친다. 데이터센터에는 땅, 건축물, 컴퓨터, GPU, 네트워크 장비, 냉각 장비, 전력 등이 필요하다. 특히, 저렴하고 안정적인 전력 공급은 데이터센터 운영비 절감에 매우 중요하다.
AI 사용료가 낮아질수록 AI 기반 서비스가 더욱 활성화될 것이고, AI 수요 역시 증가하는 선순환 구조가 만들어질 것이다. 샘 올트먼과 AI 인프라 투자자들은 이러한 미래를 예측하고 있다.
빅테크, 클라우드 인프라 경쟁의 주역
AI 데이터센터는 아마존 AWS, 마이크로소프트 애저, 구글 클라우드와 같은 클라우드 서비스 프로바이더(CSP)가 운영한다. 이들은 데이터센터를 직접 짓거나 임대하여 전 세계 기업에 클라우드 서비스를 제공한다. 빅테크 기업들이 엔비디아 GPU를 대량으로 구매하는 이유도 데이터센터를 구축하기 위해서다.
중국의 알리바바, 텐센트, 화웨이 역시 자체 CSP 서비스를 제공하고 있다. 한국에서는 네이버가 네이버클라우드를 운영하고 있지만, 미국, 중국 기업에 비하면 규모가 작은 편이다. 메타, 테슬라와 같은 하이퍼스케일러 기업들도 대규모 데이터센터를 운영하며 AI 기술 경쟁력을 강화하고 있다.
애플은 아이폰에 들어가는 반도체부터 소프트웨어까지 자체적으로 개발하며 기술을 수직 통합하고 있다. 애플은 애플 인텔리전스를 위한 데이터센터를 늘리고 있으며, GPU 설계에도 직접 참여하고 있다. 엔비디아 역시 CPU, GPU, 네트워크 장비까지 직접 생산하며 데이터센터 기업으로 변모하고 있다. AMD는 서버컴퓨터 제조회사인 ZT시스템즈를 인수하여 엔비디아에 도전하고 있다.
화웨이는 반도체부터 서버, 클라우드 서비스까지 수직 통합하여 AI 시장에서 경쟁력을 확보하고 있다. 전 세계적으로 AI 데이터센터 구축 경쟁이 치열하게 벌어지고 있다. 클라우드 컴퓨팅은 국경을 넘어 사용될 수 있지만, AI 데이터센터 수가 적은 국가는 AI 비용이 높아지거나 서비스 속도가 느려질 수 있다.
딥시크 가격 인상과 AI 인프라 경쟁
AI 사용 비용은 LLM의 API 비용으로 비교할 수 있다. 딥시크는 출시 이후 파격적으로 낮은 API 비용을 책정했지만, 사용자 증가와 클라우드 인프라 부족으로 인해 가격을 인상했다. 또한, 마이크로소프트, AWS, 알리바바, 화웨이 등 클라우드 서비스 업체들이 자체 클라우드에서 딥시크를 서비스하면서 딥시크가 저렴한 API를 제공할 필요성이 줄어들었다.
흥미로운 점은 딥시크가 중국 내에서 화웨이 GPU를 사용하여 서비스를 제공하고 있다는 것이다. 화웨이 GPU 성능은 엔비디아 GPU의 60% 수준이지만, 화웨이가 추론 시장에서 엔비디아 수요를 가져갈 가능성을 보여준다. 이는 중국 정부가 바라던 방향이기도 하다.
가장 가격 경쟁력을 갖춘 곳은 구글이다. 구글의 제미나이 2.0 플래시 라이트는 딥시크 가격의 3분의 1 수준으로 저렴하다. 이는 구글이 TPU를 중심으로 AI 데이터센터를 구축해왔기 때문이다. 샘 올트먼이 오라클과 손잡고 데이터센터 구축에 나서는 이유도 AI 개발 경쟁이 성능에서 비용으로 옮겨가고 있기 때문이다.
오픈AI는 자체 AI 가속기를 개발하여 엔비디아 의존도를 낮추고, 데이터센터 구축 비용을 절감하고자 한다. 소프트뱅크는 데이터센터용 CPU를 만드는 암페어를 인수하여 AI 데이터센터 시장에 진출할 계획이다. 중국 역시 AI 데이터센터 구축에 적극적으로 투자하여 AI 경쟁력을 강화할 것으로 예상된다.
AI 시대, 데이터센터는 새로운 발전소다. AI 인프라 경쟁에서 누가 승리할지, 또 어떤 기업이 새로운 가치를 창출할지 주목해야 한다.