menu
close

오픈AI, 엔비디아 칩에서 구글 TPU로 전략적 전환

오픈AI가 챗GPT 및 기타 제품을 구동하기 위해 구글의 텐서 프로세싱 유닛(TPU)을 임대하기 시작했다. 이는 AI 선두 기업이 엔비디아가 아닌 칩을 본격적으로 도입한 첫 사례다. 경쟁사 간의 이례적 협업은 오픈AI가 마이크로소프트 데이터센터를 넘어 컴퓨팅 인프라를 다각화하려는 움직임의 일환이다. 오픈AI는 구글 클라우드 기반 TPU가 빠르게 성장하는 AI 서비스의 성능을 유지하면서 추론 비용을 절감하는 데 도움이 될 것으로 기대하고 있다.
오픈AI, 엔비디아 칩에서 구글 TPU로 전략적 전환

AI 업계에 큰 변화를 예고하는 가운데, 오픈AI가 챗GPT 및 기타 AI 제품을 구동하기 위해 구글의 텐서 프로세싱 유닛(TPU)을 사용하기 시작했다고 관련 소식통이 전했다.

이번 결정은 오픈AI가 엔비디아가 아닌 칩을 본격적으로 인프라에 도입한 첫 사례로, 그동안 오픈AI는 AI 모델 학습과 추론(새로운 정보에 기반해 예측을 수행하는 과정) 모두에 엔비디아의 그래픽 처리 장치(GPU)를 대량 구매해 사용해왔다.

AI 분야의 두 거대 경쟁사 간 이례적 협력은 오픈AI가 마이크로소프트의 애저(Azure) 클라우드 플랫폼을 넘어 컴퓨팅 자원을 다각화하려는 전략적 시도를 의미한다. 마이크로소프트는 여전히 오픈AI의 최대 투자자이자 주요 인프라 제공업체지만, 최근 오픈AI가 독립성을 강화하려 하면서 양사 관계에 긴장감이 감지되고 있다.

구글 입장에서는 이번 계약이 사내 전용이었던 TPU의 외부 고객 확대라는 큰 성과다. 구글 TPU 칩은 머신러닝 작업에 특화된 맞춤형 설계로, 범용 GPU 대비 특정 AI 워크로드에서 성능 우위를 보일 수 있다. 구글은 이미 애플, 앤트로픽, Safe Superintelligence 등 전직 오픈AI 리더들이 창업한 AI 기업들을 포함한 주요 고객을 확보한 바 있다.

오픈AI는 구글 클라우드를 통한 TPU 임대가 챗GPT 이용자 수가 수억 명에 달하는 현 상황에서 점점 더 중요해지는 추론 컴퓨팅 비용을 절감하는 데 도움이 될 것으로 기대하고 있다. 다만, 소식통에 따르면 구글은 오픈AI에 자사의 최고 성능 TPU 칩은 제공하지 않아 일정 수준의 경쟁 우위를 유지하고 있다.

이번 변화는 오픈AI가 소프트뱅크, 오라클과 함께 5,000억 달러 규모로 추진 중인 '스타게이트' 프로젝트, CoreWeave와의 수십억 달러 규모 컴퓨팅 용량 확보 계약 등 인프라 다각화 전략의 일환으로 이뤄졌다. 오픈AI는 외부 하드웨어 의존도를 낮추기 위한 자체 칩 개발도 진행 중인 것으로 알려졌다.

AI 컴퓨팅 수요가 급증하고 오픈AI의 연간 비용이 수십억 달러에 이를 것으로 전망되는 가운데, 이번 협력은 AI 업계의 치열한 경쟁자들조차 막대한 컴퓨팅 수요를 충족하기 위해 손을 맞잡고 있음을 보여준다.

Source:

Latest News