오픈AI는 구글의 AI 칩 활용과 관련한 입장을 명확히 밝혔다. 구글의 텐서 프로세싱 유닛(TPU)에 대한 초기 테스트가 진행 중이지만, 이를 대규모로 도입할 계획은 현재 없다는 것이다.
6월 30일, 오픈AI 대변인은 자사 제품에 구글의 자체 칩을 사용할 것이라는 보도에 대해 입장을 표명했다. 앞서 오픈AI가 구글 클라우드를 통해 TPU를 임대하기 시작했다는 소식이 전해지면서, 이는 추론 연산 비용 절감 목적이라는 관측이 나왔다. 추론 연산은 오픈AI 전체 컴퓨팅 예산의 50% 이상을 차지하는 것으로 알려져 있다.
오픈AI는 기하급수적으로 증가하는 연산 수요에 대응하기 위해 다각적인 칩 전략을 추진 중이다. 현재 오픈AI는 AI 칩 시장의 약 80%를 점유한 엔비디아의 GPU에 크게 의존하고 있다. 그러나 최근에는 AMD의 AI 칩도 적극적으로 도입하고 있다. 2025년 6월, 오픈AI CEO 샘 알트먼은 AMD의 'Advancing AI' 행사에서 AMD CEO 리사 수와 함께 무대에 올라, 오픈AI가 AMD의 MI300X 칩을 도입했으며 차세대 MI400 시리즈 플랫폼에도 참여하고 있음을 공식적으로 밝혔다.
동시에 오픈AI는 자체 AI 칩 개발에도 속도를 내고 있다. 구글 TPU 개발 책임자 출신인 리처드 호가 이끄는 사내 팀은 현재 약 40명의 엔지니어로 구성되어 있으며, 브로드컴과 협력해 맞춤형 실리콘을 개발 중이다. 이 프로젝트는 올해 중 핵심 단계인 '테이프아웃(tape-out)'을 달성할 예정이며, 2026년 대만 TSMC에서 대량 생산을 목표로 하고 있다.
오픈AI의 칩 인프라 다각화 전략은 AI 경쟁에서 하드웨어의 전략적 중요성을 보여준다. 점점 더 정교해지는 AI 모델의 학습과 운영에는 막대한 연산 자원이 필요하기 때문에, 기업들은 성능 최적화와 비용 절감, 공급망 리스크 관리에 힘쓰고 있다. 마이크로소프트, 오라클, 코어위브 등 다양한 인프라 파트너와 협력하는 오픈AI는 기술 리더십을 유지하는 동시에 AI 시스템 확장에 따른 재정적 도전에도 대응하고 있다.