오픈AI는 AI 모델이 실제로 사용자 질문에 답하는 인퍼런스 단계에서 더 빠르고 효율적인 칩을 필요로 합니다. 엔비디아가 이 분야에서는 다소 부족한 점이 있어, 오픈AI는 AMD, Cerebras, Groq 같은 다른 회사 제품과도 협력을 모색하고 있습니다. 이런 상황은 AI 칩 시장의 경쟁 구도를 바꾸고 있으며, 투자자 입장에서는 엔비디아가 계속해서 AI 시장을 지배할지, 아니면 신생 경쟁자들이 힘을 얻을지 주목할 필요가 있습니다.
관련 종목
사건
오픈AI가 엔비디아의 일부 최신 AI 칩에 불만을 품고 대체 옵션을 지난 해부터 탐색 중이다.
오픈AI는 AMD, Cerebras, Groq 등 경쟁사와도 인퍼런스용 GPU 및 칩 공급 계약을 모색했다.
엔비디아와 오픈AI 간 100억 달러 투자 협상은 지연됐고, 엔비디아는 Groq와 200억 달러 규모 기술 라이선스 계약을 체결했다.
분석
오픈AI는 인퍼런스 AI 칩에서 필요한 속도와 메모리 성능에 대해 엔비디아 제품이 부족하다고 평가한다.
엔비디아 GPU는 외부 메모리 의존으로 인퍼런스 시 처리 지연이 발생하는 반면, 대안 칩들은 칩 내 SRAM 탑재로 속도 향상을 추구한다.
엔비디아가 Groq를 비롯한 경쟁 스타트업 기술을 확보하며 AI 칩 시장 지배력을 강화 중이다.
시장반응
오픈AI의 대체 칩 모색은 엔비디아의 AI 칩 시장 독점 구도에 도전이 될 수 있다.
엔비디아 주가는 장기적 사업 파트너십 불확실성에도 불구하고 AI 수요 지속으로 안정된 흐름을 보인다.
경쟁사 AMD, Cerebras 등의 AI 칩 공급 계약 확대 가능성으로 투자자 관심이 분산될 수 있다.
기타
엔비디아는 오픈AI와 긴밀한 협력 관계를 유지하며 대규모 투자를 계획한다고 강력 반박했다.
오픈AI는 주로 엔비디아 칩을 사용하지만 일부 인퍼런스 작업에 대체 하드웨어 도입을 검토 중이다.
AI 인퍼런스 영역은 대형 AI 모델 학습과는 다른 기술적 요구가 있어 신규 칩 설계가 활발히 이루어지고 있다.
용어
인퍼런스(inference): 학습된 AI 모델이 실제 사용자의 질문에 답변을 생성하는 과정
SRAM(Static Random Access Memory): 고속 메모리로, 칩 내에 탑재되면 데이터 처리 속도가 빨라진다
Groq, Cerebras: AI 인퍼런스 칩 개발 스타트업으로 엔비디아 대안 기술로 주목받는다
TPU(Tensor Processing Unit): 구글이 자체 개발한 AI 전용 칩, 인퍼런스 성능에 강점
대응 방안
오픈AI의 인퍼런스 칩 전략 변화에 따라 엔비디아 외 다른 AI 칩 제조사 주식도 관심 갖기