OpenAI почала використовувати чипи Google для штучного інтелекту: історичний відхід від Nvidia та Microsoft

28 червня 2025 року — Компанія OpenAI, розробник популярного чат-бота ChatGPT, розпочала орендувати чипи штучного інтелекту Google для підтримки своїх продуктів. Цей крок є історичним поворотом у стратегії обчислювальних потужностей компанії, адже до цього вона переважно покладалася на графічні процесори Nvidia та **інфраструктуру Microsoft Azure. 

Про це повідомило агентство Reuters, посилаючись на обізнані джерела в галузі.

Чому це важливо?

OpenAI є одним із найбільших клієнтів Nvidia, використовуючи її GPU для тренування своїх мовних моделей, а також для інференсу — процесу, коли модель застосовує наявні знання для обробки нової інформації та прийняття рішень.

Проте з огляду на експоненційне зростання попиту на потужності ШІ, компанія почала розширювати свою обчислювальну базу, залучаючи Google Cloud і його тензорні процесори (TPU), які до цього здебільшого застосовувалися лише всередині самої Google.

Що означає перехід до Google TPU?

TPU (Tensor Processing Units) — це спеціалізовані чипи, які Google розробила для прискорення обчислень у сфері машинного навчання.

Дотепер OpenAI майже виключно використовувала GPU Nvidia, що робило її технічно залежною від обмеженого постачання.

Відтепер компанія вперше використовує не-Nvidia чипи на регулярній основі.

Для Google це також стратегічний крок: компанія розширює комерційне використання своїх TPU, відкриваючи їх для зовнішніх клієнтів і змагаючись за лідерство у швидко зростаючому сегменті ШІ-обчислень.

Відхід від Microsoft?

Іншим важливим аспектом цієї події є зниження залежності OpenAI від Microsoft, яка є не лише її головним партнером, а й інвестором. Хоча Microsoft і надалі залишається провайдером основної інфраструктури, інтеграція з Google Cloud свідчить про бажання OpenAI диверсифікувати джерела обчислювальних ресурсів.

2025-06-28