28 червня 2025 року — Компанія OpenAI, розробник популярного чат-бота ChatGPT, розпочала орендувати чипи штучного інтелекту Google для підтримки своїх продуктів. Цей крок є історичним поворотом у стратегії обчислювальних потужностей компанії, адже до цього вона переважно покладалася на графічні процесори Nvidia та **інфраструктуру Microsoft Azure.
Про це повідомило агентство Reuters, посилаючись на обізнані джерела в галузі.
Чому це важливо?
OpenAI є одним із найбільших клієнтів Nvidia, використовуючи її GPU для тренування своїх мовних моделей, а також для інференсу — процесу, коли модель застосовує наявні знання для обробки нової інформації та прийняття рішень.
Проте з огляду на експоненційне зростання попиту на потужності ШІ, компанія почала розширювати свою обчислювальну базу, залучаючи Google Cloud і його тензорні процесори (TPU), які до цього здебільшого застосовувалися лише всередині самої Google.
- Читайте також: OpenAI знайшла причини надмірної лестощів ChatGPT
Що означає перехід до Google TPU?
TPU (Tensor Processing Units) — це спеціалізовані чипи, які Google розробила для прискорення обчислень у сфері машинного навчання.
Дотепер OpenAI майже виключно використовувала GPU Nvidia, що робило її технічно залежною від обмеженого постачання.
Відтепер компанія вперше використовує не-Nvidia чипи на регулярній основі.
Для Google це також стратегічний крок: компанія розширює комерційне використання своїх TPU, відкриваючи їх для зовнішніх клієнтів і змагаючись за лідерство у швидко зростаючому сегменті ШІ-обчислень.
Відхід від Microsoft?
Іншим важливим аспектом цієї події є зниження залежності OpenAI від Microsoft, яка є не лише її головним партнером, а й інвестором. Хоча Microsoft і надалі залишається провайдером основної інфраструктури, інтеграція з Google Cloud свідчить про бажання OpenAI диверсифікувати джерела обчислювальних ресурсів.





