Першу ШІ-модель від Foxconn навчили лише за чотири тижні

Тайванська компанія Foxconn представила свою першу велику мовну модель штучного інтелекту FoxBrain. Навчання моделі зайняло лише чотири тижні та проводилося з використанням 120 графічних процесорів Nvidia H100.

FoxBrain заснована на архітектурі Llama 3.1 від Meta (визнана екстремістською та заборонена в РФ) та оптимізована для традиційної китайської мови, що використовується на Тайвані. Модель має можливості аналізу даних, математичних обчислень, логічних міркувань, спільної роботи з документами та генерації програмного коду.

FoxBrain трохи поступається китайською моделлю DeepSeek, проте її загальна продуктивність близька до світових стандартів. Foxconn планує використовувати FoxBrain для покращення управління виробництвом та ланцюжками поставок.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

2025-03-12