Технологія читання думок: як ШІ вже перекладає внутрішній голос людини в текст

intellekt4

52-річна жінка не рухалася й не вимовляла жодного слова — лише дивилася в екран. А речення складалися самі. Паралізована після інсульту 19 років тому, вона стала учасницею стенфордського дослідження, яке впритул наблизилось до того, що раніше здавалося фантастикою: читання думок у режимі реального часу. 

Як це працює: електроди в мозку і штучний інтелект

В основі технології — крихітні масиви мікроелектродів, які хірургічно імплантують у поверхню мозку. Вони фіксують закономірності нейронної активності, а алгоритм машинного навчання розпізнає патерни, пов’язані з конкретними фонемами — найменшими будівельними елементами мови. Дослідники порівнюють це з роботою голосових асистентів на кшталт Alexa — але замість звуків ШІ інтерпретує нейронні сигнали.

У 2024 році лабораторія нейропротезування Каліфорнійського університету в Девісі досягла 32 слів за хвилину з точністю 97,5% — перша демонстрація практичного використання мовних нейроінтерфейсів у повсякденному спілкуванні. Для порівняння: природне людське мовлення — близько 150 слів за хвилину.

Внутрішній голос: перший крок до справжнього читання думок

Найбільш резонансний прорив стенфордського дослідження 2025 року — спроба зафіксувати не спроби мовлення, а внутрішнє мовлення. Тобто те, що людина «говорить» у думках, не намагаючись це вимовити. Вченим вдалося зафіксувати «сліди» числових слів, які проходили через моторну кору, коли учасники подумки рахували. У завданні з уявленням речення точність розшифрування досягла 74% у реальному часі.

Повністю нефільтрований внутрішній монолог технологія поки що відтворити не може — у відкритих завданнях на кшталт «подумайте про улюблену цитату з фільму» результати були переважно беззмістовними. Але сам факт фіксації внутрішнього мовлення — вже революція.

Не лише слова: емоції, інтонація і навіть музика

Лабораторія Каліфорнійського університету пішла далі — і навчила систему розшифровувати не лише текст, а й інтонацію, висоту тону, швидкість і ритм мовлення. Пацієнт із БАС міг підвищувати тон наприкінці речення, ставлячи запитання, і навіть наспівувати мелодії. 60% слів тестувальники визнали зрозумілими.

Японські дослідники просунулися ще в одному напрямку: навчилися реконструювати зображення, які людина бачить або уявляє, — лише аналізуючи скани мозку за допомогою ШІ. Та сама логіка застосовується до музики: у 2025 році вдалося відтворити характер і базову категорію музичного твору зі сканів фМРТ.

Що далі: комерціалізація і межі можливого

Нейроінженерка Майтреї Вайрагкар прогнозує комерціалізацію технологій нейроінтерфейсів уже «в найближчі кілька років». Neuralink Ілона Маска та інші компанії вже працюють над комерційними мозковими чіпами. Вдосконалення піде через збільшення кількості електродів: зараз аналізують лише 256 нейронів з мільярдів. Більше електродів — багатша інформація — точніше читання.

Серед майбутніх застосувань — реконструкція галюцинацій у пацієнтів із шизофренією, розшифрування сприйняття тварин і навіть відтворення снів. Втім, за словами дослідників, останнє — питання щонайменше 10–20 років. А питання етики і прав людини в контексті таких технологій людству ще тільки належить осмислити.