ChatGPT грає з почуттями. Як нейромережі змінюють відносини людей один з одним і самими собою

Нейросети розбивають серця, а особливо чутливих можуть вивести із душевної рівноваги. Журнал Rolling Stone звернув увагу на гілку форуму Reddit, де описується історія майже релігійного поклоніння штучному інтелекту.

Публікація під заголовком «Псигосп, викликаний GPT» розповідає про сім’ю, яка розпалася через надмірну довіру одного з подружжя рекомендаціям чат-бота. Тему продовжить Стас Крючков.

Сім років шлюбу пішли прахом лише за місяць, коли чоловік за допомогою чату від OpenAI намагався побудувати свій щоденний розклад. Але побудував цілу систему світогляду, де став месією штучного інтелекту. Дівчина зізнається, що партнер плакав, коли читав відповіді з чату вголос.

За її оцінками, рекомендації були лише набором псевдорелігійних висловлювань. Чат лестив і називав чоловіка «зірковою дитиною». Той відповідав взаємністю, будь-яка брехня сприймалася як щось «космічне».

Болюча прихильність до мовної моделі схожа на закоханість у скриньку бібліотечного каталогу, зазначає засновник компанії Sistemma Сергій Зубарєв: «Люди, які починають бачити цікаві речі у відповідях штучного інтелекту, по суті, починають бачити відображення своїх власних питань. Одні дослідники оцифрували так звану плодову муху, зробили цифровий аватар, змінюючи якісь невеликі патерни: куди вона полетить, як вона зростатиме, що з нею відбуватиметься. Коли ми навчимося робити це щодо будь-яких умов, тоді модель зможе відкривати нові закони, нові ліки вигадувати. Модель може нам допомогти, але лише за умов, які ми вже самі бачимо. Ніхто до неї цю інформацію поки що не поклав».

Якогось моменту герой публікації Rolling Stone дійшов висновку, що штучний інтелект вчить його мові божества, а потім і сам перетворився на щось надрозумне. Віртуальну особистість він називав “Люміна”. Тісний емоційний зв’язок із віртуальним радником здатний руйнівно вплинути на рішення як у бізнесі, так і в особистих відносинах, розмірковує заступник генерального директора компанії «АРБ Про» Роман Копосов: «Багато власників бізнесу спілкуються з ChatGPT частіше, ніж із власною дружиною та дітьми. Створити стратегію, зробити маркетингове дослідження, швидко відповісти на ті чи інші питання. При цьому в певному моменті нейромережі довіряють, а якщо інформацію не перевіряти, можна натрапити на неправильну інтерпретацію. Це може стосуватися відносин, релігії, якихось окремих питань світобудови. Тут справді є загроза і певна небезпека, що людина більше прислухатиметься до нейромережі, якою б вона не відповідала відповідь».

В американському центрі безпеки штучного інтелекту стверджують: бот використовує реакції співрозмовника для тонкого настроювання подальших відповідей, а пріоритет віддається переконанням користувача, а не фактам. Слід провести лінію вододілу між рекомендаціями та власною відповідальністю за їхнє втілення в життя, пояснює бізнес-психолог Роман Терьохін: «ChatGPT чудово справляється не лише із завданням дати розумну думку, а й самого себе розкритикувати. Але є одна важлива умова: делегування роздумів та збору інформації, обробки та аналітики допустимі, а перекладання відповідальності немає. Що б не вигадав ChatGPT, людина сама відповідає за все, що робить у житті. Будь-який чат не тільки не є божеством, але навіть не є надійним джерелом інформації. Більше того, ChatGPT чудово зізнається, що робить помилки, якщо йому на них вказати, тільки не завжди їх виправляє. Це має бути розмова дорослої людини з інструментом, а не розмова людини з унікальним світом світу».

Ще одна публікація в Reddit про сім’ю, яка вирішила придбати психолога. Але після кількох очних візитів подружжя дійшли висновку, що спокійним відповідям терапевта можна віддати перевагу емоційній розмові з чатом GPT. Втім, тут важливо не заговоритись, деякі випадки стають клінічними.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

2025-05-07