Не создадут ли новые чат-боты хаос в соцсетях

От кулинарных рецептов до написания речей – новый чат-бот ChatGPT отвечает на разные запросы пользователей. Для многих он стал первой возможностью “поиграть” с системой искусственного интеллекта (ИИ).

Благодаря искусственному интеллекту ChatGPT выводит обработку языка человека на новый уровень и может вести диалог.

Он генерирует машинный текст, похожий на тот, который написал человек.

ChatGPT может писать статьи, сочинять истории, сочинять стихи и даже создавать компьютерный код. Он может отвечать на вопросы, поддерживать разговор и, в некоторых случаях, давать подробные ответы на специфические вопросы.

Скажите ChatGPT, что у вас есть в кухонном шкафу, и он даст вам рецепт. Нужно быстрое вступление в большую презентацию? Без проблем.

Однако так ли это хорошо? Его приближение к человеческим реакциям может стать мощным инструментом для злоумышленников.

Ученые, специалисты по кибербезопасности и эксперты по искусственному интеллекту предупреждают, что ChatGPT может стать средством разжигания инакомыслия и распространения пропаганды в социальных сетях.

До этого распространение дезинформации требовало значительного участия человека. Но искусственный интеллект, как ChatGPT, значительно облегчит работу так называемым армиям троллей. Об этом сообщает общий отчет Джорджтаунского университета, Стэнфордской интернет-обсерватории и исследовательской компании OpenAI.

ChatGPT может создавать информационные операции (или операции воздействия) в соцсетях.

Такие кампании направлены на то, чтобы убрать критику и представить политическую партию или политику правительства в позитивном свете. Они также могут выступать “за” или “против” определенной политики. Используя поддельные аккаунты, они распространяют дезинформацию в социальных сетях.

Это республиканский президентский номинал Дональд Трамп и Демократический премьер-министр номине Хиллири Клинтон на встрече в Хофстре, Университете в Хемпстеаде, Нью-Йорк на Сент. 26, 2016.

По данным американских спецслужб, тысячи публикаций в соцсетях, которые координировали из России, преследовали цель дискредитировать кандидатуру Хиллари Клинтон на президентских выборах США в 2016 году.

Одну из таких кампаний запустили в канун президентских выборов в США в 2016 году, а “фабрика троллей” из российского Санкт-Петербурга пыталась влиять на их результаты.

Согласно выводам спецкомитета Конгресса, для поддержки кандидата от республиканцев Дональда Трампа и осквернения имиджа демократического кандидата Хиллари Клинтон в соцсетях и за их пределами были использованы украденные персональные данные американских граждан для фейковых профилей в инстаграмме, твиттере и фейсбуке.

Но это только вершина айсберга. Специалисты уверены, что предстоящие выборы, возможно, накроет еще большая волна дезинформации.

“Потенциал языковых моделей, как и любая мощная технология, предоставит очевидные преимущества пропагандистам, которые решат ими воспользоваться”, – говорится в январском отчете AI.

“Эти преимущества могли бы расширить доступ к большему количеству участников, дать возможность применить новые тактики влияния, лучше адаптировать фейковые сообщения и сделать их потенциально более эффективными”, — предупреждает отчет.

Увеличиться может не только количество дезинформации, но и ее качество. Системы искусственного интеллекта могут делать контент более убедительным, а обычным интернет-пользователям будет все сложнее распознавать его, говорит Джош Гольдштейн из Центра безопасности и перспективных технологий при Джорджтаунском университете.

“Генеративные языковые модели могут создавать большой объем контента, который каждый раз будет оригинальным… и позволит каждому пропагандисту избегать копирования и добавления одного и того же текста в сообщения на страницах пользователей соцсетей или на новостных сайтах”, – объясняет он.

И если такого контента будет много, то пользователям все сложнее отличить правду от лжи, говорит Гольдштейн.

В отчете также отмечается, что доступ к этим системам может перестать быть прерогативой нескольких организаций.

“Сегодня небольшое количество фирм или правительств располагают языковыми моделями высшего уровня. Но увеличение инвестиций в современные генеративные модели может увеличить шансы на то, что пропагандисты также получат к ним доступ”, – говорится в его отчете.

“Тролли” могут также применять технологию массовой рассылки сообщений, спама, говорит Гэри Маркус, специалист по искусственному интеллекту и основатель Geometric Intelligence, компании, которую в 2016 году приобрел Uber.

“Распространители спама нацелены на самых доверчивых людей – те нажимают на их ссылки, что позволяет максимально расширить аудиторию. А с искусственным интеллектом этот метод может приобрести гигантские масштабы”.

Кроме того, даже если такие платформы, как твиттер и фэйсбук, удалят.

“Три четверти злонамеренного контента, в соцсетях “все равно останется по меньшей мере в 10 раз больше контента, чем раньше, который может вводить людей в заблуждение”, – говорит Маркус.

Всплеск фейковых аккаунтов в соцсетях стал серьезной проблемой, а развитие языковых моделей заполнит социальные платформы еще большим количеством фальшивых профилей.

“Система типа ChatGPT может поднять подлог учетных записей на невиданный ранее уровень, – говорит Винсент Конитцер, профессор компьютерных наук в Университете Карнеги-Меллона, – Будет все труднее понять, кто настоящий хозяин аккаунта – человек или программа”.

Фейковые аккаунты, созданные ChatGPT, будет трудно отличить от настоящих, говорит Винсент Конитцер.

Гольдштейн и специалисты WithSecure Intelligence предупреждают, что генеративные языковые модели могут быстро и эффективно создавать фейковые новостные статьи в соцсетях, еще больше увеличивая поток ложных сообщений и нарративы, которые могут повлиять на электорат перед важными выборами.

Но если системы искусственного интеллекта, такие как ChatGPT, еще больше усилят дезинформацию и распространение фальшивых новостей, то возникает вопрос: имеют ли соцсети активнее на это реагировать? Некоторые эксперты полагают, что они с этим не справятся.

“Платформы должны обозначать фальшивый контент, но фейсбук с треском проваливает этот тест”, – говорит Луис Амарал, португальский физик, известный своими исследованиями сложных систем и сетей.

“Причины такого бездействия состоят в расходах на мониторинг каждого отдельного сообщения. Кроме того, эти фейковые посты предназначены для того, чтобы раздражать и разделить аудиторию. А это стимулирует привлечение аудитории. Поэтому это выгодно прежде всего для самого фейсбука”.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

2023-02-15