Искусственный интеллект может привести к вымиранию человечества, предупреждают некоторые эксперты, в том числе руководители OpenAI и Google Deepmind. Но как машины могут одержать верх над людьми?, – пишет BBC.
С момента запуска в ноябре 2022 года ChatGPT – чат-бот, использующий искусственный интеллект (ИИ) для ответов на вопросы или создание текста или даже кода по требованию пользователей, – стал интернет-приложением с самыми быстрыми темпами роста в истории.
Всего за два месяца у него было 100 миллионов активных пользователей. По данным компании по мониторингу технологий Sensor Town, чтобы добиться этой вехи, Instagram понадобилось два с половиной года.
Появление программы ChatGPT вызвало бурные дебаты о том, является ли ИИ безопасным.
Огромная популярность ChatGPT, разработанная компанией OpenAI при финансовой поддержке Microsoft, вызвала интенсивные дебаты о влиянии искусственного интеллекта на будущее человечества.
Десятки экспертов поддержали заявление, опубликованное на веб-странице Центра безопасности искусственного интеллекта, в котором говорится: “Уменьшение риска вымирания (человечества) от искусственного интеллекта должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война”.
В то же время другие говорят, что эти страхи преувеличены.
Тексты (от эссе, стихов и шуток до компьютерного кода) и изображения (такие как диаграммы, фотографии и иллюстрации), созданные инструментами ИИ, такими как ChatGPT, DALL-E, Bard и AlphaCode, могут быть неотличимы от работы человека.
С их помощью студенты делают домашние задания, а политики пишут речи: представитель Демократической партии Джейк Окинклос запустил их в Конгрессе США.
Технический гигант IBM заявляет, что перестанет нанимать людей на 7800 вакансий, на которых может работать искусственный интеллект.
Если все эти изменения вас поражают – будьте готовы, что это только начало.
Мы только на первой стадии ИИ и впереди еще две, которые, по мнению некоторых ученых, могут угрожать самому выживанию человечества.
Что это за три стадии?
1. Искусственный узкий интеллект (ИУИ)
Искусственный узкий интеллект (ШВИ) – также известный как узкий ШИ – сосредотачивается на одной задаче и выполняет повторяющуюся работу в пределах заданного диапазона функций.
Обычно он изучает множество данных, например из интернета, но только в определенной области, на которую его запрограммировали.
Примером могут служить шахматные программы, способные победить чемпиона мира, но не способные выполнять другие задачи.
В смартфонах есть множество приложений, которые используют эту технологию – от GPS-карт до музыкальных и видеопрограмм, которые знают ваши вкусы и дают рекомендации.
Даже более сложные системы, такие как беспилотные автомобили и ChatGPT являются формами узкого искусственного интеллекта. Они не могут действовать вне установленного набора задач, поэтому не могут самостоятельно принимать решения.
Однако некоторые эксперты считают, что системы, запрограммированные на автоматическое обучение, такие как ChatGPT или AutoGPT, могут перейти на следующий этап развития.
2. Искусственный общий интеллект (ИОИ)
Искусственный общий интеллект станет реальностью, когда машина сможет выполнять любую интеллектуальную задачу, которую может выполнять человек.
Он также известен как “сильный ИИ”.
Шестимесячная пауза
В марте 2023 года более 1000 технологических экспертов призвали “все лаборатории искусственного интеллекта немедленно приостановить по крайней мере на 6 месяцев обучения систем искусственного интеллекта более мощных, чем GPT-4”, последнюю версию ChatGPT.
“Системы искусственного интеллекта с человеческим и конкурентоспособным интеллектом могут представлять серьезные риски для общества и человечества”, – написал соучредитель Apple Стив Возняк вместе с другими лидерами в сфере технологий, в том числе владельцем Tesla и SpaceX Илоном Маском.
Маск был одним из соучредителей OpenAI, но впоследствии ушел в отставку из-за разногласий с руководством фирмы.
Основатель Tesla и SpaceX и владелец Twitter Илон Маск ушел из правления материнской компании ChatGPT OpenAI.
В письме, опубликованном некоммерческой организацией Future of Life Institute, эксперты сказали, что если компании откажутся быстро остановить свои проекты, “правительства должны вмешаться и ввести мораторий”, чтобы можно было разработать и ввести меры безопасности.
“Настолько же глуп, насколько и умен”
Письмо подписала и Карисса Велиз из Института этики ИИ Оксфордского университета. Но она считает, что более позднее заявление Центра безопасности ИИ, которое предупреждает о вымирании человечества, заходит слишком далеко, и решило его не подписывать.
“Искусственный интеллект, который мы сейчас создаем, столь же глуп, насколько и умен, – рассказала она корреспонденту BBC Эндрю Веббу, – Если кто-то попробует ChatGPT или другой ИИ, он заметит, что они имеют очень, очень важные ограничения”.
Велиз говорит, что ее волнует то, что ИИ может с огромной скоростью фабриковать дезинформацию.
“Приближаются выборы в США, а такие важные платформы, как Twitter и другие, увольняют свои команды по этике и безопасности искусственного интеллекта. Это меня волнует гораздо больше”, – говорит она.
С тех пор, как Илон Маск купил социальную сеть, Twitter сократил штат, включая команды по борьбе с дезинформацией.
Правительство США признает потенциальные угрозы.
“Искусственный интеллект является одной из самых мощных технологий нашего времени, но для того, чтобы воспользоваться предоставляемыми ею возможностями, мы должны сначала смягчить связанные с ней риски”, – говорится в заявлении Белого дома 4 мая.
Конгресс США вызвал генерального директора OpenAI Сэма Альтмана, чтобы задать ему вопрос о ChatGPT.
Во время слушаний в Сенате Альтман сказал, что чрезвычайно важно, чтобы его отрасль регулировала правительством, поскольку искусственный интеллект становится все более мощным.
Карлос Игнасио Гутьеррес, исследователь государственной политики в Институте будущей жизни, пояснил BBC, что одной из больших проблем, которые ставит искусственный интеллект, является то, что “нет коллегиального органа экспертов, которые решали бы, как его регулировать, как это происходит, например, с Межправительственной группой экспертов по изменению климата.
Это подводит нас к третьей и последней стадии ИИ.
3. Искусственный суперинтеллект (ИС)
Согласно этой теории, когда мы достигнем стадии 2 (СИИ), мы катапультируемся на завершающую стадию: “Искусственный суперинтеллект” (ШС). Это произойдет, когда искусственный интеллект будет выше человеческого.
Философ Оксфордского университета и эксперт по искусственному интеллекту Ник Бостром определяет суперинтеллект как интеллект, “значительно превосходящий лучший человеческий мозг практически во всех сферах, включая научное творчество, общий разум и социальные навыки”.
“Люди, которые становятся инженерами, медсестрами или юристами, должны учиться в течение длительного времени. Проблема с ШС заключается в том, что… он может постоянно совершенствоваться в то время, когда мы не можем”, – объясняет Гутьеррес.
Научная фантастика
Эта концепция напоминает сюжет фильма Терминатор, в котором машины начинают ядерную войну, чтобы уничтожить человечество.
Арнольд Шварценеггер сыграл в серии фильмов о Терминаторе, где люди сражались с машинами, развившими искусственный интеллект.
Арвинд Нараянан, компьютерный ученый из Принстонского университета, ранее говорил BBC, что сценарии катастроф, похожие на научно-фантастические, нереалистичны: “Нынешний искусственный интеллект и близко не способен реализовать эти риски. Как следствие, это отвлекает внимание от краткосрочного ущерба искусственного интеллекта”.
Хотя идет много дискуссий о том, может ли машина действительно приобрести такой широкий интеллект, как человек, особенно когда речь идет об эмоциональном интеллекте, именно это больше всего волнует тех, кто верит, что мы близки к достижению ШС.
Недавно так называемый “крестный отец искусственного интеллекта” Джеффри Гинтон, пионер в обучении машин, предупредил, что мы можем вот-вот добиться этой вехи.
“Сейчас машины не умнее нас, насколько я вижу. Но я думаю, что вскоре они могут таковыми стать”, – сказал только что ушедший из Google 75-летний Гинтон.
Также он добавил, что теперь сожалеет о проделанной работе, поскольку опасается, что “плохие актеры” будут использовать искусственный интеллект для “плохих поступков”.
Он привел BBC пример “кошмарного сценария”: “Представьте, например, что какой-то плохой актер, как Путин, решил дать работам возможность создавать собственные промежуточные цели”.
В конце концов, машины могут создать промежуточные цели вроде: “Мне нужно получить больше власти”, что создаст “экзистенциальный риск”, предупредил он.
В то же время Гинтон отметил, что “в краткосрочной перспективе”, по его мнению, искусственный интеллект принесет гораздо больше преимуществ, чем рисков. “Поэтому я не думаю, что мы должны прекращать его разработку”, – добавил он.
Вымирание или бессмертие
Британский физик Стивен Гокинг имел серьезное предупреждение для будущих поколений.
Выдающийся британский физик Стивен Гокинг считал, что сверхумный искусственный интеллект может привести к “концу человеческой расы”
“Развитие полноценного искусственного интеллекта может означать конец человеческой расы”, – сказал он BBC в 2014 году, за четыре года до своей смерти.
По его словам, машина с таким уровнем интеллекта могла бы действовать самостоятельно и перепроектировать себя.
Наноботы и бессмертие
Одним из самых больших энтузиастов искусственного интеллекта является футуролог-изобретатель и писатель Рэй Курцвейл, исследователь искусственного интеллекта в Google и соучредитель Университета сингулярности Кремниевой долины.
Курцвейл верит, что люди смогут использовать суперинтеллектуальные ИИ для преодоления биологических барьеров.
В 2015 году он предположил, что к 2030 году люди смогут достичь бессмертия благодаря наноботам (чрезвычайно маленьким работам), которые могли бы исправлять любые повреждения и лечить болезни внутри нашего тела.
Управление ИИ
Гутьеррес соглашается, что ключевым является создание системы управления ИИ.
“Представьте себе будущее, где определенная сущность имеет столько информации о каждом человеке на планете и его привычках [благодаря поискам в интернете], что может контролировать нас способами, которых мы даже не осознаем”, – говорит он.
“Худший сценарий заключается не в том, что существуют войны между людьми и роботами. Худшим является то, что мы не осознаем, что нами манипулируют, потому что мы живем на планете с существом, намного умнее нас”.
Спасибо!
Теперь редакторы в курсе.