Бессмертие или уничтожение: что может сделать с человечеством ИИ, когда станет сверхразумом - ForumDaily
The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

Бессмертие или уничтожение: что может сделать с человечеством ИИ, когда станет сверхразумом

Искусственный интеллект может привести к вымиранию человечества, предупреждают некоторые эксперты, в том числе руководители OpenAI и Google Deepmind. Как машины могут одержать верх над людьми и что из этого выйдет, выяснило издание BBC.

Фото: IStock

С момента запуска в ноябре 2022 года ChatGPT этот чат-бот, использующий искусственный интеллект (ИИ), стал интернет-приложением с самыми быстрыми темпами роста в истории.

Всего за два месяца у него было 100 миллионов активных пользователей. По данным компании по мониторингу технологий Sensor Town, чтобы добиться этой отметки, Instagram понадобилось два с половиной года.

Такая популярность ChatGPT вызвала интенсивные дебаты о влиянии ИИ на будущее человечества.

Десятки экспертов поддержали Центр безопасности искусственного интеллекта, который заявил, что «уменьшение риска вымирания человечества от искусственного интеллекта должно быть глобальным приоритетом наряду с другими рисками глобального масштаба, такими как пандемии и ядерная война».

В то же время другие эксперты считают, что такой страх преувеличен, и человечеству нечего бояться.

Подражание людям

Тексты и изображения, созданные инструментами ИИ, такими как ChatGPT, DALL-E, Bard и AlphaCode, могут быть неотличимы от работы человека.

С их помощью студенты делают домашние задания, а политики пишут речи, например представитель Демократической партии Джейк Окинклос.

Технический гигант IBM заявил, что в скором времени перестанет нанимать людей на 7800 должностей, на которых может работать ИИ.

По теме: Искусственный интеллект изобрел новый антибиотик: он решит проблему, с которой врачи не могли справиться десятилетиями

И какими поразительными ни были бы эти изменения — это только начало.

Сейчас мы находимся лишь на первой стадии развития ИИ. Впереди еще две, которые, по мнению некоторых ученых, могут угрожать непосредственно выживанию человечества.

Три стадии

1. Искусственный узкий интеллект (ИУИ)

Искусственный узкий интеллект, также известный как узкий ИИ, сосредотачивается на одной задаче и выполняет повторяющуюся работу в пределах заданного диапазона функций.

Он может изучать множество данных, например из интернета, но только в определенной области, на которую его запрограммировали.

Хороший пример — шахматные программы. Они могут победить чемпиона мира по шахматам, но это все, на что они способны.

В смартфонах есть множество приложений, которые используют эту технологию – от GPS-карт до музыкальных и видеопрограмм.

Даже более сложные системы, такие как беспилотные автомобили и ChatGPT являются формами узкого искусственного интеллекта. Они не могут действовать вне установленного набора задач, поэтому не могут самостоятельно принимать решения.

Однако некоторые эксперты считают, что системы, запрограммированные на автоматическое обучение, такие как ChatGPT или AutoGPT, смогут перейти на следующий этап развития.

2. Искусственный общий интеллект (ИОИ)

Искусственный общий интеллект станет реальностью, когда машина сможет выполнять любую интеллектуальную задачу, которую способен выполнить человек.

Искусственный общий интеллект – это точка, в которой машина имеет такие же интеллектуальные возможности, как и человек.

Его еще называют «сильный ИИ».

Шестимесячная пауза

В марте 2023 года более 1000 технологических экспертов призвали «все лаборатории искусственного интеллекта немедленно приостановить по крайней мере на 6 месяцев обучение систем искусственного интеллекта более мощных, чем GPT-4» (последняя версия ChatGPT).

«Системы искусственного интеллекта с человеческим и конкурентоспособным интеллектом могут представлять серьезные риски для общества и человечества в целом», — написали в своем обращении соучредитель Apple Стив Возняк и другие лидеры в области технологий, в том числе владелец Tesla и SpaceX Илоном Маском.

Маск был одним из соучредителей OpenAI, но впоследствии ушел из-за разногласий с руководством фирмы.

В письме, опубликованном некоммерческой организацией Future of Life Institute, эксперты сказали, что если компании откажутся быстро остановить свои проекты, «правительства должны вмешаться и ввести мораторий», чтобы можно было разработать и ввести меры безопасности.

«Настолько же глуп, насколько и умен»

Первое письмо подписала и Карисса Велиз из Института этики ИИ Оксфордского университета. Хотя более позднее заявление Центра безопасности ИИ, которое предупреждает о вымирании человечества, на ее взгляд, заходит слишком далеко, потому она решила его не подписывать.

«Искусственный интеллект, который мы сейчас создаем, настолько же глуп, насколько и умен, – сказала она. – Если кто-то попробует ChatGPT или другой ИИ, то заметит, что они очень и очень ограничены».

Велиз говорит, что ее больше волнует то, что ИИ может с огромной скоростью создавать дезинформацию.

«Приближаются выборы в США, а такие важные платформы, как Twitter и другие, увольняют свои команды по этике и безопасности искусственного интеллекта. Это меня волнует гораздо больше», — подчеркнула она.

Правительство США признает потенциальные угрозы.

«Искусственный интеллект является одной из самых мощных технологий нашего времени, но для того, чтобы воспользоваться предоставляемыми ею возможностями, мы должны сначала смягчить связанные с ней риски», — говорится в заявлении Белого дома 4 мая.

Конгресс США даже вызывал генерального директора OpenAI Сэма Альтмана, чтобы задать ему несколько вопросов о ChatGPT.

Во время слушаний в Сенате Альтман сказал, что чрезвычайно важно, чтобы его отрасль регулировалась правительством, так как ИИ становится сильнее с каждым днем.

Карлос Игнасио Гутьеррес, исследователь государственной политики в Институте будущей жизни, пояснил, что одной из больших проблем, созданных искусственным интеллектом, является то, что «нет коллегиального органа экспертов, которые решали бы, как его регулировать, как это происходит, например с Межправительственной группой экспертов по изменению климата».

Это подводит нас к третьей и последней стадии ИИ.

3. Искусственный суперинтеллект (ИС)

Когда мы достигнем стадии 2 (ИОИ), то почти сразу перенесемся на завершающую стадию — искусственный суперинтеллект (ИС). Это произойдет, когда искусственный интеллект станет выше человеческого.

Философ Оксфордского университета и эксперт по искусственному интеллекту Ник Бостром определяет суперинтеллект как интеллект, который «значительно превосходит лучший человеческий мозг практически во всех сферах, включая научное творчество, общий разум и социальные навыки».

«Люди, которые становятся инженерами, медсестрами или юристами, должны учиться в течение длительного времени. Проблема с И заключается в том, что… он может постоянно совершенствоваться в то время, когда мы не можем», — объясняет Гутьеррес.

Научная фантастика

Эта концепция развития напоминает сюжет фильма «Терминатор», в котором машины начинают ядерную войну, чтобы уничтожить человечество.

Арвинд Нараянан, компьютерный ученый из Принстонского университета, ранее говорил, что сценарии катастроф, похожие на научно-фантастические, нереалистичны: «Нынешний искусственный интеллект и близко не способен реализовать эти риски. Как следствие, это отвлекает внимание от краткосрочного ущерба искусственного интеллекта».

Хотя существует много дискуссий о том, может ли машина действительно приобрести такой широкий интеллект, как у человека, особенно когда речь идет об эмоциональном интеллекте, именно это больше всего волнует тех, кто верит, что мы близки к достижению ИС.

Недавно так называемый «крестный отец искусственного интеллекта» Джеффри Гинтон, пионер в обучении машин, предупредил, что мы можем вот-вот добиться этой вехи.

«Сейчас машины не умнее нас, насколько я вижу. Но, на мой взгляд, вскоре они могут таковыми стать», — сказал недавно ушедший из Google 75-летний Гинтон.

По его словам, он теперь сожалеет о проделанной работе и опасается, что «плохие люди» будут использовать искусственный интеллект для «плохих поступков».

«Представьте, например, что кто-то такой, как президент РФ Владимир Путин, решил дать роботам возможность создавать собственные промежуточные цели», — аргументировал он.

Вам может быть интересно: главные новости Нью-Йорка, истории наших иммигрантов и полезные советы о жизни в Большом Яблоке — читайте все это на ForumDaily New York

По его мнению, в итоге машина может поставить перед собой цель «получить больше власти».

В то же время Гинтон отметил, что в краткосрочной перспективе, по его мнению, искусственный интеллект принесет гораздо больше преимуществ, чем рисков.

«Поэтому я не думаю, что мы должны прекращать его разработку», – резюмировал он.

Вымирание или бессмертие

Британский физик Стивен Хокинг давно уже предупредил будущие поколения об опасности ИИ.

«Развитие полноценного искусственного интеллекта может означать конец человеческой расы», – сказал он в 2014 году, за четыре года до своей смерти.

По его словам, машина с таким уровнем интеллекта могла бы действовать самостоятельно и перепроектировать себя.

Наноботы и бессмертие

Одним из самых больших энтузиастов искусственного интеллекта является футуролог-изобретатель и писатель Рэй Курцвейл — исследователь искусственного интеллекта в Google и соучредитель Университета сингулярности Кремниевой долины.

Курцвейл верит, что люди смогут использовать суперинтеллектуальные ИИ для преодоления биологических барьеров.

В 2015-м он предположил, что к 2030 году люди смогут достичь бессмертия благодаря наноботам (чрезвычайно маленьким работам), которые могли бы исправлять любые повреждения и лечить болезни внутри нашего тела.

Управление ИИ

Гутьеррес соглашается, что ключевым является создание системы управления ИИ.

«Представьте себе будущее, где определенная сущность имеет столько информации о каждом человеке на планете и его привычках, что может контролировать нас способами, которых мы даже не осознаем, — говорит он. — Худший сценарий заключается не в том, что существуют войны между людьми и работами. Худшим является то, что мы не осознаем, что нами манипулируют, потому что мы живем на планете с существом, намного умнее нас».

Читайте также на ForumDaily:

Лето близко: как подготовить дом к жаре

Шесть американских компаний, где вам оплатят отпуск и разрешат работать на удаленке

Четыре крупных города США, где купить дом дешевле, чем арендовать

Вы можете узнать о задержке авиарейса заранее, даже до того, как ее объявят

Шесть способов сократить счет за лечение в США

Как сэкономить на продуктах: 6 приложений, где по дешевке продают излишки еды в ресторанах, пекарнях и других бизнесах

развитие искусственный интеллект Ликбез человечество
Подписывайтесь на ForumDaily в Google News

Хотите больше важных и интересных новостей о жизни в США и иммиграции в Америку? — Поддержите нас донатом! А еще подписывайтесь на нашу страницу в Facebook. Выбирайте опцию «Приоритет в показе» —  и читайте нас первыми. Кроме того, не забудьте оформить подписку на наш канал в Telegram  и в Instagram— там много интересного. И присоединяйтесь к тысячам читателей ForumDaily New York — там вас ждет масса интересной и позитивной информации о жизни в мегаполисе. 



 
1073 запросов за 1,216 секунд.