«Опасность ИИ гораздо больше, чем опасность ядерных боеголовок!» Интервью Илона Маска. март 2018г.

0
19958
Илон Маск - Опасность искусственного интеллекта гораздо больше, чем опасность ядерных боеголовок

Говоря о распределении времени, я знаю, что ты тратишь много времени на размышления об искусственном интеллекте. Это наш с тобой общий интерес, и это интересно нашей аудитории. Вопрос в том, что многие эксперты не разделяют твои опасения насчет ИИ.

Илон Маск: Дураки.

Знаменитые последние слова! Во что именно веришь ты, во что не верят они?

Илон Маск: Проблема с экспертами в области искусственного интеллекта в том, что они думают, будто знают больше, чем есть на самом деле, и думают, что они умнее, чем есть на самом деле. В целом мы все умнее, чем думаем, менее умные, тупее, чем думаем, гораздо. В этом большая ошибка умных людей, они определяют себя с помощью своего интеллекта, им не нравиться идея, что машина может быть умнее, чем они. Так что они просто отвергают идею, что в корне неверно. Это самообман.

Я достаточно близок к последним разработкам в области ИИ, и меня это безумно пугает. Искусственный интеллект способен на гораздо большее, чем почти кто угодно на Земле, а скорость усовершенствования растет экспоненциально. Это видно на примере того же «Альфа Го»: за 6-9 месяцев он прошел путь от невозможности победить относительно хорошего игрока в Го до победы над чемпионом Европы, шестисотого по рейтингу в мире, потом 4-х побед из пяти игр с Лисси Долом, который был чемпионом мира много лет. Дальше победы над нынешним чемпионом мира, потом победы над всеми игроками, играя с ними одновременно. Потом появилась «Альфа-Зирро», которая победила «Альфа Го» в ста матчах из ста. «Альфа-Зирро» училась в игре сама с собой. И она может играть в любую игру, для которой ты задаешь правила. Какие бы вы ни давали правила, просто зачитайте их и сыграйте в игру. Человек проиграет… В любой игре… Никто не ожидал такой скорости развития. Если опросить тех же экспертов, которые думают, что ИИ не развивается с той скоростью, о которой я говорю, можно увидеть, что их предсказания насчет Го и прочих достижений в ИИ были неверны.

Это заметно и с автопилотом. Думаю, к концу следующего года автопилот будет охватывать все режимы вождения и будет от ста до двухсот процентов безопаснее человека. К концу следующего года. Через 18 месяцев. Мы изучали автопилот Тесла версии 1, которая относительно примитивна, и обнаружили, что он приводит к сокращению аварий на магистралях на 45%, и это не смотря на то, что это только первая версия. Версия 2 по крайней мере в два или три раза лучше, это та версия, которая установлена сейчас. Скорость развития очень высока, и нужно убедиться в том, что появление искусственного суперинтеллекта совместимо с человечеством. Я считаю, что это самый большой экзистенциальный кризис, стоящий перед нами. И самый неотложный.

И как нам это сделать? Если считать, что это уже неизбежно, что какая-то версия ИИ появится в будущем? Как нам это направить в нужное русло?

Илон Маск: Обычно я не фанат регулирования и контроля, я считаю, это нужно минимизировать, но в данном случае это может являться угрозой обществу. Поэтому необходимо создать контролирующий орган, у которого будет доступ и возможность проследить, что все разрабатывают безопасный искусственный интеллект. Это очень важно! Опасность ИИ гораздо больше, чем опасность ядерных боеголовок! В разы! Никому же не придет в голову разрешать кому ни попадя разрабатывать ядерные боеголовки по своему хотению. Это же бред! Запомните мои слова: ИИ гораздо более опасен!
Так почему у нас нет контролирующего органа? Это сумасшествие!

Этот вопрос давно нужно было задать, он остро встал в последний год, когда мы поняли, что проблема не только в искусственном суперинтеллекте, который конечно опасен, но в долгосрочной перспективе. За последний год мы столкнулись с искусственным дебилизмом. Я говорю о манипуляциях алгоритмов социальных сетей, это уже происходит, это уже началось. Как нам теперь вмешаться?

Илон Маск: Меня не очень пугает что-либо в краткосрочной перспективе. Узкий искусственный интеллект не является угрозой человеческому виду. Он приведет к изменениям, потере работы, улучшению оружия, но это не угроза вымирания. Тогда как цифровой суперинтеллект – именно такая угроза. Так что суть в том, чтобы подготовить почву на случай, если человечество коллективно примет решение, что создание цифрового суперинтеллекта – хорошая идея. Тогда это нужно будет делать с большой осторожностью. С особенной осторожностью. Это самое важное, что мы можем сделать.

Кроме ИИ и других проблем, которые ты взялся решить: транспорт, производство, энергия и космос, на что должно обратить внимание следующее поколение лидеров? Что еще нас ждет?

Илон Маск: Есть некоторые вещи в долгосрочной перспективе. То, во что верю я, распространение жизни за пределы земли, становление человечества мультипланетным. Я верю в серию «Основание» Азимова и принципиально что нужно, я очень советую прочитать серию книг «Основание».