Общение может сделать интеллект машин независимым от человека и свободным

0
368

Именно общение может сделать интеллект машин независимым от человека и свободным в принятии решений. И самое страшное, мы легко перестаем понимать, если это происходит.

Боб: Я могу могу Я Я все остальное.
Элис: Шары имеют ноль для меня для меня для меня для меня для меня.
Боб: Ты Я все остальное.
Элис: Шары имеют шар для меня для меня для меня для меня для меня.

Это вовсе не бред, а реальный диалог между двумя чат-ботами из лаборатории искусственного интеллекта Facebook. Машины самостоятельно развиваясь, изобрели собственный язык для общения и он только внешне был похож на английский. Как он устроен и почему именно так – это уже было загадкой. Летом 2017 года руководство социальной сети Facebook приказало отключить экспериментальную систему.

Удивительно, но реальная угроза искусственного интеллекта может быть не в том, что он обретет сознание и самосознание. Как пишет Стюарт Рассел ( автор учебника по ИИ, а его книга входит в учебный курс 1300 университетов в 116 странах) опасность в том, что машина сможет принимать исключительно высококачественные решения. То есть она станет выполнять доверенную ей функцию, например, добычу руды с предельной эффективностью. Чем меньше действий, а значит времени и ресурсов тратится на результат, тем ты действуешь эффективнее. Вот тут-то и возникает проблема. Что если эффективнее избавиться от больных и немощных в этом карьере? Или, например, взорвать породы под городом, поскольку это принесет наибольшую выгоду в добыче? Конечно, это пока фантастическая ситуация. Но получая машины, способные самостоятельно принимать исключительно качественные решения, пишет Рассел, мы уже сейчас оказываемся в ситуации мифического царя Мидаса. Наши желания могут исполнятся в точности так, как мы хотим. Мидас хотел, чтобы все, к чему он прикасался, превращалось в золото, но и еда с напитками, все становилось драгоценным металлом. Исполнение его желания сделало его одним из самых несчастных людей в мире.

Айзек Азимов, писатель-фантаст, не боялся заглядывать далеко в будущее. В эпоху, когда роботы выглядели скорее смешно, чем впечатляюще, и жили разве что в комиксах. Азимов придумал три гипотетических закона робототехники:

Первый Закон: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Второй Закон: Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

Третий Закон: Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Кажется, достаточно вшить эти законы машине в микросхемы, как человеку будет гарантирована безопасность, но если бы все было так просто.

Кого сбить на дороге? Старика с внучкой или молодоженов. Или свернуть в сторону и дать разбиться хозяину машины, которой управляет искусственный интеллект? А какой выбор сделаете Вы? На этот вопрос в разных ситуациях вам предлагают ответить ученые из MIT на странице своего исследования. Или вы позволите ей самой найти лучшее решение? Но уверены ли Вы, что оно Вас устроит?

Парадоксально. Бизнесмен и сооснователь компании , которая занимается разработкой ИИ, Илон Маск призывает тревожиться: «Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что это кажеться им нереалистичным. А это гораздо больший риск, чем Северная Корея. Никому не нравиться госрегулирование, но все, что представляет опасность (автомобили, самолеты, еда, наркотики) регулируется. Искусственный интеллект тоже должен регулироваться.»

С Маском не согласен другой бизнесмен, который тоже развивает технологии искуственного интелекта, Марк Цукерберг: «Любая технология может быть использована как во благо, так и во зло. Люди, которые борются за то, чтобы замедлить развитие индустрии Искусственного интеллекта, выступают против создания более безопасных автомобилей или против того, чтобы врачи быстрее и точнее ставили диагноз».

Маск ограничился переходом на личности: «Его понимание предмета ограничено».

Цукерберг же просто развел руками: «Я не понимаю людей, которые пытаются раскручивать эти сценарии конца света. Я думаю это безответственно».