Как отличить настоящий искусственный интеллект от ненастоящего?

0
285

Чтобы определить искусственный интеллект, нужно вначале определить понятие интеллекта. В спорах, что такое интеллект, чем он является, как его отделить от неинтеллекта, можно провести многие годы и даже десятилетия.

Понятие интеллектуальной задачи

Понимая всю сложность определения понятия интеллекта, родоначальники этого направления проделали такой, достаточно изящный трюк. Он заключается в том, что в основу понятия искусственного интеллекта положено не понятие интеллекта, а понятие интеллектуальной задачи. Т.е. если существует какая-то задача, которую люди традиционно решают при помощи своего интеллекта, и мы создаем систему, которая предназначена для автоматизации решения такой задачи, то таким образом эта система будет являться системой искусственного интеллекта.

Есть такая одна большая проблема, связанная с тем, что это определение, оно чрезвычайно широкое. Т.е. если разобраться, то, например, задачи устного счета – это тоже интеллектуальные задачи, мы же ее выполняем при помощи своего ума и получается, что простой калькулятор и счеты и т.д. являются системами искусственного интеллекта. И, на самом деле, это действительно так, но сознательно для того, чтобы отделить простые интеллектуальные задачи от сложных, обычно проводят некоторую условную черту и говорят, что под системами искусственного интеллекта мы, все таки, подразумеваем системы, предназначенные для автоматизации сложных интеллектуальных задач. Но здесь вкрадывается такой, достаточно неприятный момент, связанный с тем, как мы разделяем задачи на сложные и простые. Вот это наше представление о том, какие интеллектуальные задачи являются сложными, а какие – простыми оно постоянно меняется, в зависимости от прогресса технологии.

Есть даже специальное название для этой проблемы, называется – эффект искусственного интеллекта. Как отличить настоящий искусственный интеллект от ненастоящего? Вот если какая-то интеллектуальная задача уже решена и у нас уже есть системы для ее эффективного решения при помощи машин, то это ненастоящий искусственный интеллект. А вот если есть какая-то задача, которую мы пока еще решить не смогли на весьма удовлетворительном уровне, то система, которую мы в будущем создадим для решения такой задачи, вот она то и будет настоящим искусственным интеллектом. Понятно, что это шутка, понятно, что это особенности восприятия этого понятия. С чем они связаны? Связаны они с тем, что люди, конечно, очень ревностно относятся к своей монополии на существование у них интеллекта и ни в коей мере не хотят признавать за машинами наличие у них такого свойства.

Сильный и слабый искусственный интеллект

Внутри понятия искусственного интеллекта проводят обычно еще одну важную границу, которая разделяет так называемые системы слабого искусственного интеллекта от систем искусственного интеллекта. Так же обычно применение к системам слабого искусственного интеллекта говорят: системы прикладного искусственного интеллекта или системы узкого искусственного интеллекта – это все, в общем-то, синонимы и все это обозначения для систем, предназначенных для решения, обычно, какой-то одной интеллектуальной задачи. Скажем, программа, которая играет в шахматы, умеет играть только в шахматы и не умеет играть в шашки и более того, даже обычно не умеет играть в шахматы на доске 10*10. Т.е. система, которой является шахматная программа – это тоже система искусственного интеллекта, но это система прикладного искусственного интеллекта. Все системы, которые мы до сих пор создали, все системы искусственного интеллекта, которые мы эксплуатируем – это, как раз системы слабого искусственного интеллекта. В противовес таким системам обычно вводят понятие гипотетической системы универсального искусственного интеллекта или называют это сильным искусственным интеллектом. По-английски это будет – artificial general intelligence. И вот система универсального искусственного интеллекта – это гипотетическая система, которая может решать весь спектр интеллектуальных задач, доступных интеллекту естественному, человеческому. Тут, кстати, довольно интересный момент, на сколько можно человеческий интеллект называть естественным, ведь каждый ребенок, рождаясь еще не обладает интеллектуальными способностями и постепенно развивает их в процессе своего развития, в процессе его взросления. В этом смысле можно сказать, что и человеческий интеллект тоже в изрядной степени искусственный, потому что он формируется в процессе воспитания, в процессе взаимодействия со средой.

В настоящий момент есть довольно много проектов по созданию универсального искусственного интеллекта.

Что еще важного можно сказать по поводу прикладных систем искусственного интеллекта. Именно с их прогрессом связана идущая сейчас вторая весна искусственного интеллекта. Именно прогресс в решении отдельных интеллектуальных задач, долгое время не поддававшихся методам машинного обучения, мы обязаны вот тому хайпу, тому возрастанию интереса к этой сфере, который мы наблюдаем в последние годы.

Немного поговорим о понятии искусственного интеллекта с точки зрения того, каким образом нам понять – создали ли мы систему, которая обладает действительным универсальным искусственным интеллектом. Этой проблематикой, на самом деле, стали интересоваться специалисты еще до того, как приблизились к созданию таких эффективных прикладных систем искусственного интеллекта, которые существуют у нас сейчас. И родоначальниками размышлений на эту тему были два специалиста. Один из них был представителем инженерной области – это Алан Тьюринг, известный создатель первых вычислительных машин, теоретик компьютерных наук. А вторым был менее известный человек Альфред Айер, он был философом и в 36 году Айер в своей работе, которая называется «Язык, истина и логика» предложил алгоритм распознавания осознающего человека, от неосознающей машины. Что единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто глупая машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания. На самом деле вы видите, что формулировка, употребленная Айером, на самом деле очень похожа на то, что мы сегодня привыкли называть тестом Тьюринга. Т.е. излагая более простым языком, если нечто похоже на утку, крякает как утка, ходит как утка, плавает как утка, то, по всей видимости, это утка. Если ни в одном из эмпирических экспериментов, которые мы проводим с системой, мы не в состоянии отличить ее от объекта, который однозначно обладает интеллектом, это значит, что мы должны за такой системой признать наличие у нее интеллекта. Действительно, в практике мы не смогли найти способа отличения.

Тест Алана Тьюринга: Создали ли мы машину, действительно обладающую интеллектом?

Алан Тьюринг на самом деле, по всей видимости не был знаком с работами Айера, потому что он не был философом, и, наверное, не очень интересовался философией, но в целом, у умных людей мысли сходятся и самая знаменита работа Алана Тьюринга, которая дала толчок развитию направления, связанного с искусственным интеллектом – это работа «Вычислительные машины и разум». Она написана в 50-м году, но мысли, которые Тьюринг в ней излагает: он разрабатывал еще с начала 40-х годов понятие искусственного интеллекта или искусственного разума Тьюринг использует в своих беседах, своих интервью с 41 года. Именно в этой работе появляется определение того, что мы на сегодняшний момент называем тестом Тьюринга. И вот он по существу предлагает заменить вопрос: думают ли машины? вопросом: могут ли машины делать то, что можем делать мы, как мыслящие создания? Ну и соответственно, идея Тьюринга, она в своей основе содержит знаменитую в то время игру, игру в имитацию, в которую играли участники вечеринок. Игра не сложная: в одной комнате запирают девушку, в другой комнате запирают парня и судья просовывает под двери записки с вопросами, а человек, который находится в комнате, пишет свои ответы. Задачей судьи является понять, в какой из комнат находится девушка, в какой из этих комнат находиться парень. Он не имеет возможности видеть этого человека, не имеет возможности слышать его голос, все взаимодействие ограничивается посредством записок, когда субъект и объект проявляют себя в таких наиболее абстрактных формах. И вот, Тьюринг предлагает использовать этот же метод для того, чтобы выяснить: создали ли мы машину, действительно обладающую интеллектом, настоящим, универсальным интеллектом. Представим себе машину, которая пытается притвориться человеком и, общаясь с нами, стремиться отвечать на вопросы таким образом, которым на них мог бы ответить человек, обладающий интеллектом настоящим. И вот задача судьи, опять же, отличить, где машина, где не машина. И вот если оказывается, что в ходе этой процедуры не удается отличить человека от машины, то за этой машиной следует признать наличие у нее настоящего универсального искусственного интеллекта.

Интересно, что идея эта захватила широкие массы населения, много было создано со времен Тьюринга различных диалоговых систем, которые так или иначе пытались подражать людям, общаться с людьми в режиме диалога. И даже некоторый ограниченный успех достигался в ходе такого рода экспериментов. Надо сказать, что первые такие программы были созданы еще в 60-е годы и первой программой, ведущей диалог с человеком, была программа Элиза. Программа Элиза была названа в честь героини произведения Бернарда Шоу «Пигмалион», Элиза Дулитл. Вы, может быть, видели оперетту, которая называется «Моя прекрасная леди». Ее сюжет не сложен: профессор Дулитл встречает девушку, представительницу низов общества и заключает пари со своим другом, Пикерингом, что за определенный промежуток времени он воспитает из этой девушки настоящую леди, научит ее говорить и общаться так, как общаются настоящие леди. Ну и соответственно проведет такой своеобразный тест Тьюринга, приведя ее в высшее общество, где никто не должен ее разоблачить. И вот Элиза притворялась психотерапевтом, довольно неплохо для своего времени. Она использовала профессиональный жаргон психотерапевтов. Наверное, это была такая маленькая месть психотерапевтам от программистов того времени. И надо сказать, что проводились забавные эксперименты, когда программа «Элиза» через сеть «Американ Лайн» связывалась со случайными абонентами, общалась с ними и довольно большое количество людей не заподозрили подвоха. Вторым знаменитым чат-ботом была программа «Мэри», которая, наоборот, разыгрывала из себя параноика. В одном из таких публичных экспериментов она смогла обмануть 48 процентов психиаторов, которые не смогла распознать за общающимся с ними субъектом машину. Понятно, что это ни какой ни честный тест Тьюринга, потому что: во-первых – человек, являющийся параноиком, и вообще, человек психически нездоровый, в своем общении вполне может напоминать машину. И люди, с которыми Элиза общалась через «Американ Лайн», конечно не подозревали такого подвоха, в то время чат-ботов вообще не существовало и, в принципе, допустить такую мысль, что с ними общается машина не многие были готовы, потому что, вообще даже не задумывались о том, что такого рода машины могут существовать. Тем не менее – это были довольно забавные эксперименты. Тьюринг считал, что к 2000 году машины с памятью 10*9 бит будут способны обмануть человека в тесте в 30 процентах случаев. 10*9 бит – это 130 МБт по-моему. В общем, здесь история такая, что Тьюринг почти угадал, потому что в 2012 году этот тест, который проводит университет Рединга, чат-бот Евгений Густман, который выдавал себя за мальчика из Одессы, смог обмануть судей почти в 30-ти процентах. В 2014 году в том же самом соревновании программа Соня Гусева смогла обмануть судей в 33-х процентах случаев. А в 2015 году в 47-ми процентах случаев.

Премия Лёбнера. Чат-боты соревнуются друг с другом, пытаясь обмануть судей

Вторым, помимо испытания в университете Рединга, стала знаменита премия Лёбнера – это премия, которая существует с 90-го года и ежегодно проводиться тесты, в которых чат-боты соревнуются друг с другом, пытаясь обмануть судей. Есть первый приз учрежденный – это 100 тысяч долларов, золотая медаль в 18 карат. Как только первая машина сможет в ходе испытаний премии Лёбнера обмануть судей, то создателям этой машины будет присуждена соответствующая премия и выдана соответствующая медаль, а само испытание будет прекращено. Но пока что те чат-боты, которые мы создаем на основе рекуррентных нейронных сетей и других современных технологий, легко разоблачаются экспертами, а не экспертами разоблачаются с трудом. Чем дальше, тем больше эта технология используется. Сейчас, если к вам кто-то стучится в друзья во «В контакте» или в «Фейсбуке» с большой вероятностью это будет бот и с большой вероятностью это будет бот, которого достаточно трудно будет отличить от человека сразу. По крайней мере, вам, скорее всего, будет лень, и вы его добавите в друзья, а потом он будет вас зазывать в какие-нибудь группы или вам что-нибудь продавать.

Тут интересно, что развитие чат-ботов идет семимильными шагами. Вот, в прошлом году было несколько забавных проектов, тоже связанных с чат-ботами с цельной инженерией. Например, один чат-бот ходил по аккаунтам в соцсетях и просил перевести их по несколько долларов ему, выпрашивал и клянчил и за 12 часов смог собрать больше 20 тысяч долларов. Второй бот был еще менее безобидным, он общался с девушками и просил послать интимные фотографии, тоже уговаривал и процент успеха был 3 процента. Т.е. 3% девушек, с которыми общался чат-бот в конечном счете уламывались и отправляли свои фотографии. Вроде бы процент маленький, но за счет того, что чат-бот обладает большой производительностью, можно за короткое время собрать много фотографий.

На самом деле не все специалисты согласны с тем, что процедура, предложенная Тьюрингом на самом деле, на самом деле ее корректно и правильно применяют для определения наличия или отсутствия у машины интеллекта. Самое знаменитое возражение на процедуру, предложенную Тьюрингом, это знаменитая китайская комната Джона Серла, который предложил следующий мысленный эксперимент. Представим себе комнату, в которой сидит человек, который не знает китайского языка. Но у него есть специальная такая толстая-толстая большая книга с исчерпывающим набором правил, в соответствии с которыми он знает, что получив на входе вот такую-то последовательность китайских иероглифов – он должен на выход передать какую-то другую последовательность китайских иероглифов. И все, что он делает, получив надпись на китайском языке – он сверяется со своей большой книгой правил, находит в ней те иероглифы, которые ему пришли на вход, выбирает набор иероглифов, которые он должен выдать на выход, записывает эти иероглифы и выдает на выход табличку с надписью. И вот, любой внешний наблюдатель, который не может заглянуть внутрь вот этой комнаты, видит только щель, через которую передаются записки с китайскими иероглифами. Для любого стороннего наблюдателя, руководствующегося процедурой Тьюринга, будет, вроде бы, понятно, что внутри комнаты находится человек, который понимает китайский язык, т.е. обладает пониманием, интеллектом. Но, дело в том, что человек, который находится внутри комнаты, не обладает пониманием китайского языка по определению. Таким образом, получается, что в данном конкретном случае нам процедура, предложенная Тьюрингом, не позволяет сделать достаточно уверенный вывод о том, что данная система обладает, в действительности, пониманием. И, на самом деле на этот мысленный эксперимент, который предлагается Сёрлом, существует три самых популярных возражения.

Первое возражение – это так называемый аргумент систем.

Сторонники этого аргумента, к которым отношусь и я, отвечают на эту мысленную конструкцию следующим образом: если мы и можем говорить о том, что человек, который находится внутри комнаты, не обладает пониманием китайского языка, мы должны признать за всей системой, состоящей из этого человека и набора правил, наличия понимания китайского языка. Если действительно этот набор правил столь совершенен, что позволяет на любой вопрос получить внятный, вменяемый ответ. Т.е. человек не понимает китайского языка, но система, составленная из человека и вот такого вот волшебного набора правил, в действительности, мы должны признать за ней наличие понимания китайского языка.

Серл про это возражение знал, он спорил с ним таким образом: говорил что, где в этой системе непосредственно присутствует понимание? Ясно, что нельзя признать наличие понимания за человеком и нельзя признать наличие понимания за набором правил, т.е. каждый компонент по отдельности не обладает пониманием в силу того, что у книжки нет интеллекта, у человека нет знаний. На самом деле это возражение, все-таки, достаточно слабое. Если мы возьмем человеческий мозг и попробуем в нем найти, разъять его на компоненты и понять, в каком именно из компонентов присутствует интеллект, я думаю, что мы потерпим ровно такое же фиаско. Потому что вряд ли можно сказать, что каждый отдельный нейрон человеческого мозга обладает интеллектом, но тем не мене совершенно очевидно, что человек в целом со своим мозгом этим самым интеллектом обладает.

Второй аргумент – это аргумент других умов.

Он основан на том, что если мы в случае эксперимента с китайской комнатой не можем признать наличие интеллекта у этой системы, то на каком основании мы вообще считаем, что у других людей есть интеллект? Потому что мы с другими людьми тоже взаимодействуем исключительно на практике. Мы взаимодействуем с ними в ходе диалогов, в ходе непосредственных взаимодействий и никаких других оснований для того чтобы считать, что у других людей, кроме нас существует интеллект, у нас нет. Получается, что если мы отказываем процедуре, предложенной Тьюрингом валидности, мы должны таким образом признать, что мы не в состоянии распознать наличие интеллекта у других людей.

Третий аргумент – аргумент о картезианстве.

О том, что Джон Роджерс Сёрл говорит: мои критики, они пытаются отделить сознание, отделить интеллект от своего материального носителя, т.е. сказать, что интеллект может существовать каким-то образом не связанный со своим непосредственным воплощением. Серл говорит: вы же прекрасно понимаете, что бутерброды с ветчиной отличаются от их формального описания. Т.е. любой человек, здравомыслящий и достаточно голодный, он всегда предпочтет настоящий бутерброд с ветчиной любому описанию бутерброда с ветчиной, пусть даже и очень аппетитному.

В данном случае проблема заключается в том, что если посмотреть на какой-то другой процесс, например на пищеварение, нам становится совершенно понятно, что описание процесса пищеварения совершенно отличается от самого процесса пищеварения. Ясно, что процесс пищеварения на входе получает бутерброды с ветчиной, а на выходе получает определенный набор аминокислот, компонентов, на которые пищеварение расщепляет вот эти самые бутерброды с ветчиной. Формальное же описание получает на вход описание бутербродов с ветчиной, на выход получает описание полученных аминокислот и т.д. В случае с экспериментом Тьюринга, на самом деле, мы на входе имеем материальный носитель, на котором записано сообщение и на выходе мы тоже получаем материальный носитель, на котором записано сообщение. И вот в этом смысле, электронная модель интеллекта, она от интеллекта в данном, конкретном случае не отличается ничем. И вот эта аналогия с бутербродами с ветчиной, она в силу этого некорректна. Именно потому, что здесь происходит подмена процесса его описанием.

Источник: Сергей Марков об ИИ.