bannerbanner
Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта
Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта

Полная версия

Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта

Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
2 из 5

Научный авторитет Тьюринга был и остается настолько высок, что на протяжении тридцати лет оспаривать статус теста не решался никто. Первым посягнувшим оказался профессор Калифорнийского университета в Беркли Джон Серл (John Searle, 1932), автор статьи «Сознание, мозг и программы» (Minds, Brains, and Programs, 1980). В ней он описал свой мысленный эксперимент Китайская комната, посредством которого показал возможность имитации разумного поведения, без наличия какого-либо интеллекта. Сначала труд Серла приняли в штыки, но после 2000 года на тест посыпался град критики.

Начало критике положил Дуглас Ленат (Douglas Lenat, 1950), создатель самой мощной и единственной существующей на данный момент экспертной системы Cyc, он назвал тест Тьюрига идиомой red herring, что буквально значит «копченая селедка». (Происхождение идиомы таково – эту пахучую селедку охотники использовали как отвлекающее средство при натаскивании бассет-хаундов, приучая собаку бежать по следу, не отвлекаясь на посторонний запах.)

Один из самых известных диджерати (слово digerati образовано сочетанием понятного digital и literati, так называют представителей литературной элиты) и автор термина виртуальная реальность Джарон Ларнье (Jaron Lanier, 1960) написал в New York Times: «Предположение Тьюринга, что прошедший тест компьютер обретает ум и становится человекоподобным, столь же нелепо как утверждение, что работающий на компьютере человек становится тупее и более похожим на него».

И даже сам Марвин Минский заявил в 2003 году, что, развиваясь по пути указанному Тьюрингом, AI дошел до состояния мозговой смерти, он использовал термин brain-dead.

Ярость, с которой новоявленные критики набросились на тест Тьюринга невольно вызывает в памяти строки Константина Бальмонта: «Тише, тише совлекайте с древних идолов одежды, слишком долго вы молились, не забудьте прошлый свет…». Те, кто только что молились на Тьюринга, и Минский в первую очередь, стали его ниспровергателями. Почему? Да потому, что они с выгодой для себя свели все его наследие Тьюринга в области AI к одной статье, а исчерпав ее потенциал, решили от нее избавиться.

Статья «Вычислительные машины и разум»

Прежде, чем перейти к более значимому труду, где Тьюринг действительно указал путь в будущее AI, зададимся вопросом: «Если тест оказался заблуждением, то как же в таком случае следует относиться к «Вычислительным машинам и разуму», где он изложен? При глубоком погружении в статью складывается непреодолимое ощущение, что перед нами образец джентельменского розыгрыша высокого класса, на который купились очень многие. Если читать статью в оригинале, то нельзя не заметить присутствие в ней британского юмора, не удается отделаться от впечатления о сознательной мистификации. Тьюринг провоцирует читателя, когда начинает с прямого вопроса: «Могут ли машины думать?», подцепив его таким образом на крючок, он в том же абзаце ловко заменяет этот вопрос на другой: «Может ли машина совершать действия, неотличимые от обдуманных действий?». Совершив эту очевидную подмену понятий, он нисколько не утруждает себя необходимостью доказывать тождество двух разных способностей – мыслить и имитировать мышление. Вот она, предпосылка к появлению систем, проходящих тест в конкурсе Loebner Prize и им подобных, которые могут лишь имитировать мышление, но никак не мыслить, поэтому-то они и не имеют никакого значения для развития AI. Странно, как же удавалось десятилетиями не замечать сознательной «мины» – намеренного отождествления двух совершенно разных способностей? Не признав статью розыгрышем, невозможно понять как такой трезвомыслящий человек как Тьюринг мог предложить столь поверхностный тест, основанный не на чем-то ином как на «Игре в имитацию».

Возникает естественный вопрос: «А не является ли сама статья игрой в имитацию?» В рассуждениях об имитации мышления он был не первым, еще Дени Дидро (Denis Diderot, 1713–1784) в «Философских мыслях» (1746) не без иронии написал: «Если мне покажут попугая, способного ответить на любой вопрос, то я без сомнения признаю его разумным существом». Что же до «Игры в имитацию», то была популярна в начале XIX века, в период Первой промышленной революции, которая породила не только новую моду, например на шляпы-цилиндры, форма которых адресует нас к паровой машине, но и тягу британских аристократов к науке и к разного рода интеллектуальным салонным развлечениям. По правилам этой игры две команды, разделенные ширмой, пытаются узнать что-то одна у другой друга посредством обмена записками.

Не только слово имитация, но и метод доказательства вызывают убеждение в том, что перед нами ни что иное как гениальная мистификация, здесь нарушена принятая в науке каноническая последовательность: от гипотезы к постановке задачи, а далее к доказательству. Вместо нее Тьюринг произвольным образом выбирает девять вольно подверстанных утверждений, из которых якобы следует, что создание думающей машины невозможно, а далее успешно опровергает их. И это доказательство? Наиболее серьезный из опровергаемых аргументов Тьюринг заимствовал у Ады Лавлейс, он изложен в записке, адресованной тем, кто пытались найти признаки разума в механической Аналитической машине Чарльза Беббиджа. Более детально о мыслях Ады Лавлейс относительно разумности Аналитической машины будет написано в Главе 3.

Трудно представить, чтобы Тьюринг не понимал слабости предложенной им модели рассуждений о думающей машине, конечно же, это была шутка. Однако приверженцы Сильного AI в нужный им момент превратили шутку в свой катехизис, можно удивляться тому, что философское сообщество тоже попалось на наживку и началась бесконечная схоластическая полемика о возможности или невозможности создания AI, превосходящего разум человека.

«Умная машинерия» и два подходах к AI

Преувеличенное внимание к «Вычислительным машинам и разуму» оставило в тени другую, куда более значимую для AI работу – отчет «Умная машинерия» (Intelligent Machinery, IM), написанный Тьюрингом раньше, в 1948 году. Тьюринг использовал названии не machine, переводимое как машина, а machinery, этому слову точнее соответствует устаревшее в русском машинерия, трактуемое в словарях как совокупность машин, механизмов, технического оборудования. Таким образом он не связывает себя с определенным типом машины. Научное достоинство этой работы подтверждается тем, что в роли ее заказчика выступила Национальная физическая лаборатория (NPL), где создавались не только первые британские компьютеры, но и атомная бомба. В этом труде нет никаких поводов, дающих апологетам Сильного AI пищу для праздномыслия. Сорок с лишним лет IM оставался внутренним документом NPL, роковым в его судьбе оказалось пристрастие к секретности англичан, они же, например, более полувека хранили в тайне проект Ultra и потерявший актуальность компьютер Colossus. Случись публикация IM раньше, эта работа наверняка заняла бы более высокое место в научном наследии Тьюринга, чем «Вычислительные машины и разум», а главное оказала бы позитивное влияние на развитие AI.

В IM Тьюринг гениально предсказал возможные направления в развитии AI, здесь он не занимается мыслительным эквилибристикой или вербальными доказательствами способности машины мыслить, напротив, он предельно строг и рационален. Заметим, что Тьюринг не ограничивает технические средства для IM компьютером, хотя уже тогда было хорошо известно, что такое цифровые компьютеры, над созданием которых он работал, начиная с 1944 года. Первым был Colossus, хотя и цифровой, но еще электронно-механический специализированный компьютер, предназначенный только для дешифровки немецких радиограмм. Алгоритмы, разработанные для него Тьюрингом, основывались на Байесовской теории вероятностей, возможно, это был первый случай практического применения этой теории. Сразу же после окончания войны Тьюринг выполнил для той же NPL эскизный проект «Предложение по электронному калькулятору» (Proposed Electronic Calculator), который был использован при построении английского компьютера-прототипа ACE (Automatic Computing Engine). Поученный в процессе разработки опыт пригодился английским ученым и инженерам в 1947 году при создании первого в мире цифрового программируемого компьютера EDSAC (Electronic Delay Storage Automatic Calculator).

В IM Тьюринг поражает своей прозорливостью: он обосновал возможность существования двух альтернативных подходов к созданию AI, и, как показало будущее, эта дихотомия оказалась верной на 100 %. Один из возможных подходов он назвал подходом «сверху вниз» (top down), его суть в прямом переносе человеческих знаний в машину, позже этот подход за способ передачи был назван символьным. Начиная с 1956 года символьный подход доминировал, он развивался с переменным успехом, пока не достиг предела своего совершенства в экспертных системах и инженерии знаний, но в конечном счете он оказался тупиковым.

Второй подход Тьюринг назвал «снизу вверх» (bottom up), он строится на качественно ином предположении, не имеющем столь древних философских корней. Реальные предпосылки к такому подходу впервые возникли у нейрофизиологов в 30-е годы прошлого века, их работы подтолкнули к мысли о машине, представляющей собой искусственно созданную нейронную сеть (Artificial Neural Network, ANN).

Деление возможных подходов к AI на два – на top down и на bottom up оказалось воистину провидческим, как почти все, что сделал Тьюринг за свою короткую жизнь. Действительно AI в последующем развивался независимо по указанным им альтернативным направлениям. Детальнее о каждом из двух – символьном и коннекционизме, о том, как складывалась их история на протяжении восьми десятилетий, мы расскажем в этой книге. Здесь же можно ограничиться замечанием о том, что символьный подход был востребован в 60–90-е годы. Неудивительно, ведь он обещал невероятно быстрые результаты без особых научных вложений, казалось, что для создания AI достаточно написать соответствующие программы для уже существующих или проектируемых компьютеров. И напротив, развитие коннекционизма в силу целого ряда объективных и субъективных причин, прежде всего из-за отсутствия нужной теории и технологий моделирования ANN, было отложено на несколько десятилетий. Однако в XXI веке ситуация развернулась на 180 градусов, символьный подход ушел в забвение и восторжествовал коннекционизм. На данный момент практически все известные внедрения AI основываются исключительно на коннекционизме. Он стал фундаментом всей индустрии AI, созданной за последние 10 лет, а примеры сохранившихся систем на базе символьного подхода во всем мире можно пересчитать по пальцам.

В главе 4 будет описана история символьного подхода к AI, а в главе 5 коннекционистского.

Проблема души и тела (психофизиологическая проблема) и эффект AI

Остановимся на одной из причин, почему один из подходов оказался тупиковым, а у второго, во всяком случае так видится сейчас, перспективы ничем не ограничены. Создание работающих систем с AI связано с проблемой, схожей с той, которую немецкие психофизиологи обозначили в середине прошлого века, назвав ее Leib-Seele Problem или Psychophysisches Problem, в английский вошел перевод первого варианта Mind and BodyProblem, в русский же второго – Психофизиологическая проблема. Отношения между душой и телом играют центральную роль в современной медицине, психотерапии и психопатологии. Разумеется, с моделью мозга все гораздо проще, но принцип тот же, AI, как сознанию человека, нужна материальная оболочка, тело. В середине пятидесятых начались первые исследования в области символьного подхода к AI и тогда без каких-либо сомнений на роль тела назначили компьютеры, рассуждая следующим образом: мозг оперирует символами и компьютер оперирует символами, раз так, то почему бы и не вложить в него мыслительные способности (по Тьюрингу, сверху-вниз). Однако при этом не учли одной вещи, того, компьютер в том виде как он сегодня существует является программируемым устройством и инструментом для создания AI должно стать программирование. Программируемый мозг – нонсенс.

Нынешние компьютеры – прямые наследники тех, которые создавались в сороковые годы прошлого века с единственным желанием – автоматизировать трудоемкие процедуры расчетов и только, ничего иного от них и не ожидали. Но неожиданно оказалась, что путем перепрограммирования те же компьютеры можно использовать для решения множества иных задач.

Все существовавшие и существующие компьютеры строятся по одной из двух архитектур, созданных три четверти века назад. В подавляющем большинстве (99,9 %) по принстонской, которую не вполне справедливо называют фон-неймановской (ФНА). Неизмеримо меньшее число специализированных сигнальных процессоров созданы по альтернативной гарвардской архитектуре. Этими двумя архаичными на сегодняшний день решениями ограничено все разнообразие компьютерных архитектур. Их объединяет главное – программный принцип управления последовательным выполнением команд, в том и другим случае процессор отрабатывает записанную в память программу. В первом случае данные и программа хранятся в общей памяти, а во втором – раздельно. За семьдесят с лишним лет в ФНА внесены многочисленные усовершенствования, способствующие компенсации присущих ей врожденных недостатков – неспособности к распараллеливанию вычислений, ограничение пропускной способности канала процессор-память (проблема бутылочного горла) и других.

Программное управление известно с античных времен, о его использовании в автоматонах подробно рассказано в главе 3. На компьютеры его распространил Чарльз Беббидж, создав проект Аналитической машины, для этого он, с одной стороны, позаимствовал математические принципы разделения сложных расчетов на простые операции у Гаспара де Прони, а с другой, идею записи программы на перфокарты у Жозефа Жаккара, изобретателя ткацкой машины. Совмещение одного с другим позволило создать архитектуру Аналитической машины, предтечи ФНА. В компьютерах принципы программного управления Бэббиджа сохранились с небольшими модификациями, такими как условные и безусловные переходы и разного рода детали. В целом же нужно признать, что компьютер генетически непосредственно связан с простейшими автоматами. Это кажется весьма странным, но дистанция между Аналитической машиной Бэббиджа и ФНА не слишком велика.

Жизнь показала: рожденный считать – думать не может, попытки обнаружить хотя бы признаки интеллекта в программных системах, претендующих на эту способность, приводят к огорчающему выводу – любые потуги запрограммировать AI в конечном счете сводятся к построению систем, лишь обладающих внешними признаками AI. Очень похоже на известную максиму В. С. Черномырдина: «Хотели как лучше, а получилось как всегда». Этот печальный факт американский автор книг по истории и философии AI Памела МакКордак предложила называть «эффектом AI» (AI effect). Эффект AI обнаруживается во всех без какого-либо исключения программах, которые по замыслу авторов должны были бы демонстрировать наличие у них разума. При непредвзятом анализе в 100 % случаев обнаруживалось, что их поведение на самом деле псевдоразумно и имеет простое логическое объяснение. Как сказал один из виднейших специалистов в робототехнике Родни Брукс: «Магии AI нет, но есть обычные вычисления».

То же самое, но более образно, выражено в утверждении, известном как «теорема» Теслера: «AI – это то, что еще не было сделано» (AI is whatever hasn't been done yet.). Теоремой оно названо не вполне корректно, поскольку не содержит доказательства. Ее сформулировал Дуглас Хофштадтер, автор получившей известность книги «Гедель, Эшер, Бах: эта бесконечная гирлянда», за нее автор был удостоен в 1980 году Пулитцеровской премии в номинации «Нехудожественная литература». Хофштадтер представитель тех, кого называют AI-скептиками, он категорически отвергает возможность создания искусственного разума в форме сильного или тем более общего AI. Когда в 1996 году мир испытал шок, вызванный поражением Гарри Каспарова в поединке с суперкомпьютером компании IBM, он совершенно уверенно заявил: «Разумеется, победа Deep Blue стала поворотным моментом в истории AI, но она ни в малейшей степени не свидетельствует о наличии разума у компьютеров».

История появления самой «теоремы» такова. Ларри Теслер, именем которого она названа, известный специалист в области человеко-машинного интерфейса, работал в Xerox PARC, а позже в Apple, Amazon и в Yahoo!. Случилось так, что однажды в разговоре с Хофштадтером он поведал о наблюдаемом им феномене – если решение некоей задачи вначале может создать о себе иллюзию машинного мышления, то при детальном анализе того что внутри, оказалось – это обычные программы и никаких чудес и решение этой задачи считать примером «настоящего мышления». Наделить мыслительными способностями программируемый автомат невозможно, на этом споткнулись и великие Марвин Минский с Джоном Маккарти, и все-все-все, пошедшие по предложенному ими пути. Будучи писателем, Хофштадтер всего лишь придал этой мысли более лаконичную форму.

Как забытый было AI снова оказался в центре общественного внимания

Забегая вперед, скажем, что к началу XXI века, пережив два цикла подъема и падения символьного подхода, AI впал состояние близкое к анабиозу. Те немногие, кто сохранил веру в него, скрылись в своего рода академических окраинах, они трудились над тем, что представляло интерес для них самих и еще небольшого числа близких им единомышленников. На фоне нынешнего хайпа вокруг AI человеку, не знающему об этом мрачном периоде, трудно поверить, однако реальность была такова.

Неожиданный воскрешение AI, точнее выход из состояния многолетней летаргии случилось в интервале с 2007 по 2012 год. За этот короткий период сложились необходимые и достаточные условия для интеллектуального и технологического взрыва в ограниченной области Слабого AI (ANI). По динамике взлета, по приятию происходящего в разных слоях общества случившееся с AI можно сравнить разве с событиями, имевшими место в авиации в первом десятилетии XX века. Принято считать, что первый аппарат тяжелее воздуха «Флайер-1» построили братья Орвилл и Уилбур Райт, он взлетел 17 декабря 1903 года, а уже к концу десятилетия сотни страны-участники Первой мировой войны использовали авиацию в боевых действиях.

К создание летательных аппаратов тяжелее воздуха приложили руку не только братья Райт, оно стало возможным благодаря успехам в нескольких областях, прежде всего, в появлении легких двигателей внутреннего сгорания и в успехах в изучении основ аэродинамики крыла. Примерно то же самое можно сказать о современных достижениях в области ANI. Подчеркнем, только лишь ANI без каких-либо проекций в будущее на AGI и тем более на ASI. Нынешний взрыв ANI вызвала синергия трех факторов: первый – достижения в работе с большими данными, второй – успехи в области глубокого машинного обучения, и третий – адаптация для процессов обучения ускорителей на графических процессорах GPU.

В данном случае на роли братьев Райт жребий выбрал трех профессоров – Фей-Фей Ли, Джефри Хинтона и Эндрю Ына, каждый из них внес свою лепту в становление этих трех научно-технических направлений. Стоит сказать, что на их месте могли бы оказаться любые другие ученые, все это игра случая, существенно то, что сложились необходимые предпосылки, а кому что досталась не столь важно.

• Профессору Фей-Фей Ли из Стэнфордского университета принадлежит идея использования машинного обучения для извлечения полезной информации из больших объемов данных. В своих экспериментах она использовала базу данных аннотированных изображений ImageNet. Большинство коллег применяли для подобных задач традиционные модели и алгоритмы AI, но Фей-Фей Ли решила нарушить традицию и применить для отработки и распознавания образов мало востребованные к тому времени методы машинного обучения.

• Из всех существовавших методов машинного обучения наилучшие результаты показали методы глубокого обучения, разработанные группой математиков из Университета Торонто, возглавляемой профессором Джефри Хинтоном.

• Универсальные компьютеры оказались слишком медленны для решения задач обучения, выход нашел работавший в Стэнфорде профессор Эндрю Ын. Он предложил использовать графические процессоры GPU для моделирования ANN.

Так возникла технологическая триада, являющаяся базисом современного AI – большие данные, машинное обучение и GPU. Она является альтернативой двум компонентами действующей компьютерной парадигмы, состоящей из программирования и фон-неймановских компьютеров (CPU). Обучение на больших данных заменяет программирование, что же касается GPU, то сегодняшний день кластеры из эти процессоров, ядра которых остаются фон-неймановскими, позволяют создать обучаемую, а не программируемую инфраструктуру. Этот путь создания тела для AI далеко не совершенен, но действующей альтернативы нет, ведутся активные исследования и разработки иных нежели GPU процессоров, но они пока на уровне экспериментов.

Нынешнюю волну AI нередко называют третьей, это так, но надо отдавать себе отчет, что это лишь порядковый номер, ни теоретически, ни технологически эта волна никак не связана с предшествующими. Представленная выше группа весьма харизматичных ученых оказалась в центре внимания масс-медиа, однако необходимые и достаточные условия для возникновения этой волны ANI были созданы более широким научным сообществом.

Новые скептики

Подъем интереса к AI немедленно вызвал обратную волну, с критикой выступили люди, далекие от понимания сути происходящего. Неизгладимое впечатление на общественность произвел ныне покойный британский физик и космолог Стивен Хокинг, заявивший в 2017 году: «Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он несет». Хокинг выразил опасения относительно того, что новейшие технологии могут привести к деградации человека, сделав его беспомощным перед лицом природы, что в условиях естественной эволюции и борьбы за выживание означает верную гибель.

Среди тех, кто добросовестно заблуждается и выступают в прессе, не имея серьезного представления об AI, есть и вполне достойные люди, например, великий дипломат Генри Киссинджер. Его статья с эпохальным на первый взгляд названием «Конец Эпоха просвещения» (How the Enlightenment Ends) опубликована не где-нибудь, а в журнале The Atlantic.

Квинтэссенция позиции Киссинджера такова: «Просвещение началось с философских размышлений, которые распространялись с помощью новой технологии. Мы движемся по противоположному пути. Разработана потенциально доминирующая технология AI, которая нуждается в направляющей философии. Но разработкой таковой никто даже не занимается». Статья завершается выводом: «Создатели AI, некомпетентны в политике и философии, точно так же, как я в сфере технологий, поэтому они должны задаться вопросами, которые я поднял в этой статье, чтобы встроить ответы в свои инженерные разработки. Правительству США стоит подумать о создании президентской комиссии из признанных экспертов-мыслителей, которые помогут разработать национальный подход. Очевидно одно: если мы не начнем эту работу в ближайшее время, очень скоро мы поймем, что уже опоздали».

Однако это контрволна незаметно стихла, не успев как следует подняться, в 2018–20 годах поток «провидческих» выступлений заметно ослаб. В средствах массовой информации и в социальных сетях, где все чаще звучит призыв к трезвому отношению к AI под лозунгом демистификации AI (Demystification AI). В эти годы активно развивался AI-бизнес, связанный с производством средств автоматизации в самых разных сферах.

Особености третьей волны

В чем новизна очередной волны AI, что делает ее отличной от предшествующих, и не ждет ли ее такая же печальная судьба? Для этого сравним их исходные позиции. Напомним, авторы первых двух волн шли по пути, названному Тьюрингом «сверху-вниз» в сочетании с действующей по сей день двухзвенной компьютерной парадигмой, стоящей на двух китах: универсальное аппаратное обеспечение и программное обеспечение, служащее для решении конкретной задачи. В рамках этой парадигмы решение любой задачи, какой бы сложной она ни была, сводится написанию программы для компьютера, главное, чтобы он обладал необходимой производительностью. При этом упускались из виду ограничения этой парадигмы – программируемый компьютер по природе своей не может делать ничего помимо того, что в него вложил человек. Следовательно, нет такого момента, где бы он проявить свой собственный тот самый искусственный интеллект и породить что-то «от себя». Он действует строго по программе, даже при выполнении таких, казалось бы, сложных действий, как доказательство теорем, написание музыки или игра в шахматы.

Качественное отличие третьей волны от первых двух в том, что она реализует схему «снизу-вверх» по Тьюрингу, в ее основе лежит коннекционистский подход, альтернативный символьному. В отличие от процессора нейронная сеть не может быть запрограммирована, но ее можно «обучить» тем или иным образом, после чего она способна моделировать простейшие процессы, происходящие в мозге. На данный момент многообразие методов обучения, сводится к предъявлению нейронной сети большого объема данных с тем, чтобы она смогла настроиться на них и находить решения. По большей части все, что называют AI-приложениями третьей волны ограничено компьютерным зрением (Computer Vision, CV) и обработкой текста на естественном (Natural Language Processing). В отличие от первых двух волн эти приложения относятся не просто к просто узкому или слабому AI (Narrow, Weak AI), а являются сугубо специализированным AI-решениями, которые называют AI, скорее, как дань традиции.

На страницу:
2 из 5