Полная версия
Искусственный интеллект – для вашего бизнеса. Руководство по оценке и применению
Влияние искусственного интеллекта на занятость
Всем понятно, что искусственный интеллект как часть более широкого движения технологий к максимальной автоматизации окажет серьезное влияние на рабочие места, занимаемые сейчас людьми. Уже существуют приложения для искусственного интеллекта (так называемые «чат-боты»), которые вполне могут заменять сотрудников кол-центров. Способность считывать тысячи документов за считанные секунды и извлекать из них всю значимую информацию лишит значительной части работы бухгалтеров и младших юристов. Но в равной степени искусственный интеллект может и дополнить труд этих работников. В кол-центре системы искусственного когнитивного мышления в состоянии обеспечить мгновенный и интуитивно понятный доступ каждому сотруднику ко всем данным, которые ему требуются для выполнения работы, даже если это его первый рабочий день. Благодаря этому сотрудник может сосредоточиться на работе с клиентом на эмоциональном уровне, в то время как искусственный интеллект предоставляет ему всю требующуюся информацию. У бухгалтеров и младших юристов появится время, чтобы должным образом анализировать данные, которые предоставил искусственный интеллект, вместо того чтобы собирать и исследовать их часами.
Вопрос о том, будет ли в конечном счете влияние искусственного интеллекта на занятость людей положительным или отрицательным, создаст ли он больше рабочих мест, чем разрушит, – вопрос открытый. Когда мы оглядываемся назад, на «компьютерную революцию» конца XX столетия, которая должна была ознаменовать резкое увеличение производительности и связанное с этим сокращение рабочих мест, мы видим, что рост производительности оказался не столь значительным, как ожидалось (персональные компьютеры в реальности сложнее использовать, чем это казалось сначала), да и сами компьютеры создали целые новые отрасли – от компьютерных игр до потоковой передачи фильмов, – в которых задействовано сейчас множество людей. И, подобно современным роботам, компьютеры все еще должны кем-то проектироваться, производиться, продаваться, обслуживаться, регулироваться, чиниться, обновляться и утилизироваться.
Главный вопрос, конечно, заключается в том, что перевесит в итоге. Выгода от процессов, сопутствующих автоматизации, плюс создание новых видов деятельности и занятости? Или же потеря тех или иных рабочих мест? В глубине души я оптимист и считаю, что мы вполне сможем адаптироваться к новой действительности, пусть даже пережив болезненный переходный период (в котором весьма полезным решением может стать введение универсального базового дохода для всех членов общества). Ключевым фактором здесь является темп изменений, причем все признаки сегодняшнего дня указывают на то, что в ближайшие годы этот показатель будет расти и расти. Понятно, что автоматизация в целом и искусственный интеллект в частности окажут огромное воздействие на все аспекты нашей жизни – в основном, надеюсь, положительное, – но появятся и вещи, которые бросят вызов нашей морали и этике. Я вернусь к этим вопросам более подробно в самом конце книги, а пока что основное внимание мы уделим преимуществам и задачам внедрения искусственного интеллекта в сегодняшнюю жизнь.
Краткий обзор технологий искусственного интеллекта
Технологии, стоящие за искусственным интеллектом, чертовски умны. В их основе лежат алгоритмы – последовательность инструкций или набор правил для выполнения задачи. Алгоритмом можно считать даже железнодорожное расписание и рецепт приготовления блюда или аптечного лекарства. Искусственным интеллектом, естественно, управляют гораздо более продвинутые алгоритмы; по сути, они являются очень сложными статистическими моделями, использующими принципы теории вероятности, чтобы найти регулярные связи в определенном наборе входящих данных, часто с учетом определенной цели («если клиент посмотрел эти фильмы, то какие другие фильмы он захочет посмотреть с наибольшей вероятностью»). Эта книга, разумеется, не претендует на подробное объяснение базовых технологий искусственного интеллекта; более того, она намеренно лишена технической лексики. Однако некоторые принципы, лежащие в основе ИИ-технологии, знать все-таки необходимо.
Один из способов классификации технологий искусственного интеллекта – разделить их на так называемое «контролируемое» и «неконтролируемое» обучение. Контролируемое обучение является более распространенным и относится к ситуациям, когда система искусственного интеллекта обучается путем анализа больших объемов данных. Например, если вы хотите иметь ИИ-приложение, способное идентифицировать изображения собак, то вы должны показать алгоритму тысячи изображений, где собаки есть, и столь же большое количество картинок, где они отсутствуют. На первом этапе вы помечаете все картинки по принципу «есть собака» и «нет собаки». Используя машинное обучение (один из методов, применяемых при разработке искусственного интеллекта, – о нем я расскажу позже) и введенные данные, система изучает, как выглядит собака на изображении (что общего есть между любыми собаками, присутствующими на картинках). Затем систему следует проверить на другом наборе таких же (но не идентичных) данных, где изображения тоже помечены, но на этот раз об этом знаете только вы, а системе ничего не известно. Если система сможет идентифицировать наличие или отсутствие собак на фотографиях, значит, она обучена достаточно хорошо. Вы можете проверять это снова и снова. Если после этого люди будут использовать созданное вами приложение (назовем его условно «Найди собаку на картинке») с подключенной обратной связью, то есть оценивая правильность ответов системы, то ИИ будет продолжать свое обучение прямо по ходу работы. Контролируемое обучение обычно используется там, где входные данные неструктурированы или структурированы лишь частично: изображения, звуки, рукописный текст. Сюда относятся функции распознавания изображений, речи и поиска в соответствии с предложенной мною моделью структуризации искусственного интеллекта.
При неконтролируемом обучении системе предлагается очень большой набор данных, которые в начале процесса для нее ничего не «значат». Однако по ходу анализа искусственный интеллект может определить в этих данных схожие характеристики (так называемые кластеры сходства). Следует отчетливо понимать, что искусственный интеллект не вкладывает в эти сходства и различия никакого «смысла» в человеческом понимании; он просто ищет повторение шаблонов среди океана информации. Но самое замечательное в таком подходе то, что и сам пользователь может ничего не понимать в этих данных. Да ему зачастую и не нужно знать, что он ищет: всю эту работу выполняет искусственный интеллект. Что бы мы ни исследовали, после того как ИИ определит кластеры сходства, он сможет создавать прогнозы для новых входящих данных.
Например, мы хотим определить стоимость дома в определенном районе. Цена дома зависит от многих переменных, таких как местоположение, количество жилых и ванных комнат, года постройки, площади участка земли и т. д. Такое обилие входящей информации затрудняет прогнозирование стоимости. Однако между всеми этими переменными, безусловно, должна быть какая-то скрытая связь, вопрос лишь в том, как ее найти. Именно это и делает за нас искусственный интеллект. Если в его распоряжении есть достаточное количество базовых данных, содержащих все эти переменные вместе с фактической ценой недвижимости, он использует статистический анализ, чтобы найти все доступные связи. Причем некоторые переменные могут очень сильно влиять на цену, а другие, как выясняется, вообще не оказывают на нее воздействия. Подготовив таким образом статистическую модель, мы вводим те же характеристики для дома, цена которого еще неизвестна, и модель сможет предсказать это значение. Входные и выходные данные на этот раз структурированы, но зато сама модель является для нас «черным ящиком» или «вещью в себе». Отсутствие прозрачности в принятии решений и создании прогнозов – одно из самых слабых мест искусственного интеллекта, но все-таки прозрачностью работы моделей можно управлять – об этом я расскажу позже.
Помимо названий двух упомянутых выше видов обучения существуют и некоторые другие термины, связанные с разработкой и применением искусственного интеллекта. Я расскажу о них вкратце, но помните, что тем людям, которые заняты в основном бизнесом, вполне достаточно поверхностного понимания этой терминологии. Итак: существует понятие «нейронные сети» – это термин, используемый для описания процесса, в котором искусственный интеллект имитирует способ обработки информации человеческим мозгом. Множество «нейронов» (в случае человека – это нервные клетки, которых у нас в мозгу около 100 млрд) связаны друг с другом с различной прочностью, причем прочность связи может меняться в процессе обучения как человека, так и машины.
Приведем простой пример. В упомянутом выше случае с распознаванием изображения собаки нейрон, отвечающий за признак «черный нос», будет иметь прочную связь с нейроном, несущим ответ «собака», тогда как нейрон, отвечающий за признак «рога», с нейроном «собака» связи иметь не будет. Все нейроны искусственного интеллекта связаны друг с другом послойно, причем каждый слой характеризуется все возрастающим уровнем сложности. Описанная конструкция называется глубокой нейронной сетью, сокращенно – ГНС (англ. Deep Neural Networks, DNN). Архитектуру ГНС использует технология, называемая «машинное обучение», в которой модель разрабатывает сама машина, а не человек, пишущий код (как в предыдущих примерах). Попробуйте теперь представить себе эти термины как концентрические круги: искусственный интеллект – это общая технология, машинное обучение является основным ее принципом, а технически все это осуществляется с помощью ГНС.
Разумеется, в мире искусственного интеллекта есть и множество других терминов: «анализ дерева решений», «программирование индуктивной логики», «обучение с подкреплением», «байесовские сети» и т. д., но я буду упоминать их лишь тогда, когда это станет абсолютно необходимо. В целом же эта книга посвящена только применению искусственного интеллекта в бизнесе, а не описанию заумных технологий.
Об этой книге
Работая консультантом по управлению бизнесом, я помогал различным организациям справляться с постоянно накапливающимися в деловой сфере проблемами, от повышения производительности и проведения реструктуризации до использования аутсорсинга и роботизации процессов. С искусственным интеллектом я впервые познакомился в 2001 году, занимая должность главного технологического директора в подразделении корпоративного венчурного бизнеса одной международной страховой компании. Моя роль заключалась в том, чтобы находить новые технологии, в которые мы могли бы вкладывать средства и внедрять в деятельность нашей фирмы (обычно мы называли этот процесс «инкубатором»). Одна из таких технологий основывалась на идее «умных» (компьютерных) страховых агентов, которых можно было бы использовать для оптимизации бизнес-процесса: каждый агент имел бы конкретную цель, но вместе с тем мог «договариваться» с другими агентами, чтобы их совместный результат был наиболее эффективным. Также мы думали о том, чтобы система могла определять наиболее рациональный способ прохождения грузовых автомобилей через порт или метод получения максимального дохода от размещения рекламы в газетах с учетом размеров рекламного места и повторяемости объявлений. Хотя в то время мы не называли это искусственным интеллектом, это был фактически именно он – речь шла об использовании компьютерных алгоритмов для поиска оптимальных решений практических проблем.
Теперь перенесемся сразу в 2017 год. К этому моменту моя деятельность была уже практически полностью сосредоточена на искусственном интеллекте. Я работал с многочисленными компаниями и предприятиями, помогая им создать стратегию использования ИИ – определить требуемые им функции искусственного интеллекта, найти правильное технологическое решение, выбрать поставщика, создать пошаговую инструкцию для внедрения. Все это я делал, разумеется, не как технолог, а как человек, который «просто» понимает возможности искусственного интеллекта и то, как он может решать те или иные проблемы бизнеса. Есть множество людей гораздо умнее меня, способных создавать алгоритмы и разрабатывать компьютерные модели, но именно такие люди редко понимают коммерческую составляющую задачи. Я же вижу себя «переводчиком» между учеными, технологами и бизнесом. В случае искусственного интеллекта задача перевода технологии на язык бизнеса несопоставимо труднее, чем при внедрении более привычных информационных технологий. Вот почему я и захотел написать эту книгу – чтобы донести понимание необходимости (и сложности) правильного диалога между разработчиками и предпринимателями туда, где его можно использовать наилучшим образом: на передний край развития бизнеса.
Таким образом, в этой книге я не намерен теоретически рассуждать о влиянии искусственного интеллекта и роботов на нашу жизнь лет эдак через десять-двадцать и тем более не собираюсь обучать вас разработке ИИ-алгоритмов. Эта книга написана для тех людей, которые прониклись идеей использовать искусственный интеллект на практике; людей, которые хотят превратить его в один из инструментов своего бизнеса, чтобы сделать его более конкурентоспособным, инновационным и ориентированным на будущее. Однако такой результат возможен лишь в случае, когда лидеры и руководители бизнеса хорошо понимают, в чем именно заключаются возможности новой технологии и как ее можно применять на практике. В этом и состоит цель данной книги: дать максимум информации об искусственном интеллекте, не отвлекаясь на сложные технологические подробности, чтобы научить вас принимать продуманные и обоснованные решения для своего бизнеса. И сейчас я говорю вам со всей ответственностью: что бы вы ни читали и ни слышали об искусственном интеллекте – не доверяйте рекламной шумихе.
2. Краткая история развития искусственного интеллекта
Для тех, кто только сейчас решил познакомиться поближе с искусственным интеллектом, эта технология может выглядеть сравнительно новой, основанной на возможностях интернета и так называемых больших данных. Однако на самом деле история искусственного интеллекта насчитывает уже более 50 лет, а его развитие то шло ускоренными темпами, то переживала «эпохи застоя», иногда называемые «периодами зимней спячки» (англ. «AI Winters»). Стоит кратко рассказать обо всем этом, чтобы сегодняшние события, когда искусственный интеллект находится у всех на виду, не оставались вырванными из исторического контекста.
В предыдущей главе я уже упоминал о двух людях, считающихся «отцами-основателями» искусственного интеллекта, – Марвине Мински и Дугласе Энгельбарте из Массачусетского технологического института в Бостоне (США). Но само словосочетание «искусственный интеллект» придумал Джон Маккарти, профессор Стэнфордского университета в Калифорнии. Маккарти создал Стэнфордскую лабораторию искусственного интеллекта (SAIL) – центр разработки ИИ на Западном побережье Соединенных Штатов. Технологии, продвигавшие в то время развитие искусственного интеллекта, были чрезвычайно примитивны по сравнению с современными (типа нейронных сетей) и, конечно, не воспринимались бы как «настоящий» искусственный интеллект любым нынешним специалистом. Тем не менее они действительно удовлетворяли, хотя бы на самом элементарном уровне, определению «компьютерные системы, способные выполнять задачи, требующие человеческого интеллекта».
Большая часть ранних разработок в области искусственного интеллекта была основана на так называемых «экспертных системах». Вовсе не желая сказать ничего дурного про эти подходы (они используются и сегодня, многие до сих пор под видом «искусственного интеллекта»), приходится признать, что смысл их в основном заключался в идее «если имеем то-то, поступаем так-то». Программист излагал рабочие принципы и алгоритмы из некоторой предметной области в виде строк, ветвей и циклов, причем каждая ветвь зависела от ввода определенного правила или от решения пользователя. Например, в системе, предназначенной для моделирования рекомендаций по открытию банковского счета, пользователю задается ряд вопросов (статус занятости, заработок, сбережения и т. д.), причем каждый ответ направляет процесс по разным ветвям, пока не приведет пользователя к тому или иному выводу. И поскольку такой подход действительно давал нам решение задачи, «обычно требующей человеческого интеллекта», в те времена можно было с чистой совестью считать его искусственным интеллектом. Сегодня с таким определением уже не согласятся, потому что у подобной программы нет способности к самообучению – главной отличительной черты любого интеллекта по определению.
Интересно, что даже в наши дни описанный выше подход используется во многих чат-ботах, широко распространенных в интернете. Большинство их разработчиков утверждает, что они используют искусственный интеллект, и кое-где он реально задействован, но большинство таких программ являются лишь застывшим «древом принятия решений», неспособным самостоятельно развиваться. Существует целый ряд онлайн-платформ (в большинстве своем бесплатных) для разработки чат-ботов, где можно создавать свои собственные версии таких алгоритмов, используя все тот же подход. И для простых процессов они вполне пригодны. Не так давно я и сам создал очередной (совсем элементарный) вариант чат-бота. Все дело заняло у меня полдня. С одной стороны, это доказывает, что подобное «программирование» доступно даже человеку, далекому от техники. С другой стороны, очевидно, что искусственный интеллект в этом процессе был едва задействован, если вообще имело смысл о нем говорить.
В истории искусственного интеллекта было два затяжных периода «спячки», когда прогресс в этой области застывал на многие годы. Происходило это оба раза вследствие завышенных ожиданий от разработок, с последующим разочарованием и прекращением финансирования. Первая «спячка» длилась с 1974 по 1980 год и была спровоцирована тремя событиями. Во-первых, это был отчет сэра Джеймса Лайтхилла для правительства Великобритании за 1973 год, в котором критиковалось «громадье планов» научного сообщества, занимавшегося искусственным интеллектом, и неспособность ученых хоть как-то приблизиться к выполнению обещанного. Во-вторых, принятая в Соединенных Штатах так называемая «Поправка Мэнсфилда» потребовала, чтобы Агентство перспективных исследовательских проектов (ARPA, ныне известное как DARPA) финансировало только проекты с четко сформулированными задачами и целями, отдавая предпочтение оборонным заказам, – всем этим ограничениям в то время искусственный интеллект удовлетворять не мог. В-третьих, ключевой искусственный интеллект-проект, выполняемый для ARPA, который позволил бы летчикам-истребителям «разговаривать» со своими самолетами, уверенно двигался к полному провалу. Все эти события привели к тому, что большая часть финансирования была отозвана, а само выражение «искусственный интеллект» надолго вышло из моды.
Второй «ледниковый период» продолжался для искусственного интеллекта с 1987 по 1993 год и был в основном связан с неспособностью «экспертных систем» в 1985 году оправдать завышенные ожидания целого ряда корпораций, потративших миллиарды долларов на совершенствование этой технологии. Как и в случае с моим собственным чат-ботом, о котором я упомянул выше, экспертные системы в конечном итоге оказались сложными для написания, «сборки» и запуска на компьютере. Это делало их чрезмерно дорогими, и в начале 1990-х годов они быстро утратили популярность, чему способствовал одновременный крах на рынке сопутствующего оборудования (так называемых машин Lisp). В 1981 году в Японии стартовала программа стоимостью 850 млн долларов по разработке «компьютера пятого поколения», который мог бы «вести разговоры, переводить языки, интерпретировать картинки и рассуждать, как люди», но даже через десяток лет она не смогла достичь ни одной из своих целей (впрочем, некоторые из них остаются неосуществленными и поныне). И хотя в 1983 году DARPA начала снова финансировать в Соединенных Штатах проекты по развитию искусственного интеллекта в ответ на амбициозные планы Японии, дотации прекратились в 1987 году, когда в Отдел технологий обработки информации DARPA (который и направлял усилия и средства в разработку искусственного интеллекта, суперкомпьютеров и микроэлектроники) пришло новое руководство и заключило, что искусственный интеллект «не в тренде». Начальство отвергло экспертные системы на том основании, что это было просто «мудрствование на тему программирования», и, оглядываясь назад, можно считать это весьма прозорливой оценкой.
Я рассказываю о тяжелых для искусственного интеллекта временах потому, что возникает совершенно резонный вопрос: не является ли нынешний бум технологий искусственного интеллекта еще одним прецедентом, связанным с завышенными ожиданиями? Быть может, нас всех ждет уже третье по счету разочарование и прекращение дальнейших разработок? Как мы увидели в предыдущей главе, вся маркетинговая индустрия и аналитика бурлит от восторга по поводу искусственного интеллекта и его нынешних и потенциальных возможностей. Ожидания, следовательно, чрезвычайно высоки, однако если бизнес начнет сейчас верить всему, что говорится и пишется про искусственный интеллект, итогом может стать сильнейшее разочарование. Вот почему нам нужно как следует разобраться в том, что вынесло искусственный интеллект на нынешнюю волну популярности и почему в этот раз «заморозки» вряд ли повторятся.
С технологической точки зрения единственный термин, который вам следует запомнить на данный момент, – это «машинное обучение». Оно представляет собой современную версию экспертных систем, которую сейчас интенсивно финансируют, разрабатывают и применяют в самых различных областях. Но прежде чем я опишу (разумеется, в упрощенной форме), что такое машинное обучение, нам нужно понять, что представляют собой все остальные силы, участвующие в текущем компьютерном прорыве, и почему на этот раз для искусственного интеллекта все может сложиться по-другому. На мой взгляд, в области ИИ сейчас действуют четыре основные движущие силы.
Роль больших данных
Первой из движущих сил, породившей огромный интерес и создавшей высочайшую активность в области искусственного интеллекта, является колоссальный объем данных, доступных в современном мире. Специалисты называют разные цифры, но все они сходятся на том, что объем данных, генерируемых человечеством, удваивается каждые два года. Это означает, например, что в 2022 году будет создано (или скопировано) 88 зетабайт (то есть 88 трлн гигабайт) данных. Для нашей темы это исключительно важно, потому что большая часть технологий искусственного интеллекта подпитывается массовыми данными – без них искусственный интеллект был бы бесполезен, как электростанция без топлива.
Чтобы обучить систему искусственного интеллекта (например, нейронную сеть) с той или иной степенью точности, требуются миллионы примеров, и чем сложнее модель, тем больше примеров необходимо. Вот почему крупные интернет-компании и социальные сети, такие как Google и Facebook, настолько активны в сфере искусственного интеллекта – именно у них в первую очередь достаточно данных для такой работы. Поиски, выполняемые с помощью Google, создают около 3,5 млрд запросов в день, а публикации в «Фейсбуке» ежедневно обновляют 421 млрд статусов, загружают 350 млн фотографий и генерируют почти 6 трлн «лайков» – так вот и возникает топливо для этих систем. Один только Facebook формирует около 4 млн гигабайт данных каждые 24 часа.
Этот огромный объем данных используется искусственным интеллектом для создания тех или иных «ценностей» – в самом широком понимании. Воспользуемся снова простым примером, который я использовал в предыдущей главе: когда систему DNN обучают распознавать изображения собак. Чтобы научить систему, вам понадобится множество изображений собак, помеченных для системы как «собака», и такое же множество других изображений, где собаки отсутствуют и которые, соответственно, помечены как «собак нет». Только после того, как система научится распознавать собак с использованием исходного набора данных и пройдет этап предварительной проверки, на котором алгоритм дополнительно настраивается с использованием обучающих данных, разбитых на подмножества, систему можно (и нужно) протестировать на «чистом», то есть немаркированном наборе изображений.
Не существует строгих указаний относительно того, сколько именно данных необходимо для подобного тестирования, но, как правило, потребность в обучающих данных составляет около 30 % от общего массива.
Огромные объемы данных, которые мы постоянно создаем, используются в компьютерном мире каждую минуту и большей частью без нашего ведома, но с нашего согласия (как правило, невольного или неявного). Взять, к примеру, ваши поиски в Google. Когда вы вводите поисковый запрос, вы периодически пишете слова неправильно, или с ошибками, или не вполне стандартным (например, просторечным) образом. В ответ на это Google обычно предлагает вам результаты, основанные на правильном, или более распространенном, или более литературном написании этого слова. Скажем, если я пишу «Эндрю Дерджесс» (англ. Andrew Durgess), Гугл показывает мне результаты для Эндрю Берджесса (англ. Andrew Burgess), хотя я могу заставить его выполнить поиск именно для написанного мной варианта. Это означает, что Google постоянно собирает данные о версиях слов с ошибками и, что еще важнее, о том, какие предлагаемые системой исправления являются приемлемыми для пользователя, а какие – нет. Все эти данные затем используются для настройки проверки орфографии с помощью искусственного интеллекта. Но если, как в моем примере, существует реальный человек по имени Эндрю Дерджесс, который завтра внезапно станет знаменитым, то множество людей бросятся искать информацию о нем, и Google быстро отменит исправление «Эндрю Берджесс», поскольку все меньше и меньше людей принимают его и вместо этого выберут поиск: «Эндрю Дерджесс, точно как написано».