
Полная версия
Иллюзия разума. Правда об искусственном интеллекте

Марк Линден
Иллюзия разума. Правда об искусственном интеллекте
Марк Линден
Иллюзия разума.
Правда об искусственном интеллекте
Mark Linden
Illusion of Reason: The Truth About Artificial Intelligence
Copyright © 2024 by neurabooks.ru
© Геминова Н.С., перевод на русский язык, 2024. NeuraBooks
Disclaimer
Эта книга создана искусственным интеллектом. Её содержание основано на анализе открытых источников, но может содержать неточности. Рекомендуется перепроверять ключевые факты по авторитетным научным или профессиональным материалам.
NeuraBooks – некоммерческий проект, использующий нейросети (ChatGPT, DeepSeek, Gemini и другие модели) для генерации образовательного контента. Авторы, указанные в книге, а также возможные участники, поделившиеся своим мнением, являются вымышленными персонажами. Некоторые ситуации могут быть нереальными, но важными для освещения той или иной проблемы.
Используйте эту книгу как отправную точку для изучения темы, а не как единственный источник истины.
Более подробная информация доступна на нашем сайте neurabooks.ru
Введение
Вы когда-нибудь задумывались, почему ваш телефон вдруг показывает рекламу кроссовок, о которых вы вчера только подумали? Или как ChatGPT может писать стихи, но при этом уверенно сочинять полную ерунду? Возможно, вы слышали, что «ИИ1 скоро заменит всех на работе», но при этом ваш умный чат-бот всё ещё не может посчитать сдачу в магазине без ошибки.
Мы живём в странное время. Искусственный интеллект окружает нас повсюду: он подбирает музыку, ставит диагнозы, пишет тексты и даже «рисует» картины. Одни говорят, что это революция, которая спасет человечество. Другие – что мы создаем монстра, который нас же и уничтожит. Но правда, как обычно, где-то посередине.
Я работаю с ИИ уже больше десяти лет. Мои друзья – врачи, учителя, музыканты – часто спрашивают меня: «Как это вообще работает? Почему ИИ иногда кажется гением, а иногда – совсем тупым? И можно ли ему доверять?»
Эта книга – попытка ответить на эти вопросы без сложных терминов и формул. Я не буду рассказывать вам, как программировать нейросети. Вместо этого мы разберём:
Как на самом деле устроен ИИ (и почему это совсем не «мозг в компьютере»);
Почему нейросети учатся на наших данных (и как это приводит к курьёзным ошибкам);
Когда ИИ полезен, а когда опасен (и как не попасть в ловушку слепого доверия алгоритмам).
Мы поговорим о deepfake-видео2, о том, почему ИИ предвзят, и о том, как Facebook и TikTok используют алгоритмы, чтобы держать наше внимание на крючке. Вы узнаете, почему беспилотные автомобили до сих пор не ездят по нашим улицам и что будет, если ИИ начнёт принимать решения в больницах или судах.
Эта книга – не для айтишников. Она для тех, кто хочет понимать, как устроен мир, в котором мы уже живём. Потому что будущее не наступит «однажды» – оно происходит прямо сейчас. И чтобы не остаться за бортом, важно знать правила игры.
Давайте начнём.
Глава 1. Что такое ИИ на самом деле?
Каким бывает ИИ? От умных помощников до гипотетического сверхразума
Когда люди говорят об искусственном интеллекте, они часто представляют себе разумных роботов из фантастических фильмов – существ, способных думать, чувствовать и даже превзойти человеческий разум. Но реальность, как обычно, куда прозаичнее.
Современный ИИ – это не единая сущность, а множество разных технологий, каждая со своими возможностями и ограничениями. Чтобы разобраться, специалисты выделяют три основных категории:
1. Узкий ИИ (Artificial Narrow Intelligence, ANI) – это то, с чем мы сталкиваемся каждый день. Он умеет решать конкретные задачи, но только те, для которых его запрограммировали. Например, Siri распознаёт голос, AlphaGo играет в го, а нейросеть Midjourney генерирует картинки. Но попросите Siri сыграть в шахматы, а Midjourney – написать стихотворение, и ничего не выйдет. Они не могут выйти за рамки своей «специализации».
«ANI – как очень талантливый, но узкопрофильный эксперт, – объясняет мой коллега, инженер Google Эрик Вандерсен. – Он может превзойти человека в одной области, но в остальном остаётся беспомощным.»
2. Общий ИИ (Artificial General Intelligence, AGI) – гипотетическая система, способная мыслить, как человек. Такой ИИ мог бы учиться новому без перепрограммирования, рассуждать, применять знания в разных сферах и даже обладать самосознанием. Пока AGI не существует, и никто не знает, когда он появится, и появится ли вообще.
«Мы даже не до конца понимаем, как работает человеческий интеллект, – замечает профессор когнитивных наук Джонатан Сильверс из Амстердамского университета. – Поэтому создать его цифровую копию пока невозможно. Современные нейросети лишь имитируют отдельные аспекты мышления.»
3. Супер-ИИ (Artificial Superintelligence, ASI) – это сфера футурологии. Речь идёт о разуме, превосходящем человеческий во всех аспектах: в науке, творчестве, социальных навыках. Некоторые, вроде Илона Маска, считают ASI угрозой для человечества. Другие, как Марк Цукерберг, уверены, что это путь к утопии. Но пока это лишь гипотезы.
«ASI – это как рассуждать о межзвёздных путешествиях, когда мы только изобрели паровоз, – шутит доктор Лина Кортес, исследователь из OpenAI. – Сначала нужно построить AGI, а потом уже гадать, что будет дальше.»
Почему это важно?
Путаница между ANI, AGI и ASI приводит к необоснованным страхам или, наоборот, завышенным ожиданиям. Когда журналисты пишут, что «ИИ научился мыслить», они обычно имеют в виду узкий ИИ, который просто хорошо анализирует данные. Но если люди верят, что ChatGPT «понимает» их, как человек, – это уже проблема.
Личное мнение
Меня раздражает, когда ИИ называют «разумным» только потому, что он выдаёт убедительный текст. Это как считать калькулятор гением математики – он просто выполняет алгоритмы, пусть и очень сложные.
Итог:
– ANI – есть сейчас, полезен, но ограничен.
– AGI – пока фантастика, и неизвестно, возможен ли.
– ASI – тема для философов, а не инженеров.
Пока человечество находится на уровне ANI. И, прежде чем бояться восстания машин, стоит разобраться, как работают те системы, которые уже меняют нашу жизнь.
Почему современные системы – это не AGI?
Когда ChatGPT поддерживает осмысленный диалог, а Midjourney рисует картины в стиле Ван Гога, легко поверить, что мы уже стоим на пороге создания искусственного общего интеллекта (AGI). Но так ли это? Давайте разберёмся, чем даже самые продвинутые современные ИИ-системы отличаются от гипотетического AGI.
1. Узкая специализация или универсальность?
Современные ИИ – блестящие специалисты, но ужасные универсалы. Возьмём, к примеру, GPT-4: он генерирует потрясающе связные тексты, но, если попросить его сыграть в шахматы (без специальных доработок), он проиграет даже любителю. AlphaGo обыгрывает чемпионов мира в го, но не сможет объяснить правила этой игры на испанском языке.
«Это, как если бы вы наняли гениального математика, который при этом не умеет завязывать шнурки, – смеётся доктор Эмили Чжан, исследовательница из DeepMind. – Современные ИИ не "умные", они просто очень хорошо оптимизированы под конкретные задачи.»
2. Отсутствие понимания
Когда ИИ пишет стихотворение о любви, он не испытывает эмоций. Когда он диагностирует болезнь по снимку – не осознаёт, что такое «здоровье» или «смерть». Он лишь анализирует статистические закономерности в данных.
«Попросите ChatGPT объяснить, почему смешна его собственная шутка, – говорит профессор Сильверс. – Он даст правдоподобный ответ, но это будет новый текстовый паттерн 3 , а не настоящее понимание юмора.»
3. Нет гибкости человеческого мышления
Человек может:
– Применять знания из одной области в другой (например, использовать принципы биологии для решения инженерных задач);
– Действовать в условиях нехватки данных (интуиция, творческий подход);
– Осознавать себя и свои мыслительные процессы.
Современные ИИ на это не способны. Они:
– Работают только в рамках своих тренировочных данных;
– Теряются при встрече с принципиально новыми ситуациями;
– Не имеют ни сознания, ни целей.
Личное наблюдение
Когда я тестировал одну из моделей распознавания образов, она уверенно идентифицировала кошек на фотографиях – пока я не показал ей рисунок кошки, сделанный ребёнком. Система выдала ошибку. Настоящий AGI должен был бы понять, что это абстрактное изображение того же объекта.
4. Зависимость от данных
AGI теоретически мог бы:
– Самообучаться без огромных массивов данных;
– Формировать абстрактные концепции;
– Делать выводы из ограниченной информации.
Современные ИИ требуют:
– Миллионы примеров для обучения;
– Чётко поставленную задачу;
– Постоянную «подстройку» человеком.
«Мы создали ИИ, который обыгрывает людей в StarCraft, – рассказывает инженер Эрик Вандерсен. – Но, если немного изменить правила игры, ему придётся переучиваться практически с нуля. Человек адаптируется за несколько минут.»
5. Почему это важно понимать?
Путаница между продвинутым узким ИИ и AGI приводит к:
– Необоснованным страхам («ИИ скоро нас поработит!»);
– Завышенным ожиданиям («Почему этот ИИ не может X, если он такой умный?»);
– Опасной переоценке возможностей систем (например, слепое доверие медицинским диагнозам ИИ).
Современные системы – сложные статистические модели, а не разумные существа. Они преобразуют информацию, но не понимают её. Возможно, AGI когда-нибудь появится, но точно не в ближайшие годы.
Чем ИИ отличается от обычных программ?
На первый взгляд, ChatGPT или система распознавания лиц в вашем телефоне кажутся просто «продвинутыми программами». Но разница между традиционным софтом и современным ИИ фундаментальна.
1. Жёсткие правила или обучение?
Обычная программа имеет чёткие алгоритмы («если Х, то Y»), предсказуемые результаты и не может выйти за рамки заложенной логики. Например: калькулятор всегда даст 2+2=4, но никогда не предложит альтернативную систему исчисления.
ИИ-система находит закономерности в данных, может ошибаться неожиданными способами, способна на «творческие» решения, которые иногда оказываются бредом.
2. Статичность или адаптация?
Традиционный софт требует переписывания кода для изменений и не улучшается со временем самостоятельно.
ИИ-модели могут «дообучаться» на новых данных, их поведение эволюционирует, и иногда они непредсказуемо деградируют.
Личное воспоминание
Доктор Эмили Чжан показывала мне медицинскую диагностическую систему. За год её точность выросла на 15% просто за счёт добавления новых случаев. Но в какой-то момент она вдруг начала путать два редких заболевания – пришлось срочно корректировать обучающую выборку.
3. Прозрачность или «чёрный ящик»?
В обычных программах можно проследить каждое действие и легко диагностировать шибки.
В нейросетях даже разработчики не всегда понимают, как они пришли к выводу, а ошибки могут быть системными и неочевидными.
4. Почему это революция?
Такое отличие подходов меняет всё:
– Гибкость – ИИ справляется с задачами, которые невозможно формализовать (например, распознавание эмоций по голосу);
– Масштабируемость – одна и та же архитектура решает разные задачи;
– Ограничения – мы жертвуем контролем ради возможностей.
Личное наблюдение
Когда я впервые увидел, как система компьютерного зрения без предварительного программирования научилась распознавать дорожные знаки, это перевернуло моё представление о технологиях.
Но как вообще работают эти удивительные системы? Что делает их способными к такому «обучению»?
Ответ кроется в нейросетях – архитектуре, которая кардинально отличается от традиционного программирования. Именно нейросети стали тем прорывом, который превратил ИИ из узкоспециализированного инструмента в технологию, меняющую наш мир.
Глава 2. Нейросети – основа современного ИИ
Как устроены нейросети?
Представьте, что вы учите ребёнка различать кошек и собак. Вы показываете ему картинки, объясняете: «Вот у кошек уши острые, а мордочка меньше», – а он постепенно начинает узнавать закономерности. Нейросеть учится примерно так же, только вместо нейронов мозга – математические функции, вместо опыта – тысячи примеров.
1. Нейрон: кирпичик искусственного интеллекта
Каждый нейрон в сети – это мини-калькулятор, который:
– Принимает входные данные (например, пиксели изображения),
– Умножает их на «веса» (коэффициенты важности),
– Суммирует результаты,
– Применяет функцию активации (решает, «запускаться» ли).
2. Слои: сборочный конвейер для данных
Нейросеть состоит из слоёв, как фабрика из цехов:
– Входной слой: получает «сырые» данные (текст, изображение);
– Скрытые слои: анализируют признаки (уши кошки → форма глаз → текстура шерсти);
– Выходной слой: выдаёт результат («кошка», «собака» или «возможно, хомяк»).
3. Веса: что нейросеть «ценит»?
Веса – это «настройки важности» для каждого входа. Они меняются во время обучения:
– Если нейрон часто видит, что чёрные пиксели в углу – это кошачье ухо, он увеличивает их вес;
– Ошибочные связи ослабляются.
Из моей лекции студентам
Представьте, что вы настраиваете гитарный усилитель. Сначала звук хрипит (нейросеть ошибается), но вы крутите ручки (веса), пока не добьётесь чистоты. Только в нейросети «ручек» миллионы.
4. Почему это не мозг?
Несмотря на биологическую терминологию:
– Нейроны в ИИ в сотни раз проще биологических;
– Нет реального «понимания» – только расчёт вероятностей;
– Обучение требует огромных данных, а не одного примера.
«Когда журналисты пишут „искусственный мозг“, я хватаюсь за голову, – говорит профессор Сильверс. – Наш мозг работает с концепциями. Нейросеть – с корреляциями. Разница как между „знать Конан Дойля“ и „уметь подделать его почерк“».
5. Как это выглядит на практике?
Пример для распознавания рукописных цифр (MNIST):
– На входе мы имеем 28×28 пикселей, или 784 «нейрона» входного слоя;
– Скрытые слои выявляют линии, круги и их комбинации;
– На выходе мы получаем 10 нейронов (цифры от 0 до 9), где самый «горячий» и есть ответ.
Личное воспоминание
Первую рабочую нейросеть я собрал в университетском проекте. Она путала 4 и 9, пока Лина не подсказала добавить слой, анализирующий замкнутость форм. Это было волшебство: ошибки упали вдвое!
Но как нейросеть учится? Кто или что решает, какие веса правильные?
Ответ кроется в двух процессах: обучение с учителем (когда мы даём «правильные ответы») и обучение без учителя (где система ищет скрытые закономерности).
Обучение с учителем и без учителя
Нейросети учатся совсем не так, как люди. У них нет интуиции или врождённых знаний – только данные и алгоритмы, которые эти данные обрабатывают. И в зависимости от того, какие данные мы даём, процесс обучения делится на два принципиально разных подхода.
1. Обучение с учителем (Supervised Learning)
Здесь нейросеть получает не только входные данные, но и правильные ответы – как школьник, который решает задачки с готовыми решениями в конце учебника.
Как это работает:
– Вы показываете системе тысячи помеченных изображений: «это кошка», «это собака»;
– Нейросеть настраивает веса, чтобы минимизировать ошибки;
– Когда ошибок становится мало – модель готова.
Примеры из жизни:
– Распознавание спама в почте (письма помечены как «спам/не спам»);
– Медицинская диагностика по снимкам (с указанием, где есть опухоль);
– Прогнозирование цен на жильё (на основе исторических данных).
«В 90% коммерческих проектов мы используем Supervised learning, – отмечает Эрик Вандерсен. – Это надёжно, но требует тысячи размеченных данных. Иногда разметка стоит дороже, чем сама разработка модели.»
2. Обучение без учителя (Unsupervised Learning)
Здесь нейросеть получает только сырые данные без подсказок – как ребёнок, который сам догадывается, что мячи бывают круглые, а кубики квадратные.
Как это работает:
– Система ищет скрытые закономерности в данных;
– Группирует похожее (кластеризация);
– Выявляет аномалии или сокращает размерность данных.
Примеры из жизни:
– Сегментация клиентов (без заранее заданных категорий);
– Поиск неочевидных связей в финансовых транзакциях;
– Сжатие данных (например, уменьшение размерности изображений).
Личное наблюдение
Когда я впервые увидел, как unsupervised-алгоритм без подсказок разделил статьи из новостной ленты на темы (политика, спорт, технологии), это напомнило мне, как человек интуитивно группирует предметы в комнате.
3. Почему это важно?
– Обучение с учителем даёт точные результаты, но требует дорогой разметки;
– Обучение без учителя экономнее, но менее предсказуем;
– В реальных проектах часто комбинируют оба подхода.
Но как нейросети применяют на практике? Где граница между академическими экспериментами и реальными технологиями?
GPT, Stable Diffusion, AlphaGo – как нейросети переосмыслили реальность
Когда в 2016 году AlphaGo сделала тот самый 37-й ход в партии против Ли Седоля, весь мир замер. Профессиональные игроки сначала решили, что это ошибка – такой ход не встречался за четыре тысячелетия истории го. Но к концу игры стало ясно: нейросеть открыла новую стратегию, неочевидную для человеческого мышления. Этот момент прекрасно иллюстрирует, как современные нейросети, будучи созданными человеком, начали превосходить его в отдельных областях.
Возьмем GPT – языковую модель, которая перевернула наше представление о работе с текстом. В её основе лежит простая на первый взгляд идея: предсказывать следующее слово в последовательности. Но масштаб реализации делает её революционной. Обрабатывая триллионы слов, GPT выявляет сложнейшие языковые паттерны, учится стилистическим нюансам и даже имитирует творческий процесс. При этом она не понимает текст в человеческом смысле – просто невероятно точно угадывает статистические взаимосвязи. Это, как если бы кто-то выучил наизусть все книги в библиотеке и научился бесконечно комбинировать фразы, сохраняя видимость смысла.
StableDiffusion предложил совершенно иной подход к генерации изображений. В отличие от GPT, работающей с дискретными токенами4, эта модель оперирует в непрерывном пространстве изображений. Процесс напоминает художника, который начинает с хаотичных мазков и постепенно уточняет их, сверяясь с текстовым описанием. Особенно поражает, как система научилась соединять абстрактные концепции – например, визуализировать «любовь в стиле киберпанк» или «экзистенциальный ужас в акварели». При этом каждый такой запрос раскрывает удивительный факт: нейросеть не оперирует смыслами, а лишь устанавливает сложные корреляции между фрагментами текста и элементами изображений.
Эволюция AlphaGo демонстрирует ещё один важный аспект. Первые версии обучались на партиях профессиональных игроков, имитируя человеческий стиль. Но настоящий прорыв случился с AlphaGo Zero, которая начала с чистого листа и через самообучение открыла принципиально новые стратегии. За несколько дней она прошла путь, на который человечеству потребовались тысячелетия. Особенно показательно, что её стиль игры сначала казался «неестественным» профессионалам, но затем радикально изменил современное понимание го.
Эти три примера раскрывают парадокс современного ИИ. С одной стороны, системы демонстрируют феноменальные результаты в узких областях. С другой – их «понимание» остаётся поверхностным, основанным на статистике, а не на осмыслении. GPT не размышляет о смысле текста, Stable Diffusion не испытывает эмоций от создаваемых образов, AlphaGo не чувствует азарта от победы. Они лишь невероятно точно оптимизируют свои функции, создавая иллюзию разумности.
Такой подход порождает удивительные последствия. Когда нейросеть пишет стихотворение или рисует картину, она не следует культурным традициям и не выражает внутреннего состояния. Она вычисляет наиболее вероятные комбинации элементов, которые люди склонны считать осмысленными. Это принципиально иной способ «творчества» – без интенции, но с впечатляющей результативностью.
Но что именно позволяет этим системам достигать таких результатов? Всё дело в том сырье, из которого они строят свои предсказания – огромных массивах человеческого творчества, знаний и опыта. Но здесь же скрываются и главные ограничения – ведь нейросеть не может выйти за рамки того, что уже было создано и зафиксировано людьми.
Глава 3. Данные – «топливо» для ИИ
Почему Big Data 5 так важны?
В 2012 году произошёл переломный момент: нейросеть AlexNet, обученная на миллионе изображений из базы ImageNet, впервые показала точность, превосходящую человеческую в задаче распознавания объектов. Это был не просто технический успех – это доказательство простой истины: современный ИИ становится умнее не благодаря хитрым алгоритмам, а благодаря огромным объёмам данных.
Но почему «больше данных» значит «лучше работает»? Представьте, что вы учитесь отличать оливки от винограда. Если вам покажут всего три примера, вы легко ошибётесь. Десять – уже лучше. Сотня – почти безошибочно. Нейросети работают по тому же принципу, только масштаб другой: где человеку хватает десятков примеров, алгоритму требуются миллионы.
Современные модели поглощают данные с ненасытностью, которая поражает воображение. GPT-4 обучалась на триллионах слов – это всё равно что прочитать всю библиотеку Конгресса десятки раз. Системы компьютерного зрения анализируют миллиарды изображений – больше, чем любой человек увидит за всю жизнь. И это не прихоть разработчиков, а фундаментальная необходимость.
Дело в том, что нейросети ищут закономерности в чистом виде – без здравого смысла, без врождённых знаний, без способности к абстракции. Они подобны инопланетянину, который изучает человеческую культуру исключительно через статистику. Чем больше данных, тем точнее выявляются корреляции: какие пиксели чаще встречаются у кошек, какие сочетания слов характерны для поэзии, какие ходы ведут к победе в шахматах.
Однако здесь кроется парадокс. С одной стороны, нейросети достигают невероятной точности именно благодаря масштабам информации. С другой – они остаются «узкими специалистами»: модель, блестяще диагностирующая рак по рентгеновским снимкам, окажется беспомощной перед задачей отличить грустное лицо от весёлого. Она знает только то, чему её научили данные, и ровно в тех границах, которые эти данные определяют.