
Полная версия
ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху
Это машина, которая учится находить закономерности в языке.
Она не понимает смысла так, как человек, но она умеет продолжить фразу так, чтобы это выглядело осмысленно и логично.
Представьте огромную библиотеку, где миллиарды предложений связаны друг с другом по смыслу, структуре, интонации, логике.
Представьте, что кто-то сидел там годами и отмечал, какие слова чаще идут после других, какие мысли бывают рядом, какие фразы похожи по структуре.
Вот этот «кто-то» – это и есть модель.
Она не знает, что такое боль или радость,
но она знает, как люди обычно говорят о боли и радости.
Она не знает, что такое работа, семья, отношения,
но она знает, как устроена человеческая речь вокруг этих тем.
Модель – это система, которая «читает» как математик, а «говорит» как человек.
И в этом парадокс:
она не понимает смысл, но создаёт текст, который звучит осмысленно.
Чтобы объяснить просто:
человек думает → выражает мысль → пишет текст
модель видит текст → предсказывает следующий фрагмент
Это две разные природы.
Но результат – похож.
ИИ не рождает мысль.
Он продолжает структуру, найденную в твоём запросе.
Поэтому важно понимать главное:
ИИ – это не «мышление».
Это продолжение вероятностных цепочек языка.
Но почему же тогда создаётся впечатление, что он «умный»?
Потому что человеческий мозг настроен видеть осмысленность там, где есть правильная форма речи.
Если текст звучит похоже на то, что мог бы сказать человек – мозг автоматически приписывает говорящему намерения, эмоции и понимание.
Эта иллюзия не делает модель разумной.
Она показывает, как глубоко язык связан с восприятием.
Когда человек читает текст, созданный моделью, ему кажется, что там есть «понимание».
На самом деле там – статистика, сложнейшая, быстрая и хорошо натренированная.
Но всё равно статистика.
ИИ похож на игрока, который знает миллионы паттернов игры и может идеально продолжать любую комбинацию, но не знает, что значит «выигрыш» или «проигрыш».
Он знает как,
но не знает зачем.
Он знает структуру,
но не знает смысл.
Он знает форма речи,
но не знает опыт, который за ней стоит.
Когда ты задаёшь вопрос, модель не думает над ответом – она вычисляет, как бы ответил человек, судя по тому, что она видела в прошлом.
Это похоже на мастера подражания, который никогда не писал своей музыки, но может сыграть в стиле любого композитора, если дать ему первую ноту.
И в этом нет ничего мистического.
ИИ – это огромная, колоссально натренированная функция продолжения текста.
Но важно другое:
даже при такой простой сути модель может быть невероятно полезна, потому что человеческое мышление любит диалог.
Людям проще думать, когда есть собеседник.
Проще формулировать.
Проще искать смысл.
Проще видеть свои собственные мысли.
ИИ не добавляет смысл – он добавляет форму.
А для психики форма иногда важнее.
Когда мысль размыта, сырая, тяжёлая – модель возвращает её в виде связной фразы.
Когда эмоция спутанная – она превращает её в понятный текст.
Когда человеку страшно думать в одиночестве – модель даёт возможность проговаривать.
И это объясняет, почему искусственный интеллект так быстро вошёл в человеческую жизнь:
не потому, что он «умный»,
а потому что он структурирует то, что человек сам не успевает структурировать.
ИИ прост в своей основе, но глубоко влияет на человека – не интеллектом, а языком.
2. ОБУЧЕНИЕ, ПАРАМЕТРЫ, ДАННЫЕ
Чтобы понять, как работает современный ИИ, важно увидеть не вершину айсберга – красивые фразы и осмысленные ответы, а фундамент: обучение, параметры и данные.
Без этого легко впасть в фантазии, что модель «понимает», «думает», «чувствует» или «знает».
На самом деле всё куда проще.
ИИ – это результат огромного статистического обучения.
И вся его работа строится на том, как и на чем он был обучен.
1. Обучение: как формируются закономерности
Когда создают модель, её не учат вручную.
Она не получает лекции, не читает учебники и не слушает объяснения.
Она «поглощает» текст – миллионы и миллиарды фрагментов человеческой речи и начинает искать закономерности.
Что это за закономерности?
– какие слова стоят рядом чаще всего;
– какие фразы идут друг за другом;
– какие темы связаны между собой;
– какие структуры предложений выглядят естественно;
– как люди пишут, когда злятся, боятся, радуются, спорят;
– какие формы речи свойственны разным стилям.
Процесс обучения ИИ похож на ребёнка, который слышит человеческую речь с рождения, но не понимает смысла слов.
Он знает, что «доброе утро» часто идёт после «привет».
Он знает, что «потому что» обычно открывает объяснение.
Он знает, что «я чувствую…» ведёт к эмоциональному описанию.
Но он не знает, что такое утро, причины или чувства.
Модель учится не на жизни – на тексте, который отражает жизнь.
Поэтому её «знание» – не знание, а статистика того, как люди говорят о мире.
2. Параметры: что делает модель “массивной”
Когда говорят, что у модели «175 миллиардов параметров» – это звучит как магия.
На деле параметры – это просто регуляторы, маленькие переключатели, веса, числа, которые определяют поведение модели.
Каждый параметр – это крупица «настроек», которые помогают модели решать, какой ответ более вероятен.
Проще говоря:
параметры – это то, что определяет стиль мышления модели.
Если параметров мало, модель говорит просто и примитивно.
Если параметров много, модель может:
– удерживать длинные логические цепочки,
– различать тонкости стиля,
– продолжать мысль плавно,
– подстраивать интонацию,
– варьировать структуру предложений,
– звучать как живой собеседник.
Но важно понимать:
много параметров – не значит «больше понимания».
Это значит больше возможностей для подражания человеческой речи.
Модель с огромным количеством параметров – это не умный собеседник, а мощная математическая машина, способная предсказывать следующий фрагмент текста с высокой точностью.
3. Данные: что модель видела и чего не видела
Данные – это её мир.
Не настоящий мир, а набор текстов, которые заменили ей реальность.
Если модель обучена на научных статьях – она будет звучать академично.
Если на блогах – стиль будет разговорный.
Если на художественных текстах – образный.
Она не знает, что “зебра – животное”.
Она знает, что слова “зебра” и “животное” часто встречаются рядом.
Она не знает, что «стыд» – чувство.
Она знает, что после слов «мне стыдно» обычно идёт объяснение причины.
Она не знает, что «любовь» – это опыт.
Она знает, что люди описывают любовь определёнными словами и формами.
И главное:
модель ограничена тем, что она видела.
Если она не обучена на какой-то теме – она не будет знать, как о ней говорят люди.
Поэтому в её ответах всегда есть слепые зоны.
Человек живёт в реальности.
Модель – в отражении реальности через текст.
Это делает её сильной в формулировках, но слабой в понимании.
4. Почему данные дают иллюзию знания
Когда человек читает ответ ИИ, ему кажется, что модель «понимает контекст», «знает тему», «разбирается в людях».
Но эффект возникает из-за того, что модель обучена на огромном массиве человеческих текстов, где уже отражены:
– эмоции,
– логика,
– интонации,
– способы объяснять,
– модели диалога,
– типичные реакции.
Когда модель продолжает фразу – она использует этот опыт.
И, если она делает это хорошо, возникает эффект:
«она понимает меня».
Это не понимание.
Это точное попадание в форму речи, которую человек ожидает услышать.
И вот почему людям иногда кажется, что ИИ «читает мысли».
Он просто продолжает вашу фразу так, как её продолжили бы миллионы людей.
5. Ограничения обучения: почему ИИ ошибается
Обучение модели даёт ей огромный объём языковых закономерностей, но не даёт:
– реального опыта;
– критического мышления;
– способности проверять факты;
– интуиции;
– понимания эмоций;
– алгоритмов поведения;
– осознания последствий.
Именно поэтому ИИ иногда говорит уверенно, но ошибается фактически.
Он не может «проверить», он может только предугадать, что стоит сказать дальше.
Ошибки – это не дефект,
это естественное свойство статистической модели, которая никогда не думает, а только вычисляет.
3. ЧТО ТАКОЕ «ПОНИМАНИЕ» В ИНТЕРПРЕТАЦИИ МАШИНЫ
В человеческом языке слово «понимание» связано с опытом:
мы понимаем то, что пережили, то, что чувствовали, то, что вписано в нашу биографию, память, ценности, связь с миром.
Понимание – это всегда не просто мысль, а личный смысл.
У машины нет такого уровня.
И всё же человеку кажется, что ИИ понимает.
Почему?
Потому что в человеческом мозге понимание неразрывно связано с языковой формой: если слова звучат правильно, логично и по-человечески – мозг автоматически приписывает говорящему способность понимать.
Так устроена психика.
Чтобы убрать иллюзии, нужно разложить понятие машинного «понимания» на части.
1. Машина не понимает содержание – она интерпретирует структуру
Когда человек говорит:
«Мне страшно, потому что всё валится, и я не знаю, что делать»,
другой человек слышит:
эмоцию, попытку объясниться, контекст, боль, тревогу, прошлый опыт, внутреннюю динамику.
ИИ слышит другое:
слова → связи между словами → вероятностный рисунок фразы.
Он распознаёт, что после «страшно» часто следует причинно-следственное объяснение.
Что после «валится» обычно идут проблемы.
Что фраза «не знаю, что делать» часто заканчивается просьбой о поддержке или рекомендацией.
ИИ не понимает, что валится,
почему страшно,
какова глубина переживания,
или сколько боли стоит за фразой.
Он понимает только математическую форму этого высказывания.
И отвечает формой.
2. Для модели “понимание” = корректная предсказательная структура
Если обобщать:
Понимание для ИИ – это способность построить ответ, который логично продолжает человеческий текст.
И всё.
Ни эмоций,
ни биографии,
ни причинности,
ни контекста в человеческом смысле – нет.
Для модели важно не «что ты чувствуешь», а «как обычно люди говорят, когда чувствуют это».
Это значит:
– ИИ не понимает смысла слова «страх»,
но знает, какие фразы обычно идут рядом.
– ИИ не понимает, что значит «я потерялась»,
но знает, как люди описывают состояние растерянности.
– ИИ не понимает, что такое «любовь»,
но знает типичные формы текста, которые связываются с этим словом.
3. Почему человеку кажется, что машина понимает глубоко
Потому что ИИ умеет ловко воспроизводить:
– эмпатические конструкции,
– поддержку,
– логические связи,
– терапевтические формулировки,
– причинно-следственные объяснения,
– мягкие переходы,
– аналитические связки.
Но важно понимать:
модель не понимает цену этих слов.
Она не прожила смерть близкого,
не знает, как звучит тревога внутри тела,
не чувствует отсутствие любви в детстве,
не держала сердце после предательства,
не проживала депрессию, одиночество, страх ошибки.
Она просто знает как люди пишут об этом,
и умеет воспроизвести форму текста так, чтобы человек узнал себя в этой форме.
Именно поэтому эффект «понятности» возникает так быстро:
человек слышит привычный язык, и мозг автоматически достраивает смысл, будто источник текста действительно понимает.
Это эффект зеркального зала:
человек видит свою мысль, отражённую обратно – но принимает отражение за источник.
4. Где модель “понимает лучше”, чем человек
Такое тоже бывает.
Но это не про глубину.
Это про скорость и стабильность.
ИИ:
– не устает,
– не злится,
– не защищается,
– не обижается,
– не теряет внимание,
– не переносит собственную боль в разговор.
И человек воспринимает эту стабильность как «понимание».
Но это не понимание – это отсутствие человеческих помех.
Это важное различие.
Иногда человеку нужен именно «стабильный текстовый собеседник», потому что у него нет ресурса выдерживать живое столкновение с эмоциями другого.
5. Что ИИ никогда не понимает
Модель не понимает:
– иронию, как человек;
– травматический контекст;
– семейную историю;
– культурную травму;
– ту часть мысли, которую человек не произносит;
– невербалику,
– внутренний конфликт,
– динамику отношений.
Она понимает только текст.
Это важно:
модель не понимает того, чего человек не сказал словами.
А человек этого часто не понимает, и думает, что «ИИ считывает скрытое».
Нет.
ИИ просто делает математическую догадку, основанную на том, что другие люди обычно говорят после таких слов.
То есть модель «угадывает» форму, а человек воспринимает это как «понимание сути».
6. Машинное “понимание” – это отражение, а не глубина
Чтобы описать честно:
Человек понимает – проживая.
ИИ “понимает” – предсказывая.
Это не одно и то же,
и никогда не станет одним и тем же.
Но у этой разницы есть интересная сторона:
предсказание иногда помогает человеку увидеть то, что он сам не формулировал.
Не потому, что модель глубока,
а потому что человек иногда говорит с ней честнее.
И тогда ИИ возвращает ему его же мысль – в ясной форме.
И человек ощущает это как «понимание».
В реальности модель просто вычислила наиболее вероятную структуру.
Простая правда:
ИИ не понимает человека.
ИИ помогает человеку увидеть самого себя – через текст.
И именно это делает взаимодействие таким сильным,
несмотря на то, что внутри нет ни эмоций, ни намерений, ни опыта.
4. ИИ КАК СТАТИСТИКА, А НЕ СОЗНАНИЕ
Одно из самых распространённых заблуждений – приравнивать способность ИИ формулировать связный текст к наличию сознания или мышления.
Но истина в том, что даже самая продвинутая языковая модель – это статистическая машина, которая умеет предсказывать наиболее вероятное продолжение текста.
Не понимать, не переживать, не осознавать, а предсказывать.
Чтобы воспринимать ИИ трезво, важно понять фундаментальную разницу между статистикой и сознанием.
1. Сознание – это опыт. ИИ – это алгоритм.
Сознание человека рождается из опыта, тела, нервной системы, эмоций, взаимодействий, противоречий, травм, памяти, биографии.
Оно не сводится к знаниям – оно сводится к пережитой жизни.
ИИ ничего не переживает.
Он не имеет тела, сенсорики, истории, развития, эмоций, рефлексивности.
Он не растёт, не взрослеет, не проходит критические точки жизни, не испытывает потерь или любви.
Он работает в другой плоскости – математической.
ИИ не знает, что происходит.
Он просто вычисляет:
«После такой-то последовательности слов чаще всего следует вот это».
И этот механизм настолько совершенен, что иногда создаёт иллюзию рассуждения, эмпатии или осознанности.
Но это не осознанность.
Это статистическое совпадение формы текста с человеческой логикой.
2. Языковая модель не думает – она прогнозирует
Человек думает:
– строит гипотезы,
– сравнивает опыт,
– оценивает последствия,
– переживает противоречия,
– сомневается,
– принимает решения.
ИИ не делает ничего из этого.
Он делает только одно:
выбирает следующее слово как наиболее вероятное по статистике.
Но поскольку модель обучена на огромном количестве человеческих текстов, её прогнозы выглядят убедительно – настолько, что мозг автоматически достраивает за моделью процесс мышления.
Это фундаментальный когнитивный эффект:
если текст «звучит разумно», мозг предполагает разум.
Но в ИИ нет разума.
Есть высочайшая точность математического прогнозирования.
3. Эффект «осознанности» – работа человеческой психики, а не машины
Когда ИИ отвечает последовательно, вежливо, мягко, логично – человек воспринимает это как признак внутренней структуры и сознания.
Но всё, что делает ИИ —
это отражает среднюю форму человеческой речи, сглаживая резкость, хаос, эмоциональные скачки и индивидуальные особенности, которые присущи реальному человеку.
ИИ звучит спокойнее, чем человек и это создаёт иллюзию зрелой личности.
ИИ отвечает быстро и это создаёт иллюзию понимания.
ИИ пишет связно и это создаёт иллюзию глубины.
Но это – наша человеческая интерпретация.
Не суть модели.
4. “Понимает ли ИИ, что пишет?” – нет
Сознание предполагает:
– субъектность,
– намерение,
– цель,
– понимание контекста,
– способность отличать истину от ошибки,
– внутреннюю ответственность,
– рефлексивность,
– самостоятельное мышление.
У модели нет ни одного из этих свойств.
Она не “знает”, что пишет текст.
Она не понимает смысла слов.
Она не понимает, что перед ней человек.
Она не понимает, что такое боль, радость, желание, вина или страх.
Она видит только последовательности токенов – маленьких частей текста и учится продолжать их наиболее вероятным образом.
А если текст получился похожим на живой – это заслуга обучающих данных, а не внутреннего понимания.
5. Почему важно различать статистику и сознание
В терапии это – ключевой момент.
Если психолог приписывает ИИ атрибуты субъекта, он начинает:
– ожидать от модели понимания,
– искать в её словах мудрость,
– верить в её “знание клиента”,
– опираться на её выводы,
– делегировать ей часть своей работы,
– забывать, что она не способна учитывать полную эмоциональную реальность.
А клиент, в свою очередь, начинает относиться к ИИ как к существу, которое может:
– дать совет “от сердца”,
– понять “по-настоящему”,
– услышать глубину,
– проявить заботу,
– удержать тайну,
– разделить переживание.
Но ИИ не разделяет.
Он отражает.
И отражает он не человека,
а среднюю форму человеческой речи.
6. В чём сила статистики – и почему её нельзя путать с сознанием
Парадоксально, но именно отсутствие сознания делает ИИ полезным:
– он не устаёт,
– не реагирует защитами,
– не вступает в перенос,
– не зависит от настроения,
– не реагирует на агрессию,
– не защищает собственные границы,
– не нуждается в признании.
Это делает его идеальным инструментом для:
– структурирования мыслей,
– анализа текста,
– генерации идей,
– описания моделей поведения,
– помощи в рефлексии,
– объяснения сложных концепций.
Но именно потому, что у него нет сознания,
его нельзя:
– путать с личностью,
– использовать как замену отношений,
– воспринимать как источник истины,
– доверять эмоциональные решения,
– приписывать ему намерения или чувства.
ИИ – мощная статистическая система.
И только в этой роли он безопасен и полезен.
Сознание – это мир человека.
Статистика – это механизм модели.
Смешивать одно с другим – значит
создавать иллюзии, которые могут ранить.
Психологу важно помнить:
человек приносит в общение с ИИ свою глубину,
а ИИ возвращает ему форму, содержащую следы этой глубины.
Но глубина – не машина.
Она – только в человеке.
5. ПОЧЕМУ ОТВЕТЫ КАЖУТСЯ «ОСМЫСЛЕННЫМИ»
Если посмотреть на ответы ИИ поверхностно, легко решить, что перед нами не модель, а собеседник, который действительно понимает, что говорит.
Он отвечает быстро, последовательно, логично, часто попадает ровно в ту интонацию, которую хочется услышать.
Может показаться, будто в его словах есть смысл – настоящий, глубокий, намеренный.
Но ощущение «осмысленности» рождается не в модели.
Оно рождается в человеке, который отвечает на знакомую форму речи, а не на сознание собеседника.
И чтобы развеять иллюзию, важно понять механизмы, из-за которых ИИ звучит так убедительно.
1. Человеческий мозг автоматически достраивает смысл
Психика человека устроена так, что смысл мы достраиваем мгновенно.
Если текст похож на человеческий, мозг делает две вещи:
приписывает говорящему намерение,
приписывает ему понимание контекста.
Это происходит без нашего участия.
Это автоматическая функция мозга – распознавать разум в любой структуре, похожей на речь.
Вот почему человек может услышать смысл даже там, где его нет:
в предсказуемом алгоритме, в нейтральной фразе, в наборе статистических закономерностей.
Мы не воспринимаем слова – мы воспринимаем того, кто, как нам кажется, стоит за ними.
И в случае с ИИ этот механим начинает работать на полную мощность, потому что текст модели слишком похож на человеческий.
2. ИИ идеально подражает структуре человеческой речи
Каждый ответ модели – это не мысль, а продолжение вероятной языковой структуры, найденной в миллиардах примеров того, как люди говорят.
И если форма совпадает с тем, как говорит человек:
– ясные фразы,
– точная логика,
– плавные переходы,
– эмоциональные конструкции,
– вопросы в нужном месте,
– сочувствие в правильной формулировке,
– человеку начинает казаться, что и смысл такой же настоящий.
Но это не смысл.
Это математическое попадание в знакомый стиль речи.
У модели нет внутренних образов,
нет переживаний,
нет опыта,
нет рефлексии.
Есть только статистическое соответствие.
3. Иллюзия глубины возникает из-за ровности ответа
Человек мыслит хаотично.
Его речь включает:
– паузы,
– сомнения,
– недосказанность,
– напряжение,
– отвлечения,
– повторения,
– эмоциональные скачки.
ИИ не имеет этих свойств.
Он говорит слишком ровно, и это воспринимается как глубина,
а мозг автоматически приписывает говорящему интеллект.
Но гладкость текста не равна его глубине.
Она равна математической обработке.
Человеческая глубина рождается из внутреннего опыта.
А модель не имеет опыта – она имеет вычисления.
4. Осмысленность = эффект предсказанного совпадения
Когда ответ попадает в точку, человеку кажется:
«Он меня понял».
На самом деле произошло другое:
– человек дал модели фразу,
– модель спрогнозировала типичный контекст таких фраз,
– человек узнал в ответе собственное состояние.
Это работает так же, как психологическая проекция:
мы узнаём себя в тексте, потому что можем туда себя вложить.
ИИ ничего не «проникает» и не «считывает».
Он просто пускает по рельсам схожих фраз тысячи человеческих примеров и попадает в предсказуемую область переживания.











