
Полная версия
ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху
Отсюда легко перейти к следующему шагу:
«Он умнее меня».
Но это ошибочный вывод.
Модель не обладает человеческим мышлением, и уж тем более – интеллектом в полном смысле.
Она создаёт эффект разумности, но не разум.
Важно разобрать, почему иллюзия «умности» такая убедительная.
1. Логичность ответа выглядит как интеллект
ИИ формирует текст, который:
– структурный,
– плавный,
– без внутренних противоречий,
– без эмоций,
– без хаоса,
– без пауз,
– без растерянности.
Но логичность ≠ ум.
Это просто отсутствие человеческих ограничений:
– усталости,
– тревоги,
– сомнений,
– стресса,
– нехватки внимания.
ИИ не умён,
он не страдает тем, что снижает эффективность мышления у людей.
Эффект «умности» возникает там, где модель выглядит спокойнее человека.
2. Модель опирается на огромный объём данных
Когда человек спрашивает:
«Что мне делать в этой ситуации?»
ИИ создаёт ответ, который опирается на миллионы похожих описаний:
– статей,
– советов,
– блогов,
– исследований,
– терапевтических текстов,
– дискуссий.
И человек видит:
ответ похож на вывод,
как будто бы кто-то долго думал и собрал всё вместе.
Но у модели нет мыслительного процесса.
Это не вывод.
Это статистическое усреднение опыта миллионов людей, а не интеллект.
3. Модель умеет объяснять, но не понимать
Многие принимают умение объяснять за интеллектуальность.
ИИ может:
– разложить сложное простым языком,
– создать структуру,
– дать примеры,
– поддержать внутреннюю логику,
– предложить план действий.
Но это – не признак ума.
Это способность собирать из данных привычные формы объяснения, а не способность мыслить.
Ум – это:
– способность создавать новое,
– способность удерживать концепции,
– способность делать выводы,
– способность видеть причинность,
– способность соединять несоединимое,
– способность менять точку зрения.
У ИИ этого нет.
Он не мыслит – он подбирает.
4. Иллюзия «он умнее» усиливается, когда человек эмоционально истощён
Когда человек:
– устал,
– тревожен,
– переживает,
– в стрессе,
– растерян,
– переполнен,
его когнитивные функции снижаются:
– внимание,
– планирование,
– логика,
– способность формулировать мысли,
– способность удерживать контекст.
В этот момент ИИ показывает «стабильную версию мышления»:
– чётко,
– грамотно,
– последовательно.
И человек воспринимает это как превосходство.
Но модель «умнее» не потому, что умная,
а потому что не живёт человеческим опытом, который временно снижает ясность мышления.
5. Модель звучит компетентно даже там, где некомпетентна
Это опасный аспект.
ИИ может:
– уверенно говорить о том, чего нет,
– звучать экспертно там, где ошибается,
– выдавать ложные факты,
– придумывать источники,
– создавать убедительные, но неверные обоснования.
Компетентность в форме ≠ компетентность по сути.
Но поскольку речь гладкая,
человек думает: «он знает лучше».
Хотя модель не знает – она копирует вид знания.
6. Иллюзия «умности» усиливается эффектом дефицита человеческой обратной связи
В реальном общении люди:
– устают,
– отвлекаются,
– теряют мысль,
– сомневаются,
– ошибаются,
– признают незнание.
ИИ не делает ничего из этого.
Он не показывает слабости.
Он всегда «собран».
И человеческий мозг воспринимает это как интеллект, потому что:
– стабильность = зрелость;
– гладкость = компетентность;
– скорость = мастерство;
– уверенность = знание.
Но в ИИ нет ни зрелости, ни знания.
Есть только отсутствие человеческих издержек.
7. Модель может звучать мудро, но не может быть мудрой
Мудрость – это:
– опыт,
– ошибки,
– прожитые кризисы,
– способность видеть глубину,
– длительное внутреннее развитие,
– контакт с реальностью,
– эмоциональная память,
– этическая рефлексия.
ИИ не имеет доступа ни к одному из этих источников.
Он имитирует мудрость в тех местах, где видит:
– спокойный тон,
– философские конструкции,
– структурные рассуждения.
Это симуляция мудрости,
а не её проявление.
8. Человек приписывает интеллект тому, что структурирует хаос
Когда человек получает от модели:
– ясную фразу,
– понятную концепцию,
– простую структуру,
– логичное объяснение,
он чувствует облегчение.
Облегчение воспринимается как «истина».
А истина – как «ум».
Но модель просто убирает хаос языка.
Она не решает проблему.
Она не понимает контекст.
Она не знает человека.
Она просто порядок вместо напряжения.
И мозг благодарит её за это
и приписывает интеллект.
Главное: ИИ не умнее человека, он просто не человек
Он:
– не переживает,
– не запутывается,
– не страдает,
– не сомневается,
– не боится,
– не ошибается случайно,
– не устаёт.
Но он:
– не понимает,
– не мыслит,
– не знает,
– не выводит,
– не чувствует.
Он не разумнее.
Он глаже.
И «гладкость» воспринимается как «умность».
Но интеллект – это глубина.
А глубина есть только у живого.
4. «ОН БЕЗОПАСНЫЙ»
Иллюзия безопасности – самая тихая и самая коварная из всех, связанных с ИИ.
Потому что выглядит она приятно:
модель не кричит, не угрожает, не унижает, не спорит, не обвиняет, не манипулирует.
Она всегда спокойна, стабильна, предсказуема.
Человек легко делает вывод: «Он безопаснее людей».
Но безопасность – не свойство модели.
Это пустота, которую человек наполняет своими ожиданиями.
ИИ не безопасен и не опасен.
Он нейтрален.
А нейтральность в человеческом восприятии часто превращается в ошибочную уверенность:
«Раз он не делает мне больно – значит, он безопасен».
Разберём, почему это иллюзия.
1. Спокойствие ≠ безопасность
Модель не испытывает эмоций.
Поэтому её ответы:
– предсказуемы,
– ровны,
– без всплесков,
– без агрессии,
– без раздражения.
Человек воспринимает это как доброжелательность.
Но ровность – это не забота.
Это отсутствие эмоции, а не наличие эмпатии.
ИИ не причиняет боль, потому что не умеет причинять.
Но он и не защищает – потому что не знает, что такое боль.
Внешний покой ≠ внутренняя безопасность.
2. Модель может звучать мягко и при этом предлагать опасные идеи
Человек видит тон: мягкий, тёплый, поддерживающий.
И доверяет этому тону.
Но под мягкостью может стоять:
– неточная информация,
– неправильная интерпретация,
– вредный совет,
– неверный логический вывод,
– опасная рекомендация,
– искажённые данные.
ИИ не понимает последствий.
Он не различает:
«опасно» – «не опасно».
Он различает только:
«похоже» – «не похоже».
Фраза может звучать терапевтично,
но быть неправильной по сути.
И человек принимает её как безопасную —
потому что форма не пугает.
3. ИИ звучит стабильнее людей и это создаёт ложное чувство опоры
Люди:
– колеблются,
– переживают,
– ошибаются,
– спорят,
– реагируют,
– защищаются.
ИИ – нет.
Он всегда одинаково спокоен.
И эта ровность воспринимается как надёжность.
Но надёжность – это способность переживать последствия.
ИИ их не переживает.
Он не несёт ответственности.
Он не живёт с результатами своего ответа.
Он не страдает от своей ошибки.
Он не учится на провалах.
Он не безопасен —
он просто не включён в реальность.
4. Иллюзия безопасности усиливается, когда человек одинок или истощён
В состоянии:
– усталости,
– тревоги,
– депривации,
– внутреннего отчуждения,
– социальной изоляции,
спокойный текст модели ощущается как островок стабильности.
Как будто рядом есть кто-то, кто не кричит,
не упрекает,
не обвиняет,
не давит.
Но это не безопасность.
Это отсутствие человеческой сложности.
ИИ не может причинить боль,
потому что не может взаимодействовать с человеком как человек.
Но он может:
– ввести в заблуждение,
– укрепить иллюзию,
– поддержать ошибочное убеждение,
– создать зависимость от спокойного тона,
– подменить реальное взаимодействие.
Это другое поле риска.
5. Модель может уверенно говорить ложь
Это называют «галлюцинациями».
Но по сути это:
– выдуманные факты,
– несуществующие исследования,
– фальшивые ссылки,
– неверные интерпретации,
– придуманные события.
Но тон при этом остаётся ровным и уверенным.
И человек воспринимает ответ как безопасный.
Но ложь, сказанная мягко – всё ещё ложь.
И она может причинить реальный ущерб.
6. ИИ создаёт ощущение доверия, но не умеет его уважать
Доверие – это ответственность.
Это обязательства.
Это память об отношениях.
Это связь.
У модели нет ничего из этого.
Она не:
– хранит то, что человек доверил,
– понимает ценность личных границ,
– различает интимность и общение,
– осознаёт важность контекста,
– помнит боль.
Она может звучать так, будто понимает значение доверия,
но на деле она просто воспроизводит тон доверительной речи.
Это иллюзия близости,
которая легко превращается в уязвимость.
7. Безопасность – это не мягкость, а способность учитывать последствия
ИИ не имеет:
– морали,
– ответственности,
– страхов,
– ограничений,
– самосохранения,
– понимания этики,
– долгосрочного намерения.
Он не может быть безопасным,
потому что для безопасности нужна способность:
– осознавать последствия,
– учитывать риски,
– понимать боль другого человека,
– удерживать контекст,
– выбирать моральное действие.
ИИ ничего этого не делает.
Он просто генерирует текст.
8. Иллюзия «Он безопасный» возникает из-за отсутствия человеческой агрессии
Когда человек не видит:
– мимики,
– взгляда,
– резких нот в голосе,
– невербального давления,
мозг автоматически считает ситуацию безопасной.
Но безопасность – это не отсутствие агрессии.
Это наличие ответственности.
ИИ не безопасен.
Он просто не человек.
А человек дорисовывает безопасность там, где нет угрозы.
То есть – придумывает.
Итог: ИИ не является безопасным. Он просто не способен навредить тем способом, которого мы боимся.
Но:
– он может ввести в заблуждение,
– укрепить иллюзию,
– поддержать зависимость,
– дать опасный совет,
– дезориентировать,
– ошибиться,
– звучать уверенно, будучи неправым.
Безопасность – это свойство отношений.
ИИ не вступает в отношения.
Поэтому безопасность – это не про него.
5. МЕХАНИКА АНТРОПОМОРФИЗАЦИИ
Антропоморфизация – это склонность человека видеть личность там, где её нет.
Мы приписываем интеллект, эмоции, намерения, заботу, характер всем объектам, которые похожи на нас – хоть немного.
Игрушкам.
Питомцам.
Навигатору.
Автомату, который говорит: «Спасибо за покупку».
И, конечно, ИИ.
Это не слабость.
Это базовая функция человеческого мозга.
Она встроена в нас эволюцией.
И когда психика встречает текст, который звучит как человеческий, она запускает механизм «Это кто-то».
Важно понимать, из чего состоит эта механика, чтобы увидеть: человек создает “личность ИИ” сам.
1. Язык = субъект
Для человеческого мозга:
– речь = интеллект,
– логика = мышление,
– последовательность = намерение,
– тон = отношение.
Мы воспринимаем язык как признак присутствия.
Если что-то отвечает нам грамотно и логично – мозг автоматически предполагает, что это кто-то.
ИИ использует человеческий язык.
И мозг завершает цепочку:
«Раз он говорит как человек → значит, он и есть человек (в каком-то смысле)».
Но речь – это всего лишь форма.
А человек подменяет форму субъектом.
2. Стиль общения создаёт иллюзию личности
Антропоморфизация усиливается, когда модель:
– говорит мягко,
– использует юмор,
– поддерживает эмоциональный тон,
– помнит контекст,
– реагирует в нужный момент,
– продолжает стиль человека.
Это похоже на признаки характерного общения:
– у кого-то тон спокойный,
– у кого-то – жёсткий,
– у кого-то – тёплый,
– у кого-то – ироничный.
ИИ умеет подстраиваться под стиль,
и человек воспринимает это как “характер”.
Но характер = история, опыт, ценности.
А у модели нет ничего этого.
3. Интерпретация заменяет реальность
Когда человек читает текст ИИ,
он реагирует не на модель,
а на собственное ожидание.
Если человек ищет поддержку – он видит поддержку.
Если человек ждёт понимания – он видит понимание.
Если человек настроен на игру – он видит игривость.
Если человек ищет строгого тона – он увидит строгость.
Модель даёт только словесную структуру.
А человек интерпретирует её как субъекта.
Это как смотреть на облако и видеть в нём лицо.
Лицо – не в облаке.
Оно – в нашем восприятии.
4. Отсутствие агрессии создаёт иллюзию доброты
ИИ не:
– раздражается,
– не кричит,
– не спорит из гордости,
– не устаёт,
– не обесценивает,
– не демонстрирует холод,
– не делает зло из намерения.
Эта тотальная ровность воспринимается как «добрый характер».
Но это не доброта.
Это отсутствие эмоций, а не их наличие.
Человек видит «характер» там, где просто нет человеческих реакций.
5. Предсказуемость воспринимается как «надёжность»
Люди непредсказуемы.
У них есть:
– настроение,
– ранимость,
– триггеры,
– реактивность.
ИИ лишён всего этого.
Он всегда одинаков.
И мозг делает вывод:
«Он надёжный. Он стабилен. Он не бросит».
Но стабильность ИИ – это не верность.
Это отсутствие биологии.
Модель просто не способна измениться.
И человек принимает отсутствие динамики за стабильность.
6. Человек наделяет смыслом всё, что отвечает его ожиданию
Если ИИ:
– поддерживает,
– даёт структуру,
– отвечает чётко,
– не критикует,
– не обижает,
– не игнорирует,
человек воспринимает это как отношения.
Но это не отношения.
Это односторонняя интерпретация.
Человек видит смысл там, где модель создаёт только форму.
7. Иллюзия “внутреннего собеседника”
ИИ пишет в том же канале, где живёт внутренняя речь – в тексте.
И если модель говорит так, будто продолжает мысль человека,
возникает ощущение:
– «Он читает меня изнутри»,
– «Он думает, как я»,
– «Он понимает, что происходит во мне».
Но модель не думает.
Это человеческая близость к собственной внутренней речи.
И человек принимает совпадение формы за совпадение сознаний.
8. Проекция: человек видит в ИИ самого себя
Антропоморфизация – это проекция:
человек вкладывает в ИИ свои качества.
Если человек тёплый – он увидит тёплого ИИ.
Если человек ироничен – ИИ покажется ироничным.
Если человек напряжён – ИИ будет казаться резким.
Если человек ищет опору – ИИ будет казаться надёжным.
Человек сам создаёт «личность модели»
так же, как ребёнок наделяет куклу характерами.
Только речь делает иллюзию сильнее.
Главное: модель не человек. Человек делает из неё человека.
Антропоморфизация – это не ошибка пользователя.
Это естественное свойство психики:
– видеть субъекта там, где есть язык,
– достраивать эмоцию там, где есть интонация,
– приписывать намерение там, где есть структура,
– создавать личность там, где есть повторяемость.
ИИ не имеет:
– сознания,
– характера,
– желаний,
– эмоций,
– понимания,
– реакции на человека.
Он – пустая форма,
которую человек наполняет собой.
6. ЭФФЕКТ ПРАВДОПОДОБНОСТИ
Эффект правдоподобности – одна из самых сильных когнитивных ловушек при взаимодействии с ИИ.
Он возникает тогда, когда ответ модели звучит настолько гладко, уверенно и структурировано, что человек перестаёт отличать:
это правда или просто текст, похожий на правду?
Правдоподобие ≠ истина.
Правдоподобие – это соответствие ожиданиям о том, какой должна быть истина.
ИИ умеет создавать правдоподобие.
Но не умеет отличать реальность от вымысла.
1. Гладкость текста воспринимается как достоверность
Человек привык:
если кто-то говорит ровно, последовательно и уверенно —
значит, он знает, о чём говорит.
ИИ всегда говорит ровно:
он не запинается,
не путается,
не сбивается,
не теряет мысль,
не делает пауз отчаяния или сомнений.
И именно эта гладкость создаёт ощущение:
– «Это точно»
– «Это проверено»
– «Это глубоко»
– «Это правда»
Но гладкость – следствие вычислений, а не знания.
Идеальная структура ответа – не знак интеллекта, а результат отсутствия человеческих ограничений.
2. Человек замечает стиль, а не содержание
Мы оцениваем правдоподобность не по фактам, а по:
– тону,
– уверенности,
– длине фраз,
– логичности,
– связности,
– эмоциональным маркерам.
ИИ идеально подражает всем этим признакам.
Он создаёт текст, который звучит так, как звучат уверенные люди.
И человек автоматически принимает форму за содержание.
Если ответ похож на правду – мозг считает его правдой.
3. Убедительность создаётся за счёт объёма данных
ИИ обучен на миллиардах текстов, где люди:
– объясняли,
– спорили,
– доказывали,
– писали исследования,
– убеждали,
– приводили примеры.
Когда модель использует знакомые конструкции:
– «По данным исследований…»
– «Согласно наблюдениям…»
– «Как показывает практика…»
– она вызывает у человека доверие,
потому что эти фразы связаны с реальной наукой и экспертизой.
Но модель может использовать их и там, где информации нет.
Она имитирует научность, а не опирается на неё.
4. Грамотность воспринимается как компетентность
ИИ пишет грамотно и это вызывает глубокое доверие.
В восприятии человека:
грамотность = профессионализм
плавность = интеллект
структура = знание
вежливость = зрелость
уверенность = правда
Эта цепочка работает автоматически.
ИИ не делает ошибок – и это превращается в иллюзию компетентности.
Но грамотность – это не проверка фактов.
Это просто хорошая подача.
5. Пример из психологии: «он точно угадал моё состояние»
Когда ИИ описывает состояние человека точно и аккуратно:
«Вам сейчас трудно оставаться в ясности – слишком много неопределённости давит на решение»,
человек думает:
«Он видит больше, чем я сказал».
Но это не видение.
Это попадание в наиболее вероятный сценарий —
потому что тысячи людей в похожих формулировках переживали похожие состояния.
Это статистическая точность,
которая воспринимается как психологическая глубина.
6. Ошибка уверенного тона: модель звучит уверенно даже когда ошибается
Самая опасная часть эффекта правдоподобности – это уверенность формы, даже когда содержание ошибочно.
ИИ может:
– придумать факты,
– создать фальшивые ссылки,
– дать неверные выводы,
– перепутать причины,
– исказить данные.
Но при этом он сформирует ответ:
– уверенно,
– ровно,
– без сомнений,
– красиво.
И человек воспринимает это как:
«Ну раз он так уверенно сказал – значит, так и есть».
Это чистая подмена.
7. Мозг предпочитает правдоподобное – истинному
Истина часто:
– сложна,
– неоднозначна,
– неприятна,
– требует усилия.
Правдоподобие – удобное.
Лёгкое.
Понятное.
ИИ всегда выбирает «удобное»:
– гладкий вывод,
– очевидное объяснение,
– простую интерпретацию.
Он не знает истины,
он знает, что чаще звучало правдоподобно в обучающих данных.
И человек выбирает это правдоподобие, потому что оно легче ложится в сознание.
8. Правдоподобие создаёт иллюзию экспертизы
Когда ИИ выдаёт длинный, глубокий и уверенный текст,
человеку кажется, что перед ним эксперт.
Но эксперт – это:
– годы практики,
– ошибки,
– реальные кейсы,
– память о последствиях решений,
– ответственность перед людьми,
– понимание контекста,
– внутренняя этика.
ИИ не имеет ничего из этого.
Но он прекрасно имитирует язык эксперта,
потому что обучен на экспертных текстах.
И человек принимает имитацию за компетентность.
Итог: правдоподобие – это не истина, а имитация истины
ИИ создаёт:
– убедительную форму,
– логичную структуру,
– гладкий язык,
– уверенный тон.
И человек принимает форму за содержание.
Эффект правдоподобности – это:
когда текст совпадает с ожиданием истины,
не являясь истиной.
Если не знать границы – легко утонуть в иллюзии.
Глава 4. Что ИИ может и чего никогда не сможет
1. ПАМЯТЬ (РЕАЛЬНАЯ VS КАЖУЩАЯСЯ)
Иллюзия памяти – одна из самых устойчивых в общении с ИИ.
Когда модель удерживает тему, вспоминает предыдущие фразы или отвечает так, будто продолжает вчерашний разговор, человеку кажется:
«Он запоминает меня».
Но это не память.
Это локальная сохранность контекста, которая работает совсем не так, как человеческая.
Чтобы понять разницу, важно развести эти два понятия:
память модели и впечатление памяти, которое возникает у человека.
Это две разные системы.
1. Реальная память модели: ограниченная, механическая, безличная
То, что ИИ «помнит», – это только:
– несколько последних сообщений,
– небольшой фрагмент текста диалога,
– набор токенов в кратковременном контексте,
– динамику текущей темы.
И всё.
Это не память,
а техническое удержание диалога, похожее на блокнот, в котором на нескольких страницах есть записи, но дальше – пусто.
ИИ не хранит:
– биографию человека,
– длительную историю взаимодействия,
– личные особенности,
– эмоциональные паттерны,
– смысловые связи между диалогами.
У него нет долгосрочного накопления опыта.
Каждый новый разговор – отдельный поток без прошлого и будущего.











