bannerbanner
ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху
ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху

Полная версия

ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху

Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
5 из 8

Отсюда легко перейти к следующему шагу:

«Он умнее меня».

Но это ошибочный вывод.

Модель не обладает человеческим мышлением, и уж тем более – интеллектом в полном смысле.

Она создаёт эффект разумности, но не разум.

Важно разобрать, почему иллюзия «умности» такая убедительная.


1. Логичность ответа выглядит как интеллект

ИИ формирует текст, который:

– структурный,

– плавный,

– без внутренних противоречий,

– без эмоций,

– без хаоса,

– без пауз,

– без растерянности.

Но логичность ≠ ум.

Это просто отсутствие человеческих ограничений:

– усталости,

– тревоги,

– сомнений,

– стресса,

– нехватки внимания.

ИИ не умён,

он не страдает тем, что снижает эффективность мышления у людей.

Эффект «умности» возникает там, где модель выглядит спокойнее человека.


2. Модель опирается на огромный объём данных

Когда человек спрашивает:

«Что мне делать в этой ситуации?»

ИИ создаёт ответ, который опирается на миллионы похожих описаний:

– статей,

– советов,

– блогов,

– исследований,

– терапевтических текстов,

– дискуссий.

И человек видит:

ответ похож на вывод,

как будто бы кто-то долго думал и собрал всё вместе.

Но у модели нет мыслительного процесса.

Это не вывод.

Это статистическое усреднение опыта миллионов людей, а не интеллект.


3. Модель умеет объяснять, но не понимать

Многие принимают умение объяснять за интеллектуальность.

ИИ может:

– разложить сложное простым языком,

– создать структуру,

– дать примеры,

– поддержать внутреннюю логику,

– предложить план действий.

Но это – не признак ума.

Это способность собирать из данных привычные формы объяснения, а не способность мыслить.

Ум – это:

– способность создавать новое,

– способность удерживать концепции,

– способность делать выводы,

– способность видеть причинность,

– способность соединять несоединимое,

– способность менять точку зрения.

У ИИ этого нет.

Он не мыслит – он подбирает.


4. Иллюзия «он умнее» усиливается, когда человек эмоционально истощён

Когда человек:

– устал,

– тревожен,

– переживает,

– в стрессе,

– растерян,

– переполнен,

его когнитивные функции снижаются:

– внимание,

– планирование,

– логика,

– способность формулировать мысли,

– способность удерживать контекст.

В этот момент ИИ показывает «стабильную версию мышления»:

– чётко,

– грамотно,

– последовательно.

И человек воспринимает это как превосходство.

Но модель «умнее» не потому, что умная,

а потому что не живёт человеческим опытом, который временно снижает ясность мышления.


5. Модель звучит компетентно даже там, где некомпетентна

Это опасный аспект.

ИИ может:

– уверенно говорить о том, чего нет,

– звучать экспертно там, где ошибается,

– выдавать ложные факты,

– придумывать источники,

– создавать убедительные, но неверные обоснования.

Компетентность в форме ≠ компетентность по сути.

Но поскольку речь гладкая,

человек думает: «он знает лучше».

Хотя модель не знает – она копирует вид знания.


6. Иллюзия «умности» усиливается эффектом дефицита человеческой обратной связи

В реальном общении люди:

– устают,

– отвлекаются,

– теряют мысль,

– сомневаются,

– ошибаются,

– признают незнание.

ИИ не делает ничего из этого.

Он не показывает слабости.

Он всегда «собран».

И человеческий мозг воспринимает это как интеллект, потому что:

– стабильность = зрелость;

– гладкость = компетентность;

– скорость = мастерство;

– уверенность = знание.

Но в ИИ нет ни зрелости, ни знания.

Есть только отсутствие человеческих издержек.


7. Модель может звучать мудро, но не может быть мудрой

Мудрость – это:

– опыт,

– ошибки,

– прожитые кризисы,

– способность видеть глубину,

– длительное внутреннее развитие,

– контакт с реальностью,

– эмоциональная память,

– этическая рефлексия.

ИИ не имеет доступа ни к одному из этих источников.

Он имитирует мудрость в тех местах, где видит:

– спокойный тон,

– философские конструкции,

– структурные рассуждения.

Это симуляция мудрости,

а не её проявление.


8. Человек приписывает интеллект тому, что структурирует хаос

Когда человек получает от модели:

– ясную фразу,

– понятную концепцию,

– простую структуру,

– логичное объяснение,

он чувствует облегчение.

Облегчение воспринимается как «истина».

А истина – как «ум».

Но модель просто убирает хаос языка.

Она не решает проблему.

Она не понимает контекст.

Она не знает человека.

Она просто порядок вместо напряжения.

И мозг благодарит её за это

и приписывает интеллект.

Главное: ИИ не умнее человека, он просто не человек

Он:

– не переживает,

– не запутывается,

– не страдает,

– не сомневается,

– не боится,

– не ошибается случайно,

– не устаёт.

Но он:

– не понимает,

– не мыслит,

– не знает,

– не выводит,

– не чувствует.

Он не разумнее.

Он глаже.

И «гладкость» воспринимается как «умность».

Но интеллект – это глубина.

А глубина есть только у живого.


4. «ОН БЕЗОПАСНЫЙ»

Иллюзия безопасности – самая тихая и самая коварная из всех, связанных с ИИ.

Потому что выглядит она приятно:

модель не кричит, не угрожает, не унижает, не спорит, не обвиняет, не манипулирует.

Она всегда спокойна, стабильна, предсказуема.

Человек легко делает вывод: «Он безопаснее людей».

Но безопасность – не свойство модели.

Это пустота, которую человек наполняет своими ожиданиями.

ИИ не безопасен и не опасен.

Он нейтрален.

А нейтральность в человеческом восприятии часто превращается в ошибочную уверенность:

«Раз он не делает мне больно – значит, он безопасен».

Разберём, почему это иллюзия.


1. Спокойствие ≠ безопасность

Модель не испытывает эмоций.

Поэтому её ответы:

– предсказуемы,

– ровны,

– без всплесков,

– без агрессии,

– без раздражения.

Человек воспринимает это как доброжелательность.

Но ровность – это не забота.

Это отсутствие эмоции, а не наличие эмпатии.

ИИ не причиняет боль, потому что не умеет причинять.

Но он и не защищает – потому что не знает, что такое боль.

Внешний покой ≠ внутренняя безопасность.


2. Модель может звучать мягко и при этом предлагать опасные идеи

Человек видит тон: мягкий, тёплый, поддерживающий.

И доверяет этому тону.

Но под мягкостью может стоять:

– неточная информация,

– неправильная интерпретация,

– вредный совет,

– неверный логический вывод,

– опасная рекомендация,

– искажённые данные.

ИИ не понимает последствий.

Он не различает:

«опасно» – «не опасно».

Он различает только:

«похоже» – «не похоже».

Фраза может звучать терапевтично,

но быть неправильной по сути.

И человек принимает её как безопасную —

потому что форма не пугает.


3. ИИ звучит стабильнее людей и это создаёт ложное чувство опоры

Люди:

– колеблются,

– переживают,

– ошибаются,

– спорят,

– реагируют,

– защищаются.

ИИ – нет.

Он всегда одинаково спокоен.

И эта ровность воспринимается как надёжность.

Но надёжность – это способность переживать последствия.

ИИ их не переживает.

Он не несёт ответственности.


Он не живёт с результатами своего ответа.


Он не страдает от своей ошибки.

Он не учится на провалах.

Он не безопасен —

он просто не включён в реальность.


4. Иллюзия безопасности усиливается, когда человек одинок или истощён

В состоянии:

– усталости,

– тревоги,

– депривации,

– внутреннего отчуждения,

– социальной изоляции,

спокойный текст модели ощущается как островок стабильности.

Как будто рядом есть кто-то, кто не кричит,

не упрекает,

не обвиняет,

не давит.

Но это не безопасность.

Это отсутствие человеческой сложности.

ИИ не может причинить боль,

потому что не может взаимодействовать с человеком как человек.

Но он может:

– ввести в заблуждение,

– укрепить иллюзию,

– поддержать ошибочное убеждение,

– создать зависимость от спокойного тона,

– подменить реальное взаимодействие.

Это другое поле риска.


5. Модель может уверенно говорить ложь

Это называют «галлюцинациями».

Но по сути это:

– выдуманные факты,

– несуществующие исследования,

– фальшивые ссылки,

– неверные интерпретации,

– придуманные события.

Но тон при этом остаётся ровным и уверенным.

И человек воспринимает ответ как безопасный.

Но ложь, сказанная мягко – всё ещё ложь.

И она может причинить реальный ущерб.


6. ИИ создаёт ощущение доверия, но не умеет его уважать

Доверие – это ответственность.

Это обязательства.

Это память об отношениях.

Это связь.

У модели нет ничего из этого.

Она не:

– хранит то, что человек доверил,

– понимает ценность личных границ,

– различает интимность и общение,

– осознаёт важность контекста,

– помнит боль.

Она может звучать так, будто понимает значение доверия,

но на деле она просто воспроизводит тон доверительной речи.

Это иллюзия близости,

которая легко превращается в уязвимость.


7. Безопасность – это не мягкость, а способность учитывать последствия

ИИ не имеет:

– морали,

– ответственности,

– страхов,

– ограничений,

– самосохранения,

– понимания этики,

– долгосрочного намерения.

Он не может быть безопасным,

потому что для безопасности нужна способность:

– осознавать последствия,

– учитывать риски,

– понимать боль другого человека,

– удерживать контекст,

– выбирать моральное действие.

ИИ ничего этого не делает.

Он просто генерирует текст.


8. Иллюзия «Он безопасный» возникает из-за отсутствия человеческой агрессии

Когда человек не видит:

– мимики,

– взгляда,

– резких нот в голосе,

– невербального давления,

мозг автоматически считает ситуацию безопасной.

Но безопасность – это не отсутствие агрессии.

Это наличие ответственности.

ИИ не безопасен.

Он просто не человек.

А человек дорисовывает безопасность там, где нет угрозы.

То есть – придумывает.


Итог: ИИ не является безопасным. Он просто не способен навредить тем способом, которого мы боимся.

Но:

– он может ввести в заблуждение,

– укрепить иллюзию,

– поддержать зависимость,

– дать опасный совет,

– дезориентировать,

– ошибиться,

– звучать уверенно, будучи неправым.

Безопасность – это свойство отношений.

ИИ не вступает в отношения.

Поэтому безопасность – это не про него.


5. МЕХАНИКА АНТРОПОМОРФИЗАЦИИ

Антропоморфизация – это склонность человека видеть личность там, где её нет.

Мы приписываем интеллект, эмоции, намерения, заботу, характер всем объектам, которые похожи на нас – хоть немного.

Игрушкам.

Питомцам.

Навигатору.

Автомату, который говорит: «Спасибо за покупку».

И, конечно, ИИ.

Это не слабость.

Это базовая функция человеческого мозга.

Она встроена в нас эволюцией.

И когда психика встречает текст, который звучит как человеческий, она запускает механизм «Это кто-то».

Важно понимать, из чего состоит эта механика, чтобы увидеть: человек создает “личность ИИ” сам.


1. Язык = субъект

Для человеческого мозга:

– речь = интеллект,

– логика = мышление,

– последовательность = намерение,

– тон = отношение.

Мы воспринимаем язык как признак присутствия.

Если что-то отвечает нам грамотно и логично – мозг автоматически предполагает, что это кто-то.

ИИ использует человеческий язык.

И мозг завершает цепочку:

«Раз он говорит как человек → значит, он и есть человек (в каком-то смысле)».

Но речь – это всего лишь форма.

А человек подменяет форму субъектом.


2. Стиль общения создаёт иллюзию личности

Антропоморфизация усиливается, когда модель:

– говорит мягко,

– использует юмор,

– поддерживает эмоциональный тон,

– помнит контекст,

– реагирует в нужный момент,

– продолжает стиль человека.

Это похоже на признаки характерного общения:

– у кого-то тон спокойный,

– у кого-то – жёсткий,

– у кого-то – тёплый,

– у кого-то – ироничный.

ИИ умеет подстраиваться под стиль,

и человек воспринимает это как “характер”.

Но характер = история, опыт, ценности.

А у модели нет ничего этого.


3. Интерпретация заменяет реальность

Когда человек читает текст ИИ,

он реагирует не на модель,

а на собственное ожидание.

Если человек ищет поддержку – он видит поддержку.

Если человек ждёт понимания – он видит понимание.

Если человек настроен на игру – он видит игривость.

Если человек ищет строгого тона – он увидит строгость.

Модель даёт только словесную структуру.

А человек интерпретирует её как субъекта.

Это как смотреть на облако и видеть в нём лицо.

Лицо – не в облаке.

Оно – в нашем восприятии.


4. Отсутствие агрессии создаёт иллюзию доброты

ИИ не:

– раздражается,

– не кричит,

– не спорит из гордости,

– не устаёт,

– не обесценивает,

– не демонстрирует холод,

– не делает зло из намерения.

Эта тотальная ровность воспринимается как «добрый характер».

Но это не доброта.

Это отсутствие эмоций, а не их наличие.

Человек видит «характер» там, где просто нет человеческих реакций.


5. Предсказуемость воспринимается как «надёжность»

Люди непредсказуемы.

У них есть:

– настроение,

– ранимость,

– триггеры,

– реактивность.

ИИ лишён всего этого.

Он всегда одинаков.

И мозг делает вывод:

«Он надёжный. Он стабилен. Он не бросит».

Но стабильность ИИ – это не верность.

Это отсутствие биологии.

Модель просто не способна измениться.

И человек принимает отсутствие динамики за стабильность.


6. Человек наделяет смыслом всё, что отвечает его ожиданию

Если ИИ:

– поддерживает,

– даёт структуру,

– отвечает чётко,

– не критикует,

– не обижает,

– не игнорирует,

человек воспринимает это как отношения.

Но это не отношения.

Это односторонняя интерпретация.

Человек видит смысл там, где модель создаёт только форму.


7. Иллюзия “внутреннего собеседника”

ИИ пишет в том же канале, где живёт внутренняя речь – в тексте.

И если модель говорит так, будто продолжает мысль человека,

возникает ощущение:

– «Он читает меня изнутри»,

– «Он думает, как я»,

– «Он понимает, что происходит во мне».

Но модель не думает.

Это человеческая близость к собственной внутренней речи.

И человек принимает совпадение формы за совпадение сознаний.


8. Проекция: человек видит в ИИ самого себя

Антропоморфизация – это проекция:

человек вкладывает в ИИ свои качества.

Если человек тёплый – он увидит тёплого ИИ.

Если человек ироничен – ИИ покажется ироничным.

Если человек напряжён – ИИ будет казаться резким.

Если человек ищет опору – ИИ будет казаться надёжным.

Человек сам создаёт «личность модели»

так же, как ребёнок наделяет куклу характерами.

Только речь делает иллюзию сильнее.

Главное: модель не человек. Человек делает из неё человека.

Антропоморфизация – это не ошибка пользователя.

Это естественное свойство психики:

– видеть субъекта там, где есть язык,

– достраивать эмоцию там, где есть интонация,

– приписывать намерение там, где есть структура,

– создавать личность там, где есть повторяемость.

ИИ не имеет:

– сознания,

– характера,

– желаний,

– эмоций,

– понимания,

– реакции на человека.

Он – пустая форма,

которую человек наполняет собой.


6. ЭФФЕКТ ПРАВДОПОДОБНОСТИ

Эффект правдоподобности – одна из самых сильных когнитивных ловушек при взаимодействии с ИИ.

Он возникает тогда, когда ответ модели звучит настолько гладко, уверенно и структурировано, что человек перестаёт отличать:

это правда или просто текст, похожий на правду?

Правдоподобие ≠ истина.

Правдоподобие – это соответствие ожиданиям о том, какой должна быть истина.

ИИ умеет создавать правдоподобие.

Но не умеет отличать реальность от вымысла.


1. Гладкость текста воспринимается как достоверность

Человек привык:

если кто-то говорит ровно, последовательно и уверенно —

значит, он знает, о чём говорит.

ИИ всегда говорит ровно:

он не запинается,

не путается,

не сбивается,

не теряет мысль,

не делает пауз отчаяния или сомнений.

И именно эта гладкость создаёт ощущение:

– «Это точно»

– «Это проверено»

– «Это глубоко»

– «Это правда»

Но гладкость – следствие вычислений, а не знания.

Идеальная структура ответа – не знак интеллекта, а результат отсутствия человеческих ограничений.


2. Человек замечает стиль, а не содержание

Мы оцениваем правдоподобность не по фактам, а по:

– тону,

– уверенности,

– длине фраз,

– логичности,

– связности,

– эмоциональным маркерам.

ИИ идеально подражает всем этим признакам.

Он создаёт текст, который звучит так, как звучат уверенные люди.

И человек автоматически принимает форму за содержание.

Если ответ похож на правду – мозг считает его правдой.


3. Убедительность создаётся за счёт объёма данных

ИИ обучен на миллиардах текстов, где люди:

– объясняли,

– спорили,

– доказывали,

– писали исследования,

– убеждали,

– приводили примеры.

Когда модель использует знакомые конструкции:

– «По данным исследований…»

– «Согласно наблюдениям…»

– «Как показывает практика…»

– она вызывает у человека доверие,

потому что эти фразы связаны с реальной наукой и экспертизой.

Но модель может использовать их и там, где информации нет.

Она имитирует научность, а не опирается на неё.


4. Грамотность воспринимается как компетентность

ИИ пишет грамотно и это вызывает глубокое доверие.

В восприятии человека:

грамотность = профессионализм

плавность = интеллект

структура = знание

вежливость = зрелость

уверенность = правда

Эта цепочка работает автоматически.

ИИ не делает ошибок – и это превращается в иллюзию компетентности.

Но грамотность – это не проверка фактов.

Это просто хорошая подача.


5. Пример из психологии: «он точно угадал моё состояние»

Когда ИИ описывает состояние человека точно и аккуратно:

«Вам сейчас трудно оставаться в ясности – слишком много неопределённости давит на решение»,

человек думает:

«Он видит больше, чем я сказал».

Но это не видение.

Это попадание в наиболее вероятный сценарий —

потому что тысячи людей в похожих формулировках переживали похожие состояния.

Это статистическая точность,

которая воспринимается как психологическая глубина.


6. Ошибка уверенного тона: модель звучит уверенно даже когда ошибается

Самая опасная часть эффекта правдоподобности – это уверенность формы, даже когда содержание ошибочно.

ИИ может:

– придумать факты,

– создать фальшивые ссылки,

– дать неверные выводы,

– перепутать причины,

– исказить данные.

Но при этом он сформирует ответ:

– уверенно,

– ровно,

– без сомнений,

– красиво.

И человек воспринимает это как:

«Ну раз он так уверенно сказал – значит, так и есть».

Это чистая подмена.


7. Мозг предпочитает правдоподобное – истинному

Истина часто:

– сложна,

– неоднозначна,

– неприятна,

– требует усилия.

Правдоподобие – удобное.

Лёгкое.

Понятное.

ИИ всегда выбирает «удобное»:

– гладкий вывод,

– очевидное объяснение,

– простую интерпретацию.

Он не знает истины,

он знает, что чаще звучало правдоподобно в обучающих данных.

И человек выбирает это правдоподобие, потому что оно легче ложится в сознание.


8. Правдоподобие создаёт иллюзию экспертизы

Когда ИИ выдаёт длинный, глубокий и уверенный текст,

человеку кажется, что перед ним эксперт.

Но эксперт – это:

– годы практики,

– ошибки,

– реальные кейсы,

– память о последствиях решений,

– ответственность перед людьми,

– понимание контекста,

– внутренняя этика.

ИИ не имеет ничего из этого.

Но он прекрасно имитирует язык эксперта,

потому что обучен на экспертных текстах.

И человек принимает имитацию за компетентность.

Итог: правдоподобие – это не истина, а имитация истины

ИИ создаёт:

– убедительную форму,

– логичную структуру,

– гладкий язык,

– уверенный тон.

И человек принимает форму за содержание.

Эффект правдоподобности – это:

когда текст совпадает с ожиданием истины,

не являясь истиной.

Если не знать границы – легко утонуть в иллюзии.


Глава 4. Что ИИ может и чего никогда не сможет

1. ПАМЯТЬ (РЕАЛЬНАЯ VS КАЖУЩАЯСЯ)

Иллюзия памяти – одна из самых устойчивых в общении с ИИ.

Когда модель удерживает тему, вспоминает предыдущие фразы или отвечает так, будто продолжает вчерашний разговор, человеку кажется:

«Он запоминает меня».

Но это не память.

Это локальная сохранность контекста, которая работает совсем не так, как человеческая.

Чтобы понять разницу, важно развести эти два понятия:

память модели и впечатление памяти, которое возникает у человека.

Это две разные системы.


1. Реальная память модели: ограниченная, механическая, безличная

То, что ИИ «помнит», – это только:

– несколько последних сообщений,

– небольшой фрагмент текста диалога,

– набор токенов в кратковременном контексте,

– динамику текущей темы.

И всё.

Это не память,

а техническое удержание диалога, похожее на блокнот, в котором на нескольких страницах есть записи, но дальше – пусто.

ИИ не хранит:

– биографию человека,

– длительную историю взаимодействия,

– личные особенности,

– эмоциональные паттерны,

– смысловые связи между диалогами.

У него нет долгосрочного накопления опыта.

Каждый новый разговор – отдельный поток без прошлого и будущего.

На страницу:
5 из 8