
Полная версия
Выйти из секты. Механизмы манипуляции, контроль мышления и возвращение свободы
3. «Есть всего три причины, которые могут помешать окружающим разделить мои взгляды:
a) они получили иную информацию, чем я (в этом случае, если они достаточно вдумчивы и непредвзяты, то обмен информацией приведет нас к достижению согласия);
b) они ленивы, иррациональны или по какой-то иной причине не могут или не хотят нормальным образом проследовать от объективных доказательств к обоснованным заключениям;
c) они предвзяты (или в интерпретации доказательств, или в следовании от доказательств к заключениям) из-за их идеологии, личных интересов или из-за иных искажающих личностных влияний».
Именно наивный реализм – это базовая предпосылка для множества когнитивных искажений и ошибок восприятия, а следовательно, всевозможных заблуждений, в том числе религиозных. Поговорим о них подробнее.
Когнитивные ошибки и сектантское мышление
Существует огромное множество идей нетрадиционной религиозности, но в основе большинства из них лежат одни и те же типичные ошибки мышления и восприятия. Для эффективной критики сектантских убеждений важно отчетливо понимать, какие именно ошибки за ними стоят. Их можно сгруппировать в четыре категории:
1). ошибки восприятия и когнитивные искажения;
2). ошибки источника;
3). ошибки цитирования и работы с текстом;
4). ошибки аргументации и логики.
Ошибки восприятия и когнитивные искажения:
• Склонность к подтверждению или ошибка техасского стрелка заставляет отдавать предпочтение информации, которая подтверждает уже имеющиеся убеждения, и отбрасывать ту, которая им противоречит.
• Черно-белое мышление воспринимает мир с позиции «или/или», третьего не дано. Хорошо или плохо, правильно или неправильно, все или ничего. Оно не признает, что между черным и белым почти всегда можно обнаружить хотя бы несколько оттенков серого. Наше сознание не терпит неопределенности, потому что она порождает тревогу, и посему всегда пытается найти какой-то простой и конкретный ответ.
• Искажение в восприятии собственного выбора, в рамках которого мы задним числом приписываем положительные свойства выбранному варианту, не обращая внимания на его негативные стороны.
• Катастрофизация, то есть склонность преувеличивать вероятность негативного исхода событий и масштаб возможных последствий.
• Ошибка памяти человека, которая отличается своим несовершенством. Даже непосредственное участие в событии не гарантирует его полного понимания. Память социальна и избирательна: мы склонны запоминать то, что соответствует нашим ожиданиям и убеждениям. Поэтому личные свидетельства, даже если они кажутся достоверными, могут быть ненадежными.
• Криптомнезия – это состояние, при котором человек забывает источник информации, из-за чего чужие идеи, тексты, истории или события кажутся ему своими собственными.
• Иллюзия частотности, из-за которой, если мы недавно узнали что-то новое и затем столкнулись с этим снова, мы склонны считать, что это явление встречается повсеместно и происходит регулярно.
• Эффект Барнума заключается в том, что мы часто считаем обобщенные и расплывчатые утверждения о себе точными и глубоко личными. Так, например, люди узнают себя в астрологических прогнозах или обобщенных предсказаниях гадалок, которые подходят практически каждому.
• Феномен «каскада доступной информации» заключается в том, что повторяемые данные со временем начинают казаться более достоверными.
• Эффект подражания – это склонность людей верить информации, если ее разделяют многие. В некоторых религиозных движениях этот эффект усиливается за счет намеренного завышения числа членов организации или распространения ложных заявлений о популярности их убеждений среди миллионов людей.
• Гало-эффект – это когнитивное искажение, при котором общее положительное или отрицательное впечатление о человеке, предмете или событии влияет на восприятие его отдельных характеристик. Например, если мы считаем актера талантливым, то склонны предполагать, что он придерживается «правильных» взглядов или ценностей.
• Парейдолия – это зрительная иллюзия, при которой мозг самостоятельно создает образы на основе реальных, но нечетких и размытых объектов. Например, в очертаниях скалы или облака можно увидеть лицо человека или силуэт ангела.
• Апофения – это склонность находить смысл, структуру или закономерности в случайных или бессмысленных данных.
• Иллюзорная корреляция возникает, когда человек ошибочно связывает две переменные из-за предвзятости или предубеждений. Корреляция проявляется, например, в необоснованной симпатии к чему-то или кому-то только потому, что с ним уже был предварительный контакт.
• Иллюзия контроля – уверенность человека в способности влиять на события и явления, которые от него не зависят.
Ошибки источника:
• Создание и распространение якобы древних авторитетных религиозных текстов и манускриптов (яркий пример – «Велесова книга» и «Книга Мормона»).
• Использование действительно древних религиозных текстов для обоснования или развития новых сектантских учений (например, индуистский эпос «Бхагавад-гита» как основа учения Международного общества сознания Кришны).
• Использование некорректного перевода текста Священного Писания традиционной религии (как перевод «Нового мира» Библии от «Свидетелей Иеговы»*[23]).
• Совместное использование двух и более священных текстов разных традиционных религий (например, Библии и Корана, Библии и Вед) в качестве равноправных источников.
• Придание религиозного смысла нерелигиозным текстам, изображениям, цветам спектра, звукам и музыкальным произведениям, явлениям природы, животным и растениям, эмоциям человека и многому другому.
• Отказ от использования отдельных книг, глав или стихов из Священного Писания в качестве надежного и авторитетного источника информации.
• Возведение Библии или любого другого текста в ранг единственного и безошибочного источника информации по естественно-научным вопросам.
• Использование недостоверных, непроверенных источников, таких как материалы узкоспециализированных СМИ; личные переживания, видения, воспоминания, свидетельства, «жизненный опыт»; документы, достоверность которых вызывает сомнения или не может быть проверена.
• Использование нерепрезентативных и недостаточных источников для обоснования выводов и т. д.
Ошибки цитирования и работы с текстом:
• Искажение исходного текста.
• Неполное или выборочное цитирование.
• Игнорирование контекста цитаты.
• Перенос цитаты в чуждый контекст.
• Неправильное трактование смысла цитаты.
• Соединение цитат, не связанных между собой.
• Добавление информации, которой не было в исходном тексте.
• Замена буквального смысла цитаты на аллегорический и наоборот.
• «Ошибка очевидности» – приписывание цитатам «очевидных» и «несомненных» смыслов.
• Отрицание возможности альтернативных трактовок цитаты.
• Несуществующие ссылки или отсутствие точных ссылок на цитируемый источник, подтверждающих достоверность.
• Дайджест, то есть это краткий пересказ «самой сути» источника с искажениями смысла.
• Игнорирование данных историко-критического изучения священных текстов.
• Утверждение о существовании тайного кода, метода или системы прочтения священных текстов для раскрытия «истинного смысла».
Ошибки аргументации и логики:
• «Порочный круг» – тезис, который доказывается с помощью аргумента, истинность которого обосновывается с помощью доказываемого тезиса. Например, культ говорит: «Лидер – единственный непогрешимый проводник Божественной воли». Вопрос последователя: «Как мы можем быть в этом уверены?» Ответ: «Потому что он сам нам это открыл. А его откровение истинно, так как он – непогрешимый проводник».
• Предвосхищение основания или «телега впереди лошади» – доказываемая мысль, которая выводится сама из себя: за основание доказательства принимается то, что еще нужно доказать. Например, культ утверждает: «Читать критическую литературу о нашем Движении запрещено, потому что она содержит опасную ложь». Вопрос: «А как мы узнаем, что это ложь, если не можем ее прочитать и проверить?» Ответ: «Мы знаем, что это ложь, потому что наше Движение учит Истине, а все, что противоречит Истине, – ложь».
• Некорректно поставленный вопрос – вопрос, на который невозможно дать корректный ответ. Следовательно, любой ответ будет неверным. Пример: «Ты ощущаешь ту пустоту в душе, которую может заполнить только наша любящая духовная семья?» Любой ответ предполагает наличие «пустоты» и признает, что только группа может ее заполнить.
• Ложная дилемма – ошибка в рассуждении, при которой упускаются иные возможности, кроме двух рассматриваемых, одна из которых правильная, другая – нет. Пример: «Либо ты полностью с нами и обретаешь спасение, либо остаешься в гибнущем, греховном мире. Третьего не дано». Исключаются возможности: быть духовным вне группы, критически мыслить внутри нее и т. д.
• Ложная аналогия – некорректное сравнение двух категорий или объектов, которые не похожи по ключевым параметрам (теплое и мягкое). Например: «Наши духовные практики дисциплины могут быть болезненны, но это как горькое лекарство или хирургическая операция. Врач же не спрашивает пациента, как резать – он знает лучше. Так и мы лечим твою душу». В чем здесь ошибка? Настоящий врач действует в рамках доказательной медицины, этического кодекса, информированного согласия пациента и под надзором коллег. Лидер культа назначает себя «врачом души» без внешней аккредитации, не дает реального выбора и его «методы» не подвергаются объективной проверке на эффективность и вред.
• «Соломенное чучело» – это логическая ошибка, при которой оппонент искажает или преувеличивает аргументы своего противника, создавая карикатуру, которую легко атаковать и опровергнуть. Настоящая же позиция оппонента остается незатронутой. Например, вопрос покидающего группу: «Меня беспокоит финансовое давление и отсутствие приватности». Обращение лидера к другим: «Он говорит, что хочет вернуться к своему эгоистичному, греховному образу жизни, потому что не готов к самопожертвованию ради Истины». Искажение критики до легко осуждаемого морального порока.
• Апелляция к чувствам – обращение к эмоциям слушателя с целью вызвать у него реакцию и с ее помощью обосновать свою точку зрения. Например: «Если ты уйдешь, ты разобьешь сердце всей нашей семьи. Твоя мать (в духовном смысле) не переживет этого горя. Ты хочешь быть причиной наших страданий?» Использование чувства вины, страха одиночества и долга для удержания.
• Аргумент ad hominem (апелляция к личности) – использование личных качеств или жизненного опыта человека для подтверждения своей позиции. Например: «Не слушай сомнения этого бывшего члена – он ушел, потому что был слишком гордым и не смог смириться. Он просто обижен и хочет нам отомстить». Дискредитация человека вместо ответа на его аргументы.
• Аргумент к незнанию – утверждение о том, что идея верна, поскольку ее никто не опроверг. Например: «Ни один ученый не может опровергнуть наше учение о конце света в 2050 году. Значит, оно верно». Отсутствие опровержения выдается за доказательство.
• Аргумент к авторитету – утверждение о правильности идеи на основании того, что ее поддерживает известный человек или «всемирное научное сообщество», «ведущие ученые, политики, деятели культуры и искусства» и т. д. Например: «Профессор N (известный ученый/артист) поддерживает наше движение. Раз такой умный человек с нами, значит, мы на правильном пути».
• После не значит вследствие – ошибочное отождествление причинно-следственной связи с хронологической. Например: «Ты заболел, потому что вчера усомнился в Учителе. Видишь, как карма/Бог немедленно наказывает за недостаток веры?» Хронологическая связь (сомнение ведет к болезни) преподносится как причинно-следственная.
• Подмена тезиса – это ошибка в доказательстве, при которой, начав доказывать некоторый тезис, постепенно переходят к доказательству другого положения, сходного с тезисом. Например, звучит вопрос: «Почему мы должны отдавать группе весь свой доход?» Ответ лидера: «Истинный духовный искатель думает не о мирских благах, а о спасении души. Разве спасение не дороже денег?» Вместо финансовой прозрачности и обоснования – переход к обсуждению духовных ценностей и обвинение в меркантильности.
Приведенный выше список не охватывает все возможные ошибки[24]. А в ситуациях, когда секты сознательно и намеренно прибегают к использованию указанных приемов для распространения своего учения и ритуальных практик, и вовсе уместнее говорить о манипуляции. Существует набор техник, которые усиливают и маскируют эти ошибки в случае их намеренного применения, хотя не все из них могут использоваться для манипуляций со стороны культов.
Грамотная критика сектантских учений может помочь человеку выйти из него. Однако нелогичность, непоследовательность и отсутствие систематического подхода к обработке информации, а также склонность к когнитивным искажениям могут со временем повторно привести его уже к другому культу, сделать его приверженцем внутрицерковной секты или просто жертвой манипуляций и обмана. Я лично знаю бывших сектантов, которые после выхода из культа, стали верить в плоскую землю, затонувшие цивилизации и всевозможные теории всемирных заговоров.
Именно невежество и отсутствие навыков критической работы с информацией, а не «зомбирование» и «промывка мозгов», являются подлинным залогом успеха всевозможных культов.
Вот почему крайне важно работать с развитием критического мышления сектантов и повышать навыки работы с информацией. Может помочь даже такой базовый метод, как фактчекинг – проверка информации на правдивость, точность и достоверность. Методы фактчекинга довольно просты:
1). поиск первоисточника утверждений;
2). поиск и сопоставление информации в нескольких разных источниках, в том числе в иностранных;
3). проверка достоверности источников (например, люди нередко ссылаются на «Википедию», которую может редактировать любой пользователь, в том числе анонимно, из-за чего информацию там нельзя считать автоматически достоверной);
4). оценка мнения нескольких экспертов с учетом их образования, опыта и репутации в соответствующей области.
Понимание того, что человеческая рациональность сильно переоценена, а иррациональность недооценена, помогает быть более реалистичными по отношению к существующим мнениям и утверждениям. Но еще важно понять, как мозг использует когнитивные искажения для снижения когнитивного диссонанса, о котором мы сейчас и поговорим.
Когнитивный диссонанс
С конца 90-х годов злейшим врагом деструктивных культов и сект стал интернет, позволяющий мгновенно и повсеместно публиковать разоблачительную информацию. В XXI веке создать полный информационный вакуум в культовой среде практически невозможно, поэтому так или иначе члены культов сталкиваются с критическими материалами.
Как, стремясь к психологическому и эмоциональному контролю, культы справляются с неконтролируемой информацией? Ведь она может создать глубокий внутренний конфликт в умах их адептов. Ответом на этот вопрос является эффект когнитивного диссонанса – состояния психического дискомфорта, вызванного столкновением в сознании человека конфликтующих представлений. Обычно все мы интуитивно пытаемся избежать информации, способной вызвать такой диссонанс.
Американский психолог Леон Фестингер впервые использовал описание когнитивного диссонанса в 1955 году в своей книге «Когда пророчество не сбывается» (англ. When Prophecy Fails). В ней рассказывается история НЛО-культа и его лидера Дороти Мартин (1900–1992), также известной как «Мэриан Кич». Она предсказала, что мир будет уничтожен 21 декабря 1954 года, но истинно верующих спасут инопланетяне. Когда ничего не произошло, группа не усомнилась в словах Дороти Мартин, а поверила, что именно их преданность убедила Бога пощадить мир.
Теория когнитивного диссонанса помогает понять, как вовлеченные в культ люди продолжают цепляться за ошибочные убеждения, даже когда очевидные факты противоречат им.
Члены культа могут разрешать внутренние конфликты через защитную функцию рационализации – поиска логичных для мозга объяснений. Именно она примиряет диссонанс между культовыми убеждениями и реальностью.
Например, мать в группе исцеления верой может примириться с трагической смертью своего ребенка, заявив, что на то была «воля Божья», вместо того чтобы признать, что смерть на самом деле была результатом пренебрежения медицинской помощью.
Обычно критически мыслящие люди, сталкиваясь с когнитивным диссонансом, меняют свою точку зрения и соглашаются с реальностью. Но в случае с сектантским мышлением так происходит крайне редко. Давайте узнаем, почему.
Критическое мышление и его потеря
Критическое мышление – это навык объективно анализировать информацию, подвергать ее сомнению, сопоставлять аргументы и контраргументы, а затем приходить к обоснованным выводам. Критическое мышление противоположно слепому принятию данных без анализа их достоверности. Его можно уподобить иммунитету: когда он ослаблен, организм становится легкой целью для вирусов и бактерий.
Большинство современных философов науки и когнитивистов придерживаются критического реализма: объективная реальность существует, но мы воспринимаем ее опосредованно, через органы чувств и когнитивные структуры.
Наше восприятие не является точной копией реальности, но является эволюционно и прагматически адаптированной моделью.
Понимание того, что в восприятии мира мы имеем дело лишь с проекциями собственного сознания, а не с объективной реальностью, должно приводить к осознанию необходимости регулярного критического пересмотра всего, что мы делаем, говорим, пишем, думаем, во что верим и на что полагаемся. Только так мы перестаем принимать свои убеждения за абсолютную истину и начинаем рассматривать их как рабочие гипотезы, которые могут и должны уточняться.
Каждый может заниматься ежедневной практикой критического мышления:
• ставить под сомнение свои автоматические реакции и убеждения;
• задавать себе вопросы: «А почему я так думаю?», «На каких фактах это основано?»;
• помнить, что существующая точка зрения – всего лишь одна из многих возможных;
• быть открытым для пересмотра своих позиций в свете новой информации;
• отличать факты от интерпретаций;
• признавать границы собственного знания и понимания.
Нейтрализация критического мышления – это первая и важнейшая цель культов. Естественно, в сектах не происходит полное отключение критического мышления, как способности, члены культов могут демонстрировать его высокий уровень в областях, которые не связаны с сектантством. Например, член культа может блестяще решать сложные технические задачи, разрабатывать алгоритмы или управлять проектами на работе, демонстрируя безупречную логику. Однако при этом он не задается вопросом, почему учение лидера противоречит базовым законам физики или почему финансовая отчетность группы абсолютно закрыта.
Раньше мы говорили о том, что эмоции сильнее рациональности. Опираясь на свой опыт, могу сказать, что в большинстве случаев потеря критического мышления происходит из-за того, что я называю эффектом влюбленности. Сравните это с тем, как описала свой опыт знакомства с гуру и учителем йоги, известная российская поп-певица: «Я сейчас не способна передать, что я тогда почувствовала, какая это любовь, что просто разрывала каждую клетку, каждый атом моего существа. <…> Это разорвало мне все сознание, я была просто потрясена»[25].
Вспомните себя в подростковый период и свою первую большую «любовь». Объект влюбленности мог казаться просто идеальным, никакая критика в его адрес не воспринималась, сознание оставалось глухим к любым неприглядным фактам о нем или даже в случае плохого поступка с его стороны. Так работает когнитивный диссонанс, о котором мы уже говорили.
Влюбленность в культовую группу или в харизму ее лидера сильно ослабляет уровень критического мышления новичка.
После попадания человека в сектантскую среду, процесс реформирования мышления проходит очень быстро. Заканчивается он формированием черно-белого мышления и зависимости. Конечно, надо оговориться, что большинство новичков не застревают в сектах и уходят вовремя, интуитивно чувствуя неладное.
Все мы по опыту знаем, как страх отключает критическое мышление – это базовая настройка нашего мозга. Часто секты насаждают различные страхи, используя боязнь всемирного заговора, влияния демонов, прихода антихриста и скорого конца света. Человека убеждают в том, что спасение возможно обрести только в группе избранных. Короче говоря, создают проблему, которую сами же и «решают». Это как выключить свет в комнате, а потом героически всем раздавать свечи.
Базовое доверие к группе возникает в самом начале пути. Обычно в культах новичка сразу предупреждают, что члены его семьи не примут его исканий и будут всячески противодействовать его духовному возрастанию. Естественно, в подавляющем большинстве случаев, именно так и происходит: родственники из лучших побуждений начинают скандалить и запрещать любые контакты с группой. Случается первое подкрепление: новичок видит, что лидер группы был прав и его близкие действительно находятся на «темной стороне».
Социальная психология показывает сколь мощным может быть групповое влияние. Вспомните, например, свой опыт присутствия на концерте, стадионе или митингах, где общая атмосфера зачастую захватывает людей и заставляет их делать то, что они бы не стали делать в обычном состоянии. Классические социальные эксперименты показывают насколько сильно мнение группы влияет на конформизм (некритическое следование взглядам или поведению большинства). Яркий пример – эксперимент Соломона Аша 1951 года[26]. Его суть была в следующем: испытуемому в группе показывали две карточки: на одной одна линия, на другой – три линии разной длины. Нужно было сказать, какая из трех линий равна одной. Ответ был очевиден. Подвох был в том, что все остальные участники в группе были подставными («подсадными утками») и давали заранее неправильный, одинаковый ответ. В результате около 37 % реальных испытуемых хотя бы раз соглашались с заведомо ложным мнением группы, игнорируя то, что видят их собственные глаза.
Я помню, как уже после выхода из организации, мы с супругой попали на мероприятие крупной сетевой организации, занимающейся распространением БАДов. Лидер этого коммерческого культа был типичным гуру с аурой мудреца в дорогом костюме от Dolce Gabbana. Организованное на высшем уровне мероприятие проходило в спортивном комплексе «Олимпийский», и я узнавал манипулятивные приемы, применяемые и на конгрессах «Свидетелей Иеговы»*[27]. Самое интересное, что на уровне чувств я эмоционально подключился к происходящему. И это при том, какой опыт был за моими плечами! Что же тогда сказать о тех людях, которые не были знакомы с механизмами группового влияния?
Вернемся все же к критическому мышлению.
Самая большая сложность переубеждения заключается в том, что сектант искренне считает, будто в правоте учения культа его убедили глубокие исследования, проверенные факты и железобетонные аргументы.
Тогда как, на самом деле, человек некритически воспринял новые «знания» в силу ряда иррациональных факторов. Именно поэтому не срабатывают рациональные аргументы, ведь точка входа находилась в области эмоциональной. Хотя это обстоятельство совершенно не очевидно для самих сектантов.
Глава 5
Как и почему люди покидают секты
Возможно, на этом моменте у вас уже опустились руки. Однако есть хорошая новость: люди все же покидают секты. Чтобы помочь близкому покинуть культ, для начала нужно обратиться к статистике и понять, по каким причинам люди уходят из сект.
Исследования показывают, что из покинувших культовые группы, больше половины (60 %) уходят самостоятельно, разочаровавшись в секте. Четверть из покинувших культы (25 %) делают это благодаря консультациям со специалистами по культам и поддержке семьи и друзей. Примерно десятая часть людей была изгнана из культовых групп (11 %). И 4 % покинули свои группы по причине их роспуска и другим причинам[28].
Таким образом, ответ лежит на поверхности:
Наиболее эффективный путь к прозрению – это разочарование.





