
Полная версия
Сверхпродуктивность с искусственым интеллектом: От первого промпта до собственной системы агентов
Практикум 1.А: Первый диалог с тремя моделями – одна задача, три ответа, сравнение по пяти метрикам
Задача: сформировать первичное понимание различий между доступными вам моделями на одной конкретной задаче из вашей профессии.
Шаг 1 – Выберите реальную профессиональную задачу среднего уровня сложности. Примеры: «Напиши структуру отчёта по итогам квартала для моей отрасли», «Составь список ключевых рисков при запуске нового продукта в сегменте [ваша область]», «Объясни концепцию [X] для коллеги без опыта в этой области». Задача должна быть такой, чтобы вы могли оценить качество ответа – то есть из вашей профессиональной области.
Шаг 2 – Запустите один и тот же промпт (дословно, без изменений) в трёх разных моделях. Минимальный вариант: GigaChat + YandexGPT + одна зарубежная модель (при наличии доступа). Если доступ к зарубежным моделям ограничен – используйте разные версии доступных (например, базовую и профессиональную версию одной модели).
Шаг 3 – Оцените каждый ответ по пяти метрикам (оценка 1–5):
• Точность: насколько фактически корректен ответ в вашей оценке?
• Полнота: охвачены ли ключевые аспекты задачи?
• Структура: удобно ли читать и использовать ответ?
• Релевантность: насколько ответ применим именно к вашей ситуации?
• Неожиданные находки: есть ли в ответе что-то, что вы не ожидали и что оказалось полезным?
Шаг 4 – Зафиксируйте результаты в таблице (3 модели × 5 метрик) и напишите 2–3 предложения о том, какая модель показалась наиболее подходящей для данного типа задач и почему.
Ожидаемый результат: таблица сравнения + краткий вывод о предпочтительной модели для данного класса задач.
На что обратить внимание: модели могут давать принципиально разные структуры ответа на одну задачу. Обратите внимание не только на содержание, но и на то, насколько уверенно каждая модель формулирует утверждения – и насколько эта уверенность соответствует вашей оценке качества.
Кейс 2026: Менеджер по развитию федеральной розничной сетиАлексей – менеджер по развитию категории в розничной сети с 600+ магазинами. В его задачи входят: мониторинг конкурентов, подготовка категорийных обзоров для байеров, ответы на запросы поставщиков, участие в еженедельных планёрках. До активного использования ИИ он делил рабочее время примерно так: 40% – сбор и обработка данных, 30% – написание текстов и презентаций, 20% – коммуникации, 10% – анализ и стратегические задачи.
В марте 2025 года Алексей провёл эксперимент: в течение двух недель фиксировал каждую задачу длительностью более 30 минут и задавал себе вопрос «а мог бы ИИ ускорить это?». Вывод оказался неожиданным: 8 из 11 крупных задач содержали значительный текстовый или аналитический компонент, который можно делегировать.
Три месяца спустя картина изменилась. Категорийный обзор, который раньше занимал полный рабочий день, теперь готовится за 2–2,5 часа. Схема: загрузить данные по продажам в чат с ИИ, попросить выделить аномалии и сформулировать гипотезы, черновик раздела «выводы и рекомендации» написать вместе с моделью, финальная редактура – 20 минут. Ответы поставщикам на стандартные запросы Алексей теперь генерирует с помощью шаблонных промптов и проверяет, а не пишет с нуля. Подготовка к планёрке – краткое саммари по ключевым KPI – 15 минут вместо 40.
По итогам квартала Алексей взял на себя одну дополнительную категорию, объём которой раньше потребовал бы найма помощника. Расчётная экономия времени – около 8–10 часов в неделю. Из них примерно половина перераспределена на более глубокую аналитику и переговоры с поставщиками, вторая половина – на обучение и личные проекты.
Честный вывод: не всё пошло гладко. Первые три недели Алексей тратил больше времени, чем обычно, – приходилось переформулировать промпты, проверять факты, разбираться с галлюцинациями. Модель однажды уверенно написала данные о доле рынка, которые оказались неверными на 12 процентных пунктов. Система верификации – отдельный навык, который пришлось нарабатывать. Через месяц работа вошла в ритм.
Важно: ключевой урок кейса
Переход к продуктивной работе с ИИ не происходит за первые 20 минут. Период адаптации – 3–4 недели – во время которого производительность может временно падать. Это инвестиция, а не мгновенный результат. Те, кто прерывает использование в этот период (обычно после первой значимой ошибки модели), теряют эффект, который приходит позже.
Типичные ошибки новичка при первом знакомстве с модельюОшибка 1: «Одна модель – всё»
В чём: пользователь открывает один чат с одной моделью и убеждён, что теперь «работает с ИИ». Не сравнивает инструменты, не знает, где каждый из них силён.
Как правильно: потратьте один рабочий день на сравнение двух-трёх доступных моделей на реальных задачах. Разница в качестве на конкретной профессиональной задаче может быть значительной. Разные модели имеют разные сильные стороны: одна лучше структурирует длинный текст, другая точнее в аналитических задачах.
Ошибка 2: Доверие к уверенному тону
В чём: модель даёт ответ с категоричными утверждениями («Исследования показывают…», «По данным 2024 года…»), пользователь принимает это как факт. Уверенный тон – не признак достоверности. LLM одинаково уверенно говорит о хорошо задокументированных фактах и о собственных галлюцинациях.
Как правильно: любое конкретное фактическое утверждение с числами, датами, именами, ссылками – проверяйте в первичном источнике. Особенно если оно будет использоваться в документе или публичном контексте.
Ошибка 3: Слишком общий первый запрос
В чём: первый промпт звучит как «Помоги мне с маркетингом» или «Напиши что-нибудь про наш продукт». Пользователь получает общий ответ, разочаровывается и делает вывод, что «ИИ не умеет делать полезное».
Как правильно: первый промпт должен содержать конкретный контекст (кто вы, какова задача), конкретный формат вывода (список, письмо, таблица) и конкретные ограничения (для какой аудитории, каким тоном). Этому посвящены Главы 3 и 4.
Ошибка 4: Игнорирование контекстного окна
В чём: пользователь продолжает один и тот же диалог часами, добавляя всё больше информации. К концу модель начинает «забывать» детали из начала разговора, давать противоречивые ответы. Пользователь приписывает это «ухудшению» модели.
Как правильно: для длинных сессий работы – начинайте новый диалог, повторяя ключевой контекст. Ключевые инструкции и параметры задачи – всегда в начале запроса.
Ошибка 5: Ожидание памяти между сессиями
В чём: пользователь возвращается к модели на следующий день и ожидает, что та «помнит» вчерашний разговор, его предпочтения, его проект. Разочарование, когда приходится объяснять всё заново.
Как правильно: готовьте «карточку контекста» – несколько абзацев о себе, своей задаче, предпочтениях и ограничениях. Вставляйте её в начало нового диалога. Инструменты с памятью существуют (некоторые платформы сохраняют историю и передают её модели), но полагаться на их наличие не стоит без проверки.
Контрольные вопросы к Главе 1
1. (Понимание) Объясните своими словами, почему языковая модель может уверенно давать неверные факты. Какой механизм порождает «галлюцинации»?
2. (Применение) У вас есть задача: подготовить аналитический отчёт на основе внутренних финансовых данных компании. Какие факторы вы рассмотрите при выборе между облачной глобальной моделью и российской корпоративной? Обоснуйте.
3. (Анализ) Сравните три подхода к созданию ИИ – символьный, машинное обучение, глубокое обучение. Для каждого приведите пример задачи, где он показывает себя лучше других, и объясните почему.
4. (Применение) Коллега утверждает: «ИИ написал этот отчёт, значит автором является ИИ, и я не несу ответственности за ошибки». Как вы ответите, опираясь на концепцию контекстного окна и механику генерации текста?
5. (Оценка) Вы читаете в новостях: «Новая модель ИИ прошла тест Тьюринга и признана мыслящей». Какие вопросы вы зададите, прежде чем принять это утверждение? Опираясь на содержание параграфа 1.2.2, сформулируйте три критических вопроса к такому заявлению.
→ К Главе 2: Мышление продуктивного пользователя ИИ
Понимание механики – необходимая, но не достаточная основа. Вторая глава разбирает то, что труднее всего поддаётся формализации: как перестроить логику работы с задачами, когда у вас появился новый класс инструментов – и как не потерять собственное мышление в процессе.
Глава 2. Мышление продуктивного пользователя ИИ
Часть I · Фундамент
Учебные результаты: применить модель человек+ИИ к своим задачам; построить карту задач с потенциалом ИИ; описать первые признаки галлюцинаций.
Понимание механики языковых моделей из предыдущей главы – это карта местности. Но карта не учит ходить. Между тем, как работает LLM, и тем, как конкретный человек начинает делать с её помощью больше – лежит слой, которому редко уделяют внимание: перестройка мышления о собственных задачах. Эта глава именно об этом.
Большинство людей, начавших использовать ИИ, проходят через одини тот же цикл: первый энтузиазм от нескольких удачных ответов, разочарование при первой значимой ошибке, неустойчивое использование «когда не лень». Те, кто выходит за рамки этого цикла, как правило, сделали не технический шаг, а концептуальный: они переосмыслили логику делегирования задач. Именно эту логику мы разберём здесь.
2.1 Новая грамотность: что значит уметь работать с ИИКаждая волна инструментов создаёт новый слой грамотности, которая со временем становится базовой. Не уметь работать с ИИ в 2026 году – примерно то же самое, что не уметь пользоваться электронной почтой в 2005-м: пока ещё не критично, но с каждым месяцем всё заметнее как ограничение.
2.1.1 Аналогия с появлением текстовых редакторов и интернетаВ 1995-м менеджеры могли обсуждать, зачем им электронная почта: «Есть обычная почта, факс». К 2000-м годам вопрос исчез. Инструмент казался дополнительным – до момента, пока не стал стандартом среды.
Ключевое наблюдение: люди, освоившие текстовые редакторы первыми, не просто «делали то же самое быстрее». Они начали делать то, чего раньше не делали вовсе – потому что стоимость итерации упала в разы. Исправить абзац раньше означало перепечатать страницу. Теперь это секунды. Точно так же языковая модель не просто ускоряет написание текста – она снижает стоимость первого черновика до почти нуля, что меняет логику того, когда вообще стоит браться за задачу.
Практическое следствие этой аналогии: навык работы с ИИ не в том, чтобы «знать все возможности инструмента». Никто не изучал все функции Word перед тем, как начать использовать его. Навык – в способности формулировать то, что вам нужно, достаточно точно, чтобы инструмент понял задачу. И в умении оценить, хорошо ли задача выполнена.
2.1.2 Навык задавать вопросы как ключевая компетенцияИсторически умение правильно формулировать запросы было профессиональным навыком – юристы, аналитики, исследователи десятилетиями оттачивали точность постановки вопроса. ИИ не отменяет этот навык – он переносит его из элитной компетенции в массовую необходимость. Человек, который умеет чётко сформулировать, что ему нужно, получает от ИИ принципиально другой результат, чем тот, кто формулирует расплывчато.
Что конкретно означает «умение задавать вопрос» применительно к ИИ? Это четыре вещи одновременно: точность контекста (кто вы, в какой ситуации, что уже известно), ясность задачи (что именно должно получиться на выходе), критерии качества (как выглядит хороший результат) и осознание ограничений (что точно не нужно включать). Главы 3 и 4 подробно разбирают технику. Здесь важен принцип: слабый результат ИИ – чаще проблема формулировки, чем проблема модели.
Пример: одна задача, два промпта
Слабый промпт: «Напиши письмо поставщику». Результат: общее вежливое письмо без конкретики, которое придётся полностью переписывать.
Сильный промпт: «Напиши деловое письмо поставщику строительных материалов с просьбой предоставить скидку 7% на повторный заказ в связи с увеличением объёма. Тон: корректный, не требовательный. Длина: не более 150 слов. Письмо для российского B2B-контекста». Результат: готовый черновик, требующий 5 минут правки.
Разница – не в модели. Разница – в том, насколько подробно поставлена задача.
2.1.3 Разница между «использую ИИ» и «работаю вместе с ИИ»Это различие определяет, получит ли пользователь 10% прироста эффективности или 100%. «Использую ИИ» – поведение человека, который иногда задаёт вопросы в чате и получает ответы. Пассивная позиция: запрос – ответ – принять или отвергнуть. «Работаю вместе с ИИ» – другой режим: итеративный диалог, в котором пользователь активно формирует контекст, направляет рассуждение модели, встраивает вывод в свой рабочий процесс.
Конкретная иллюстрация: аналитик работает над рыночным обзором. «Использую ИИ» выглядит так: задал вопрос «что происходит на рынке Х», получил общий текст, скопировал пару абзацев. «Работаю вместе с ИИ» выглядит так: загрузил пять отраслевых отчётов, попросил выделить противоречия между ними, уточнил интерпретацию конкретного тренда, попросил сыграть роль скептика и атаковать собственный вывод, финальный текст написал сам – но с принципиально иным качеством аналитики за счёт итерации. Время на задачу – сопоставимо. Глубина результата – несопоставима.
2.2 Модель взаимодействия: человек + ИИ как системаСамый распространённый способ думать об ИИ – как о замене человека для конкретных задач. Эта рамка продуктивна для автоматизации рутины, но ограничивает мышление о более сложных применениях. Рамка «человек + ИИ как система» открывает другой класс задач – те, где ни человек, ни ИИ в отдельности не дали бы сопоставимого результата.
2.2.1 Что хорошо делает человек, что хорошо делает ИИУ человека есть несколько устойчивых преимуществ перед языковыми моделями. Первое – ситуативное суждение: способность оценивать контекст, который не был явно сформулирован. Вы знаете, что ваш директор сейчас в плохом настроении из-за провала квартала, – и это меняет тон письма. Модель не знает. Второе – ответственность: только человек может нести юридическую, профессиональную и моральную ответственность за результат. Третье – долгосрочная память о контексте: вы помните всю историю отношений с клиентом за три года, а не только последний разговор.
У ИИ есть устойчивые преимущества перед человеком. Первое – скорость генерации текста: первый черновик за 15 секунд против 45 минут. Второе – широта обобщения: модель обучена на огромном объёме текстов и может предложить угол зрения, который вы никогда не встречали в своей области. Третье – терпеливость к повторению: модель одинаково качественно обрабатывает двухсотый однотипный документ, тогда как человек к концу дня неизбежно теряет внимание. Четвёртое – доступность в любое время: модель не устаёт, не болеет и не уходит в отпуск.
Человек делает лучше
Ситуативное суждение (неявный контекст)
Ответственность за результат
Долгосрочная память о контексте
Этическая оценка последствий
Физическое взаимодействие с миром
Уникальные профессиональные знания
ИИ делает лучше
Скорость первого черновика
Широта обобщений и аналогий
Стабильность при повторяющихся задачах
Доступность без перерывов
Одновременная обработка множества текстов
Многоязычная обработка без деградации
2.2.2 Зоны совместной работы и зоны исключительной ответственности человекаКарта «что делает человек, что делает ИИ» – не статичная. Она зависит от конкретной задачи, качественного порога и цены ошибки. Полезно думать о трёх зонах: зона делегирования (ИИ делает, человек проверяет), зона совместной работы (итеративный диалог), зона исключительной ответственности человека (ИИ не участвует или участвует только как информационный ресурс).
Зона делегирования: типовые тексты с ясными параметрами (стандартные ответы на запросы, черновики протоколов, первичная структура документа), транскрипция и резюмирование записей, первичная обработка данных с очевидными критериями. Главный критерий делегирования – цена ошибки в данной задаче достаточно мала, чтобы вы могли позволить себе ошибиться на первой итерации.
Зона совместной работы: аналитика со сложным контекстом, стратегические решения, творческие задачи с неявными критериями качества. Здесь ИИ работает как интеллектуальный партнёр – предлагает гипотезы, атакует аргументы, генерирует варианты, – а человек принимает решения.
Зона исключительной ответственности: итоговые решения с юридическими последствиями, клинические заключения, кадровые решения о конкретных людях, публичные высказывания от своего имени, ситуации, где ошибка ИИ создаёт репутационный риск. В этих задачах ИИ может быть источником информации, но не автором решения.
Важно: зоны меняются вместе с задачей
Одна и та же задача «написать юридическое заключение» попадает в разные зоны в зависимости от контекста. Для внутреннего черновика на обсуждение – зона совместной работы. Для документа, который будет подписан и отправлен в суд, – зона исключительной ответственности человека, где ИИ максимум помогает с поиском прецедентов. Задача одна – зона разная.
2.2.3 Концепция усиленного интеллектаУсиленный интеллект (augmented intelligence) – это рамка, в которой ИИ рассматривается не как замена человеческих когнитивных функций, а как их расширение. Аналогия: калькулятор не «заменил» способность считать – он позволил людям заниматься более сложной математикой, не тратя время на арифметику. Очки не «заменяют» зрение – они позволяют видеть лучше, чем без них.
Применительно к профессиональной работе это означает конкретное: задачи, которые раньше не брались из-за временных затрат, теперь становятся выполнимыми. Юрист, которому нужно было бы потратить неделю на изучение нового нормативного акта, теперь получает структурированный разбор за час и тратит оставшееся время на нюансы применения. Маркетолог, которому не хватало бюджета на 15 вариантов рекламного текста для A/B-тестирования, теперь генерирует их за полчаса. Не «то же самое быстрее», а «другое, что раньше было недоступно по цене».
2.2.4 Логика делегирования: не «как зайти в чат», а «что передать ИИ»Самый практически ценный сдвиг в мышлении – переход от вопроса «как использовать ИИ» к вопросу «какие задачи из моего рабочего потока стоит делегировать». Это не технический вопрос. Это вопрос анализа собственной работы.
Три критерия задачи, которую стоит делегировать ИИ. Первый – задача формулируется текстом. Если вы можете написать задание подчинённому так, чтобы он её выполнил без дополнительных вопросов, – вероятно, можете написать и промпт. Второй – задача повторяется. Единоразовая уникальная работа редко стоит времени на конструирование промпта с нуля; повторяющаяся задача окупает шаблон с первых двух-трёх использований. Третий – цена ошибки на первой итерации невысока. Если черновик, требующий правки, лучше, чем пустой лист, – делегируйте.
Три критерия задачи, которую делегировать не стоит. Во-первых, задача требует уникального контекста, который слишком трудно передавать в промпте. Во-вторых, ошибка на первой итерации создаёт проблему (публикация, юридический документ, кадровое решение). В-третьих, сам процесс выполнения задачи развивает навык, который вам важно сохранить.
2.3 Психология работы с ИИТехнические аспекты работы с ИИ часто обсуждаются, психологические – редко. Между тем именно психологические эффекты определяют, превратится ли инструмент в реальное усиление или, наоборот, создаст новые проблемы. Три из них – автоматизированное доверие, «синдром самозванца наоборот» и когнитивная разгрузка – стоит знать заранее, поскольку они возникают предсказуемо.
2.3.1 Эффект автоматизированного доверия и как его преодолетьАвтоматизированное доверие (automation bias) – когнитивный эффект, при котором люди склонны принимать ответы автоматизированных систем без критической проверки. Впервые описан применительно к системам автопилота: пилоты, доверявшие бортовому компьютеру больше, чем собственным показаниям приборов, допускали ошибки в нестандартных ситуациях. Применительно к LLM эффект проявляется в том же: уверенный, хорошо структурированный ответ модели снижает вероятность его проверки.
Механизм понятен: наш мозг интерпретирует качество оформления как сигнал достоверности. Текст без орфографических ошибок, с логичной структурой и профессиональным тоном воспринимается как написанный компетентным автором. LLM производит именно такой текст – независимо от его фактической точности. Это не свойство конкретной модели, это свойство всех современных языковых моделей: они оптимизированы на «правдоподобность», а не на «правдивость».
Конкретный способ противодействия – не «проверяй всё», что нереалистично, а «проверяй категории риска». Числа, даты, имена, цитаты, ссылки на источники – вот четыре категории, которые требуют проверки по умолчанию. Всё остальное – оценочно: чем выше ставка (документ для суда против внутренней заметки), тем глубже проверка.
Важно: красивое не значит правильное
LLM генерирует одинаково уверенный и хорошо отформатированный текст, когда пишет корректную статистику и когда галлюцинирует. Внешние признаки достоверности (структура, грамматика, профессиональный тон) не коррелируют с фактической точностью. Единственный надёжный критерий – проверка по первичным источникам для критически важных утверждений.
2.3.2 Синдром самозванца наоборот: «это сделал не я»Это менее очевидный, но широко распространённый эффект. Когда профессионал с десятилетним опытом получает от ИИ текст, который выглядит лучше, чем то, что он написал бы сам, возникает дискомфорт: «Мне не следует предъявлять это как свою работу». Дискомфорт понятен, но логика неточна.
Профессиональная ценность – не в способности производить текст без помощи инструментов, а в способности задать правильную задачу, оценить качество результата, отвечать за него и применить его уместно. Когда финансовый директор использует Excel для составления финансовой модели, никто не говорит «это сделал Excel, а не я». Excel – инструмент вычисления; финансовый директор предоставил данные, логику, интерпретацию и ответственность. ИИ – инструмент генерации и структурирования текста; специалист предоставляет контекст, задачу, суждение о качестве и ответственность за использование.
Практический вопрос, который стоит себе задать: «Если бы этот результат оказался неверным – понял бы я это?» Если ответ «да» – значит, у вас есть профессиональное суждение, которое стоит за результатом. Если «нет» – это сигнал либо о необходимости более глубокой проверки, либо о том, что задача находится вне вашей компетенции.
2.3.3 Когнитивная разгрузка: польза и рискиКогнитивная разгрузка – перенос ментальных операций на внешний инструмент – является одновременно главной пользой ИИ и источником главного риска при его активном использовании. Польза очевидна: снижение умственной нагрузки при рутинных задачах позволяет освободить ресурсы для сложного мышления. Первый черновик пишет ИИ, аналитику делаете вы – это хорошее разделение труда.
Риск менее очевиден. Когнитивные навыки деградируют без практики – это установленный нейропсихологический факт. Если человек перестаёт писать тексты самостоятельно, его способность формулировать мысли на бумаге со временем ухудшается. Если перестаёт делать быстрые оценки в уме – теряет интуицию относительно порядка чисел. Это не аргумент против использования ИИ, но аргумент за осознанность: какие навыки для вас стратегически важны и требуют регулярной практики без ИИ-помощи?
Рабочее правило: разделяйте задачи на «рутинные операции» (делегировать ИИ без сожаления) и «навыкообразующие задачи» (делать самостоятельно или с минимальным ИИ-участием, чтобы поддерживать профессиональную форму). Для юриста рутинная операция – составление стандартного запроса; навыкообразующая – анализ сложного прецедента. Для преподавателя рутина – шаблон программы курса; навык – разработка сценария занятия с нестандартной аудиторией.
2.3.4 Как не утратить собственное мышление при активном использовании ИИКонкретная техника: «правило пустой страницы». Прежде чем открывать чат с ИИ, потратьте 5–10 минут на запись собственных мыслей по задаче – тезисно, без стилистической отделки. Это делает две вещи. Во-первых, принуждает вас сформулировать, что вы думаете, до того как ИИ начнёт влиять на ваши взгляды. Во-вторых, даёт вам точку отсчёта для оценки ИИ-ответа: вы видите, где модель совпала с вашим мышлением, где расширила его, а где вы с ней не согласны.

