
Полная версия
Сверхпродуктивность с искусственым интеллектом: От первого промпта до собственной системы агентов

Азамат Гулиев
Сверхпродуктивность с искусственым интеллектом: От первого промпта до собственной системы агентов
Предисловие
Сверхпродуктивность с искусственым интеллектом: Практическое руководство по ИИ: от первого промпта до системы агентов
Предисловие
Эта книга пишется в 2026 году – в момент, когда ИИ перестал быть экзотикой и стал частью рабочей среды. Языковые модели встроены в текстовые редакторы, почтовые клиенты, корпоративные системы и мессенджеры. Вопрос больше не «использовать ли ИИ», а «насколько осознанно».
Большинство людей застряли на уровне чат-бота: задали вопрос, получили ответ, закрыли вкладку. Между этим и полноценной системой работы – пропасть, которую не перепрыгнуть случайными экспериментами. Книга строит мост.
* * *
Что внутри
Книга устроена как маршрут, а не энциклопедия. Каждая глава – один навык. Каждый практикум – конкретная задача с измеримым результатом, который можно применить на следующий день.
Путь состоит из семи этапов: понять, как устроен ИИ и почему он ошибается; научиться формулировать запросы, которые дают нужный ответ с первого раза; подключить собственные документы и базы знаний; освоить прикладные сценарии – от текстов до анализа данных; построить автоматизации и агентов, которые работают без вас; выработать критическое мышление для работы с ненадёжным инструментом; сформировать личную стратегию на следующие полгода.
* * *
Про российский контекст
Большинство книг по ИИ написаны для западного читателя с западным набором инструментов. Эта – нет. Здесь также разобраны и отечественные модели; учтено законодательство о персональных данных; описаны инструменты, реально доступные в России в 2026 году.
Там, где зарубежные решения недоступны или нецелесообразны, предложены альтернативы. Там, где они работают – они описаны честно, без замалчивания.
* * *
Главная идея
ИИ не заменяет специалиста. Он заменяет специалиста без ИИ.
Человек с выстроенной системой закрывает задачи, которые раньше требовали команды. Не потому что он умнее – а потому что он правильно делегирует. Этому и учит книга.
* * *
Как читать
Книга читается последовательно – каждая глава опирается на предыдущую. Если вы опытный пользователь, начните с диагностики в Главе 2: она покажет, с какого места имеет смысл стартовать.
Три трека для разной аудитории описаны в разделе «Как работать с учебником». Студентам рекомендован полный путь. Специалистам – акцент на Частях II–V. Руководителям – Части I, VI и VII плюс профессиональные кейсы.
Практикумы – не опциональный бонус. Без них книга даёт знания, но не навык. Разница между знанием и навыком здесь принципиальна: ИИ-грамотность проявляется только в действии.
Инструмент готов. Осталось научиться им пользоваться.
Москва, 2026
Глава 1. Что такое современный ИИ и почему он изменил всё
Часть I · Фундамент
Учебные результаты: объяснить принцип работы LLM; назвать ≥5 актуальных инструментов; составить личную карту инструментов.
Если вы начнёте изучать любую технологию с вопроса «как ею пользоваться», вы рискуете стать её заложником. Человек, который знает только кнопки, теряет ориентацию при каждом обновлении интерфейса. Человек, который понимает принцип работы, адаптируется к любому интерфейсу. Эта глава – о принципе.
Речь не о том, чтобы «разобраться в ИИ» в абстрактном смысле. Речь о конкретной рабочей модели: почему языковые модели ведут себя именно так, откуда берутся ошибки и неожиданные успехи, какие инструменты реально доступны в 2026 году и как не попасть в ловушку расхожих заблуждений. Без этой базы даже хорошие промпты будут работать вслепую.
1.1 Краткая история: от правил к нейросетямИстория ИИ – это история трёх принципиально разных ответов на один вопрос: как сделать так, чтобы компьютер вёл себя «умно»? Каждый ответ доминировал в своё время, у каждого были реальные успехи и реальные потолки. Понять эту эволюцию – значит понять, почему нынешние модели устроены именно так, а не иначе.
1.1.1 Символьный ИИ и экспертные системыПервый подход, господствовавший с 1950-х по 1980-е годы, исходил из простой идеи: знания можно записать в виде правил. Если пациент – мужчина старше 40 лет, у него повышенное давление и одышка – вероятен сердечный приступ. Экспертные системы типа MYCIN (диагностика инфекций, 1972) или XCON (конфигурирование компьютеров, 1980) работали именно так: специалисты формализовали свои знания в тысячи правил «ЕСЛИ – ТО», программисты их кодировали.
Эти системы показывали впечатляющие результаты в узких областях. Но у них был фундаментальный изъян: они не умели справляться с тем, что выходило за рамки прописанных правил. Реальность богаче любого набора правил – и эти системы раз за разом разбивались о пограничные случаи, которые их создатели не предусмотрели. К 1987 году рынок экспертных систем рухнул: затраты на поддержку и обновление правил превышали выгоду от автоматизации.
1.1.2 Машинное обучение: когда модель учится самаВторой подход перевернул логику: вместо того чтобы писать правила, дайте компьютеру много примеров и позвольте ему самому найти закономерности. Именно это делает машинное обучение (machine learning). Вместо правила «спам, если в тексте есть слово «выиграли»» – тысячи примеров спама и не-спама, из которых алгоритм сам извлекает признаки.
Машинное обучение сделало возможным практичный спам-фильтр, распознавание рукописных цифр на банковских чеках, системы рекомендаций. Но и у него был потолок: алгоритму нужно было вручную указывать, на какие признаки смотреть. В задачах с изображениями это означало ручное проектирование детекторов краёв, текстур, форм – огромный труд экспертов.
1.1.3 Глубокое обучение и революция 2010-хТретий подход снял и это ограничение. Глубокое обучение (deep learning) – это многослойные нейронные сети, которые сами учатся извлекать признаки из данных, не нуждаясь в ручном проектировании. Идею нейросетей предложили ещё в 1940-х, но до 2010-х она оставалась маргинальной: не хватало вычислительных мощностей и данных.
В 2012 году сеть AlexNet выиграла конкурс ImageNet с результатом, который превзошёл второе место на 10 процентных пунктов. Это был статистический шок: такого разрыва никто не ожидал. С этого момента глубокое обучение стало доминирующей парадигмой в распознавании изображений, речи, игре в шахматы и го. Когда AlphaGo в 2016 году обыграл Ли Седоля – одного из лучших игроков в мире – это была победа не правил, а обученной нейросети.
1.1.4 Трансформеры и появление языковых моделейВ 2017 году исследователи Google опубликовали статью «Attention Is All You Need» – и предложили архитектуру трансформер (transformer). Ключевое изобретение – механизм внимания (attention): способность сети при обработке каждого слова учитывать весь контекст предложения, взвешивая важность каждого другого слова. До этого языковые модели обрабатывали текст последовательно – слово за словом, быстро теряя контекст длинных фрагментов. Трансформер обрабатывает весь текст параллельно.
Это открыло путь к масштабированию: чем больше данных и вычислений – тем лучше модель. GPT-1 (2018) обучился на книгах. GPT-2 (2019) – на текстах из интернета, и его авторы поначалу отказались публиковать полную версию, опасаясь злоупотреблений. GPT-3 (2020) с 175 миллиардами параметров продемонстрировал то, что назвали «эмерджентными способностями»: модель стала делать вещи, которым её не учили явно – переводить, решать задачи по аналогии, писать код. С этого момента языковые модели перестали быть инструментом для специализированных задач и стали общим инструментом для работы со смыслом.
Определение: большая языковая модель (LLM)
Большая языковая модель (large language model, LLM) – нейронная сеть трансформерной архитектуры, обученная на массиве текстовых данных (как правило, от сотен гигабайт до нескольких терабайт) с целью предсказывать следующий токен в последовательности. «Большая» означает от нескольких миллиардов параметров и выше. Параметры – это числовые веса связей между нейронами, которые настраиваются в процессе обучения.
1.2 Как работает большая языковая модель (без математики)Понимание механики LLM на уровне пользователя – не академическое упражнение. Это прямая карта того, где модель надёжна, а где ненадёжна, почему повторный запрос даёт другой ответ и почему длинный разговор деградирует. Каждый из следующих принципов имеет практическое следствие.
1.2.1 Токены, вероятности и предсказание следующего словаLLM не читает текст словами – она работает с токенами (tokens). Токен – это фрагмент текста, обычно от одного символа до нескольких букв или целого короткого слова. Слово «продуктивность» может быть разбито на несколько токенов; английское «cat» – скорее всего один. Это техническая деталь, но у неё есть следствие: модель «считает» не слова, а токены, и в нестандартных задачах подсчёта слогов или букв легко ошибается.
Работа модели – это итеративное вычисление вероятностей. На каждом шаге модель смотрит на всё, что написано до сих пор (контекст), и выбирает следующий токен на основе распределения вероятностей по всему словарю. Параметр температура (temperature) регулирует, насколько детерминировано это семплирование: при низкой температуре модель почти всегда выбирает наиболее вероятный токен, при высокой – чаще выбирает «неожиданные» варианты. Именно поэтому один и тот же промпт даёт разные ответы при разных запросах – это не случайность и не баг, это функция.
Важнейшее следствие: модель предсказывает «правдоподобный продолжатель текста», а не «правдивый ответ». Она не знает правды – она знает, что было написано в текстах, на которых её обучили. Если в обучающих данных что-то написано неверно, но написано часто, – модель будет уверенно воспроизводить ошибку.
1.2.2 Что такое «понимание» для модели – и понимает ли она вообщеЭтот вопрос продолжает вызывать споры среди исследователей, но для практика важна прагматическая позиция. LLM демонстрируют поведение, которое функционально неотличимо от понимания в большом классе задач: анализ аргументации, переформулировка сложных концепций, нахождение аналогий, перенос знаний между областями. При этом они демонстрируют провалы, которых не бывает у людей с реальным пониманием: могут блестяще объяснить принцип математической задачи и ошибиться в её численном решении; могут описать протокол действий в чрезвычайной ситуации и «не заметить», что описали нечто опасное.
Рабочая формула: считайте, что модель понимает контекст и семантику – но не понимает мир. Она знает, как слова связаны друг с другом, но не имеет прямого опыта взаимодействия с реальностью. Из этого следует конкретное правило: в задачах, где нужно рассуждать о мире (числа, причинно-следственные связи, факты), – проверяйте. В задачах, где нужно работать с текстом (перефразировать, структурировать, адаптировать стиль), – доверяйте значительно больше.
Важно: модель не «думает» во время вашего разговора
LLM не накапливает знания в процессе диалога с вами. Когда разговор заканчивается – всё, что было сказано, исчезает. Модель не «запомнила» ваши предпочтения, не «научилась» на вашей обратной связи. Всё, что она знает о вас в данный момент – это текст текущего контекстного окна. Если вы хотите персонализированного ассистента – нужны внешние механизмы памяти (о них в Главах 6 и 9).
1.2.3 Контекстное окно: память, которая исчезаетКонтекстное окно (context window) – это максимальный объём текста, который модель может «видеть» одновременно при генерации ответа. Всё, что произошло в диалоге до начала текущего окна, для модели не существует. В 2022 году стандарт был около 4 000 токенов (примерно 3 000 слов). В 2024–2025 годах ведущие модели перешли к 128 000–200 000 токенов, а некоторые достигли 1 миллиона и более.
Практическое следствие: чем длиннее диалог, тем больше риск, что ранние инструкции и детали «вытеснятся» из фокуса внимания модели. Исследования показывают, что модели хуже удерживают информацию из середины длинного контекста, чем из его начала и конца – эффект, известный как «потеря в середине» (lost in the middle). Это не значит, что нужно избегать длинных диалогов – но это значит, что ключевые инструкции лучше повторять или выносить в системный промпт.
1.2.4 Почему одна и та же модель даёт разные ответыТри причины разной реакции на одинаковый промпт. Первая – стохастичность семплирования: при ненулевой температуре каждый запрос – это новое случайное блуждание по пространству вероятностей. Вторая – чувствительность к формулировке: порядок слов, наличие или отсутствие знаков препинания, конкретность контекста – всё это смещает распределение вероятностей. Небольшое изменение промпта может дать принципиально другой ответ. Третья – дообучение с подкреплением на основе обратной связи от людей (RLHF): модель не просто предсказывает следующий токен, она дополнительно обучена давать «предпочтительные» ответы – по критериям безопасности, полезности, честности. Это иногда конфликтует с буквальным следованием промпту.
Отсюда практический вывод: вариативность – нормальное свойство инструмента, а не дефект. Если вам нужен воспроизводимый результат – используйте параметр температуры 0 там, где интерфейс его предоставляет, и фиксируйте успешные промпты для повторного использования.
1.3 Ландшафт ИИ-инструментов в 2026 годуКарта инструментов 2026 года не похожа на карту 2022 года настолько же, насколько карта мобильных приложений 2012 года не похожа на 2007-й. Появились новые категории, некоторые пионеры потеряли лидерство, граница между «ИИ-продуктом» и «обычным приложением» практически стёрлась. Ориентироваться в этом ландшафте удобнее через уровни: базовые модели, их надстройки и встроенный ИИ в знакомых инструментах.
1.3.1 Глобальные модели: поколения и возможностиК 2026 году зрелый рынок LLM – это несколько семейств моделей, конкурирующих по разным осям: возможности, скорость, цена, политика работы с данными. OpenAI, Anthropic, Google и т.д. – каждый из них предлагает линейку от быстрых и дешёвых «рабочих лошадок» до флагманских моделей для сложных задач. Важно понимать: все флагманские модели 2026 года умеют работать с текстом, кодом, изображениями, таблицами, часто – с аудио и видео. Разница между ними – в качестве рассуждений, точности, скорости и ограничениях.
Ключевое изменение по сравнению с 2023–2024 годами: модели приобрели способность рассуждать (reasoning) перед ответом. Флагманские модели теперь могут тратить «вычислительное время» на обдумывание задачи, прежде чем выдать финальный ответ. Это принципиально улучшило качество решения сложных математических, логических и многошаговых задач. Для пользователя это означает, что на сложных задачах выгоднее дождаться «думающей» модели, чем сразу получить быстрый и ошибочный ответ.
1.3.2 Российская экосистема: GigaChat, YandexGPT, GigaCode и другиеРоссийский рынок языковых моделей к 2026 году сформировал собственные конкурентоспособные решения. Два главных игрока – Сбер с семейством GigaChat и Яндекс с семейством YandexGPT. Оба предлагают API, потребительские интерфейсы и корпоративные решения.
GigaChat развивался как общая языковая модель с акцентом на русскоязычный контент и интеграцию в продукты Сбера (СберЗвук, SaluteDevices, корпоративные системы). К 2026 году линейка включает базовые, профессиональные и специализированные версии. Важная особенность для корпоративного сектора – возможность развёртывания в закрытом контуре, что снимает вопросы передачи данных за пределы России.
YandexGPT интегрирован в экосистему Яндекс 360: он работает в Яндекс Браузере (встроенный ассистент Алиса), в облачных сервисах, почте и календаре. GigaCode – специализированная модель для работы с кодом от Сбера – конкурирует с GitHub Copilot в задачах разработки. Экосистема VK активно развивает ИИ-инструменты внутри собственных продуктов, хотя к 2026 году они менее зрелы для корпоративного использования.
Пример: выбор модели под задачу
Юрист готовит анализ договора. Если документ содержит персональные данные клиентов – российский закон требует обработки на серверах в РФ, и выбор очевиден: GigaChat или YandexGPT в корпоративной версии. Если документ – обезличенный шаблон международного контракта и нужно максимальное качество юридического анализа – можно рассмотреть глобальные модели, убедившись в соответствии политике организации.
1.3.3 Специализированные модели: код, изображения, аудио, видеоПараллельно с общими языковыми моделями существуют специализированные. Для кода: GitHub Copilot и его конкуренты, интегрированные в IDE и обученные на миллиардах строк публичного кода. Для изображений: Midjourney, Stable Diffusion, DALL-E, Kandinsky (российская разработка) – генерация по текстовому описанию, редактирование, расширение кадра. Для аудио: модели транскрипции речи (Whisper и его аналоги), синтез голоса с заданными характеристиками. Для видео: к 2026 году генерация видео достигла качества, пригодного для маркетинговых материалов, хотя профессиональное кино-производство ещё требует доработки.
Тенденция 2025–2026 годов – слияние специализированных возможностей в мультимодальные системы. Флагманские LLM теперь умеют не только анализировать изображения, но и генерировать их; не только транскрибировать речь, но и говорить. Выбор между специализированной и универсальной моделью – вопрос баланса: специализированная даёт лучшее качество в своей нише, универсальная – бесшовный опыт в одном интерфейсе.
1.3.4 Локальные модели: когда данные нельзя отдавать в облакоДля задач с конфиденциальными данными (медицинские записи, персональные данные, коммерческая тайна) существуют локальные модели – те, что работают на оборудовании организации или пользователя без отправки данных во внешние сервисы. С 2023 года подобные модели достигли качества, практически сопоставимого с облачными моделями предыдущего поколения.
Такие инструменты позволяют запустить языковую модель на обычном ноутбуке с 16–32 ГБ оперативной памяти. Качество будет ниже, чем у облачных флагманов, но для многих задач – анализ внутренних документов, черновики текстов, кодовые помощники – этого вполне достаточно. Российские организации всё активнее внедряют локальные решения в связке с российскими моделями – в рамках политики импортозамещения и требований регуляторов.
1.3.5 ИИ внутри привычных инструментов: Word, Excel, браузер, почтаСамое важное изменение 2025–2026 годов для нетехнического пользователя – ИИ перестал быть отдельным приложением, которое нужно открывать. Он встроен. Microsoft Copilot работает внутри Word, Excel, Outlook и Teams – напрямую с вашим документом, письмом, таблицей. Google Gemini встроен в Google Docs и Gmail. Яндекс Браузер с Алисой предлагает ИИ-ассистента прямо на любой веб-странице. Notion, Confluence, Figma, 1С – практически все корпоративные инструменты к 2026 году имеют встроенные ИИ-функции.
Это меняет точку входа: для большинства специалистов первый контакт с ИИ происходит не через ChatGPT или специализированный чат, а через кнопку «Улучшить текст» в почтовом клиенте. Важно понимать: встроенный ИИ – это та же языковая модель под капотом, просто с узким интерфейсом. Всё, что вы узнаете о принципах работы с LLM в этой работе, применимо и к встроенным помощникам.
1.3.6 Карта выбора инструмента под задачуВыбор инструмента определяется пятью факторами: тип задачи (текст, код, изображение, аудио, данные), требования к конфиденциальности данных, нужная скорость ответа, качественный порог и бюджет. Ни один инструмент не является лучшим по всем осям одновременно.
Практическое правило выбора модели
Для задач с любыми персональными данными, коммерческой тайной или данными, подпадающими под 152-ФЗ: только российские модели в корпоративной версии или локальное развёртывание. Для задач с обезличенными данными и максимально высоким качеством: используйте глобальные флагманы, сверившись с политикой организации. Для встроенных рабочих задач (почта, документы, таблицы): встроенный ИИ вашей экосистемы – самый быстрый путь, пусть и не самый мощный.
1.4 Распространённые заблуждения об ИИКаждое из следующих заблуждений – это не просто теоретическая ошибка. Каждое влечёт конкретный сбой в работе: либо переоценку инструмента и последующее разочарование, либо недооценку и упущенные возможности. Разобраться с ними сейчас – значит заложить корректную основу для всех последующих глав.
1.4.1 «ИИ знает правду» – миф о всезнанииЭто самое опасное заблуждение с точки зрения практических последствий. Языковая модель – это не энциклопедия и не поисковик. Она генерирует текст, который статистически похож на правдоподобные утверждения по данной теме. Когда модель пишет «согласно исследованию Стэнфордского университета 2023 года…» – она не цитирует реальное исследование. Она генерирует фрагмент, который звучит как цитата из реального исследования, потому что именно так строятся похожие утверждения в обучающих данных.
Это явление называется галлюцинацией (hallucination). В Главе 2 мы разберём базовые сигналы ненадёжного ответа, в Главе 15 – системные методы верификации. Пока запомните одно правило: любое конкретное фактическое утверждение (число, дата, имя, ссылка) нуждается в независимой проверке перед использованием в работе.
1.4.2 «ИИ думает как человек» – миф о сознанииЯзыковые модели демонстрируют способности, которые мы привыкли считать признаками интеллекта: понимание контекста, гибкость, юмор, эмпатия в диалоге. Это создаёт ощущение присутствия собеседника. Однако за этим нет ни сознания, ни намерений, ни эмоций – только статистические паттерны, обученные имитировать такое поведение.
Практическое следствие: не ожидайте, что модель «запомнит» обиду, «обидится» на грубость или «постарается больше» ради сложной задачи. Интерфейс, имитирующий личность, – это дизайнерское решение, а не свидетельство наличия личности. Модель, которая говорит «я рад помочь», делает это так же, как термостат «хочет» поддерживать температуру.
1.4.3 «ИИ заменит всех» – миф о полной автоматизацииТезис о тотальной автоматизации появляется в публичном пространстве волнами при каждом технологическом скачке. История показывает, что автоматизация обычно трансформирует профессии, а не уничтожает их полностью. Телефонные операторы исчезли, но появились операторы call-центров. Стенографисты исчезли, но появились специалисты по транскрипции и редакторы.
ИИ 2026 года исключительно хорошо справляется с задачами, которые: хорошо определены, имеют однозначный критерий правильности, могут быть сформулированы как текстовый запрос, не требуют физических действий. Он плохо справляется с задачами, требующими уникального контекстного суждения, ответственности за последствия, долгосрочного планирования в нестабильной среде, физического взаимодействия с миром. Заменяются не профессии целиком – заменяются конкретные задачи внутри профессий.
1.4.4 «ИИ опасен сам по себе» – миф об автономной угрозеЯзыковые модели 2026 года – это не агенты с собственными целями. Они не планируют, не инициируют действия по собственной воле и не имеют механизмов самосохранения. Существующие риски – реальные, но иного рода: дезинформация в масштабе, дипфейки, снижение когнитивной самостоятельности, утечка данных через облачные сервисы. Этим рискам посвящены Главы 15, 16 и 17.
Отдельная история – автономные агенты с инструментами (см. Главу 12): там действительно появляются системы, способные выполнять последовательности действий без участия человека в каждом шаге. Но и они работают в рамках, заданных разработчиком, и не обладают автономными целями.
1.4.5 «ИИ – это только для программистов» – миф о высоком пороге входаВ 2020 году для использования языковых моделей действительно требовались технические знания: API, Python, понимание параметров модели. Сегодня порог входа – это умение формулировать задачу в тексте. Если вы можете написать письмо, поставить задачу подчинённому или составить рабочий документ – вы уже владеете ключевым навыком. Всё остальное – техника улучшения этого навыка, и именно этому посвящена Часть II данного учебника.
Тезис «это для программистов» работает как самоисполняющееся пророчество: те, кто в него верит, не пробуют – и тем самым лишают себя преимущества, которое активно используют их коллеги. Подавляющее большинство ценных сценариев использования ИИ в офисной и управленческой работе не требует ни одной строчки кода.

