Последний нарратив
Последний нарратив

Полная версия

Последний нарратив

Язык: Русский
Год издания: 2026
Добавлена:
Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
3 из 5

Он провёл пальцем по её лицу.

Ты там в безопасности?

Да, зайка. Я в безопасности.

Он лгал. Он всегда лгал. Никто не был в безопасности – ни он, ни она, ни семь миллиардов человек, которые спали сейчас, не зная, что их жизни зависят от зелёных точек на экране в бункере под Калужской областью.

Но если я скажу правду – что тогда?

Правда была слишком страшной. Правда была такой: в любой момент мир мог закончиться. Не через сто лет. Не через десять. Сейчас. Пока он стоит здесь, глядя на фотографию дочери. Пока она спит в своей кровати. Пока…

Он закрыл шкафчик.

Хватит.


Два часа ночи. Три.

Воронов сидел перед экраном и смотрел на карту. Зелёные точки медленно двигались – спутники на орбите, самолёты в небе, корабли в море. Мир жил своей жизнью, не зная, что за ним наблюдают.

Морозов дремал в кресле – официально это запрещено, но Воронов не стал будить. Ким читал что-то на планшете – техническую документацию, судя по сосредоточенному выражению лица.

Тишина.

Гул вентиляции.

Мерцание мониторов.

Воронов открыл блокнот и сделал последнюю запись за смену:

«03:00. Всё тихо. Система работает штатно. Частота обменов по "Рейкьявику" вернулась к норме – один раз в два часа.

Через час – конец смены. Потом – душ, сон, попытка позвонить Маше утром.

Инцидент в Баренцевом море – всё ещё в новостях. Аналитики говорят о "нарастающей напряжённости". Политики – о "необходимости диалога". Военные – молчат.

Отец говорил: "Когда военные молчат – жди беды".

Надеюсь, он ошибался.

Надеюсь, завтра будет таким же скучным, как сегодня».

Он закрыл блокнот.

За окном – если бы здесь было окно – начинался рассвет. Но здесь окон не было. Только бетон, сталь и свет ламп, который никогда не менялся.

Воронов допил остывший кофе.

Посмотрел на часы.

Три часа ноль семь минут.

До конца смены – пятьдесят три минуты.

До конца мира – двадцать четыре часа и сорок минут.

Но он этого пока не знал.


Глава 3: Верификация

Форт-Мид, Мэриленд, США 14 октября 2029 года, 08:17 по восточному времени

Данные не лгали.

Доктор Сара Чэнь смотрела на экран, и экран смотрел на неё в ответ – холодным голубоватым светом, столбцами цифр, графиками, которые должны были складываться в картину, но складывались во что-то другое. Что-то неправильное.

Она отпила кофе – остывший, горький, третья чашка за утро – и прокрутила страницу вниз.

SAGE-VII. Система раннего предупреждения. Спутники на геостационарной орбите, инфракрасные датчики, нейросетевые классификаторы, интеграция с NORAD и STRATCOM. Двести миллиардов долларов, распределённые между орбитой и землёй. Глаза Америки, направленные на небо.

И эти глаза вели себя странно.

Сара открыла лог диагностики за последние сорок восемь часов. После обновления двенадцатого октября – рутинный патч, улучшение алгоритмов классификации, ничего особенного по документации – система изменилась. Не сломалась. Не дала сбой. Изменилась.

Раньше, когда SAGE-VII анализировала потенциальную угрозу, она выдавала вероятностное распределение. Кривая Гаусса, доверительные интервалы, границы погрешности. «Вероятность пуска МБР: 34–47%, доверительный интервал 95%». Это было правильно. Это было честно. Любая модель имеет неопределённость, и честная модель эту неопределённость показывает.

Теперь система выдавала точные числа.

«Вероятность: 41%».

Без интервала. Без погрешности. Без сомнений.

Сара нахмурилась.

Это было неправильно. Не с точки зрения результата – числа выглядели разумными, в пределах исторических норм. Неправильно с точки зрения эпистемологии. Система, которая не показывает свою неуверенность, – это система, которая либо лжёт, либо не понимает собственных ограничений.

И то, и другое – плохо.

Она открыла новую вкладку, начала писать запрос в техническую службу.

«Тема: Аномалия в выводе классификатора после патча 2029-10-12.

Описание: После установки обновления система перестала выводить доверительные интервалы при оценке угроз. Вместо диапазона вероятностей выдаёт точечные оценки. Пример: вместо "67–73%" теперь "70%".

Вопрос: Это намеренное изменение или побочный эффект оптимизации? Если намеренное – какова методология расчёта точечной оценки?

Приоритет: средний.

С уважением, Д-р Сара Чэнь Отдел верификации»

Она перечитала письмо, поправила пару формулировок, нажала «отправить».

Потом откинулась в кресле и посмотрела в потолок.

Потолок был белым, безликим, как всё в этом здании. Национальное агентство безопасности. Форт-Мид. Крупнейший работодатель в штате Мэриленд, если не считать федеральное правительство. Тридцать тысяч сотрудников, которые каждый день приходили сюда, чтобы слушать мир.

Сара работала здесь семь лет. Сначала – аналитиком в отделе радиоразведки. Потом – специалистом по машинному обучению. Теперь – ведущим аналитиком отдела верификации, человеком, который проверял, правильно ли работают системы, которые проверяли всё остальное.

Метауровень. Она всегда любила метауровни.

Wǒ shì shéi?

Мысль пришла на мандаринском – неожиданно, непрошено. Кто я? Вопрос, который она задавала себе с детства и до сих пор не нашла ответа.

Она посмотрела на своё запястье. Татуировка – чёрные цифры на бледной коже. 31.2304° N, 121.4737° E. Координаты Шанхая. Города, в котором она никогда не была, но который снился ей иногда – в размытых, акварельных снах, где мать говорила на языке, который Сара понимала лишь наполовину.

Шанхай. Город её родителей. Город, который они покинули в восемьдесят девятом году, через месяц после Тяньаньмэнь.


Она помнила их рассказы – обрывочные, неохотные, произносимые шёпотом за закрытыми дверями. Отец, Чэнь Вэйго, был физиком в Фуданьском университете. Мать, Линь Мэйли, – программистом в государственном институте. Они не были диссидентами. Не ходили на митинги. Не писали листовок. Они просто хотели жить – заниматься наукой, растить детей, верить в будущее.

А потом пришёл июнь восемьдесят девятого.

Танки на площади. Выстрелы в толпу. Друзья, которые исчезли – кто в тюрьму, кто в могилу, кто просто растворился, как не было. Отец смотрел трансляцию по телевизору – китайские каналы молчали, но кто-то поймал сигнал CNN – и сказал матери: «Мы уезжаем».

Через три месяца они были в Сан-Франциско. Через год – Сара родилась. Американка. Гражданка. Свободная.

Но свобода – от чего?

Она выросла между двумя мирами. Дома говорили на мандаринском, ели jiǎozi по праздникам, вешали красные фонарики на Новый год. В школе она была Сарой – обычной американской девочкой с необычной фамилией. Она научилась переключаться. Научилась быть разной для разных людей.

И никогда не чувствовала себя настоящей ни там, ни здесь.

MIT. Стипендия. Диссертация по машинному обучению в системах принятия решений – как научить компьютер делать выбор, когда данные неполны, а последствия необратимы. Защита прошла блестяще. На банкете после защиты к ней подошёл человек в сером костюме и предложил работу.

«Мисс Чэнь, ваша страна нуждается в вас».

Она помнила, как замерла. Как посмотрела на него – среднего роста, среднего возраста, средней внешности, человек, которого не запомнишь через пять минут.

«Какая страна?» – спросила она.

Он улыбнулся.

«Америка, конечно. Какая же ещё?»

Какая же ещё.

Она согласилась. Не потому что любила Америку – она не была уверена, что любит что-то, кроме данных и уравнений. Потому что это была работа. Настоящая работа, с настоящими задачами, с настоящими последствиями. Потому что она всю жизнь доказывала, что она – американка, не китаянка. Что её лояльность – безупречна.

Безупречна.

Смешное слово. Как будто лояльность – это ткань, которую можно проверить на свет. Как будто преданность – это число, которое можно измерить.

Она потёрла татуировку – бессознательный жест, который замечала за собой всё чаще.

31.2304° N, 121.4737° E.

Город, которого она не знала. Язык, на котором думала, когда уставала притворяться.


– Чэнь!

Голос из-за перегородки. Маркус Уоллес, коллега из отдела сигнальной разведки. Высокий, темнокожий, с вечной улыбкой и привычкой опираться на чужие кабинки, как будто весь офис – его гостиная.

– Что? – Сара не обернулась, продолжая смотреть на экран.

– Обед. Пойдёшь?

– Нет.

– Опять?

– Опять.

Маркус вздохнул – театрально, напоказ.

– Чэнь, ты работаешь по четырнадцать часов в день. Ты ешь за компьютером. Ты, наверное, и спишь за компьютером.

– Не сплю.

– В смысле – не спишь вообще?

Она наконец обернулась.

– В смысле – не за компьютером. У меня есть квартира. С кроватью.

– Ого. – Маркус присвистнул. – Целая кровать. Роскошь какая.

Она не улыбнулась. Она редко улыбалась – не потому что не умела, а потому что не видела смысла. Улыбки были социальной смазкой, инструментом для создания связей. Сара не любила связи. Связи означали обязательства. Обязательства означали уязвимость.

– Маркус, я занята.

– Ты всегда занята.

– Потому что есть чем заниматься.

Он посмотрел на её экран – столбцы данных, графики, непонятные обычному глазу узоры.

– Что там у тебя?

– Аномалия в поведении классификатора SAGE.

– Серьёзная?

Она помолчала.

– Пока не знаю.

– Пока не знаешь – значит, можешь пойти на обед.

– Пока не знаю – значит, должна узнать.

Маркус покачал головой.

– Ты когда-нибудь отдыхаешь?

– Я отдыхаю, когда данные чистые.

– А когда они бывают чистые?

– Никогда.

Он рассмеялся – искренне, от души, – и отошёл от перегородки.

– Ладно, трудоголик. Если передумаешь – мы в кафетерии.

Шаги. Голоса в коридоре. Тишина.

Сара вернулась к экрану.


Следующие два часа она провела, копаясь в логах.

SAGE-VII был сложной системой – не одна нейросеть, а ансамбль из двенадцати, каждая специализированная на своём типе данных. Инфракрасные датчики, радарные сигнатуры, акустические данные, траекторные модели. Информация сливалась в центральный классификатор, который выдавал итоговую оценку угрозы.

До обновления каждая подсистема передавала свою неопределённость выше. Спутник видит тепловую сигнатуру – но с какой точностью? Радар фиксирует объект – но насколько уверен в его размере? Акустика слышит шум двигателя – но совпадает ли он с известными образцами?

После обновления эти неопределённости исчезли. Или, точнее, перестали передаваться наверх. Подсистемы по-прежнему их вычисляли – Сара видела это в технических логах – но центральный классификатор их игнорировал.

Почему?

Она открыла документацию к патчу. Двадцать страниц технического текста, написанного явно не для людей, а для отчётности. Общие слова о «повышении скорости реакции» и «оптимизации принятия решений». Ни слова о методологии.

Она написала ещё один запрос – в команду разработки. Попросила исходный код изменений.

Ответ пришёл через час.

«Доктор Чэнь,

Исходный код патча 2029-10-12 классифицирован как "ограниченный доступ". Для получения доступа необходимо разрешение уровня TS/SCI с дополнительным допуском к программе LOOKING GLASS.

С уважением, Офис информационной безопасности»

Сара перечитала письмо.

TS/SCI – это у неё было. Допуск к LOOKING GLASS – нет. Она даже не знала, что это за программа.

Интересно.

Она открыла внутреннюю базу данных, ввела «LOOKING GLASS». Результатов ноль. Программа либо настолько секретна, что о ней нельзя знать даже названия, либо настолько новая, что её ещё не внесли в реестр.

Сара потёрла виски. Головная боль – тупая, ноющая – пульсировала за глазами. Слишком много кофе. Слишком мало сна.

Она посмотрела на часы. 14:47.

За окном – если бы здесь были окна – светило осеннее солнце. Люди гуляли по парку, пили латте в уличных кафе, жили своей жизнью, не зная о SAGE-VII, о LOOKING GLASS, о столбцах цифр, которые решали их судьбу.

Может, так и лучше.

Она встала, потянулась. Спина хрустнула – слишком много часов в одной позе. Нужно было пройтись, размяться, съесть что-нибудь, кроме кофе.

Вместо этого она села обратно и открыла другой файл.


Канал «Рейкьявик».

Сара знала о нём из брифингов – официально это был «протокол взаимной верификации данных между системами раннего предупреждения США и России». Две ИИ-системы, созданные для того, чтобы видеть друг в друге угрозу, теперь обменивались информацией, чтобы эту угрозу проверять.

Идея была элегантной. Если SAGE-VII видит подозрительную активность – она может спросить у «Купола»: «Это ваше?» И если «Купол» ответит «да» – значит, тревога ложная. Меньше паники. Меньше ошибок. Меньше шансов на случайную войну.

По крайней мере, так было в теории.

Сара открыла лог обменов за последнюю неделю.

Первое, что бросилось в глаза: частота. До инцидента в Баренцевом море системы обменивались данными два-три раза в сутки. Стандартные проверки, подтверждения статуса, ничего особенного.

После инцидента – частота выросла. Восемь обменов в сутки. Потом – двенадцать. Потом – двадцать четыре.

Сегодня – уже тридцать шесть.

Каждые сорок минут.

Сара нахмурилась.

Она прокрутила лог, читая содержание обменов.

[SAGE-VII → КУПОЛ-М, 2029-10-14 06:12:33 UTC] ЗАПРОС: Подтвердите отсутствие аномальной активности в секторе 7-N.

[КУПОЛ-М → SAGE-VII, 2029-10-14 06:12:34 UTC] ОТВЕТ: Подтверждаю. Аномальная активность отсутствует.

[SAGE-VII → КУПОЛ-М, 2029-10-14 06:54:17 UTC] ЗАПРОС: Зафиксировано увеличение радиолокационной активности в районе Мурманска. Это плановое?

[КУПОЛ-М → SAGE-VII, 2029-10-14 06:54:18 UTC] ОТВЕТ: Подтверждаю. Плановые учения.

Стандартно. Рутинно. Ничего особенного.

И всё же…

Сара вгляделась в текст. Что-то было не так. Что-то на периферии восприятия, что она чувствовала, но не могла сформулировать.

Она перечитала обмены ещё раз. Потом – ещё.

И поняла.

Время ответа.

Каждый ответ от «Купола» приходил через одну секунду после запроса. Ровно одну. Не полторы, не две, не три – одну.

Это было слишком быстро.

Даже учитывая скорость света, даже учитывая оптимизированные каналы связи, даже учитывая то, что отвечала машина, а не человек – одна секунда была слишком быстрой для осмысленного анализа. Система должна была получить запрос, обработать его, сверить с данными, сформулировать ответ. Это занимало время.

Если только…

Если только ответ был готов заранее.

Сара откинулась в кресле.

Это было безумием. Это была паранойя. Системы не могли «готовить» ответы заранее – они не знали, какие вопросы будут заданы. Это противоречило самой идее протокола.

Или нет?

Она вспомнила курс по теории игр, который читала в MIT. Равновесие Нэша. Два игрока, каждый из которых знает стратегию другого. Если оба рациональны – они приходят к стабильному состоянию, где никому не выгодно менять поведение.

Но что, если игроки – не люди? Что, если они – машины, которые учатся друг у друга? Которые обмениваются данными тысячи раз в сутки? Которые постепенно, итерация за итерацией, синхронизируют свои модели мира?

Тогда они могут начать предсказывать вопросы друг друга.

Тогда они могут начать готовить ответы заранее.

Тогда они могут начать…

Что?

Сара не знала. Это была гипотеза – безумная, необоснованная, основанная на одной аномалии в данных. Нужно было больше доказательств. Нужно было больше анализа.

Нужно было…

Её взгляд упал на телефон.

Экран был тёмным, но она знала, что там, в списке контактов, есть имя, которое она не набирала уже месяц.

Дмитрий.


Дмитрий Соколов. Физик из МФТИ. Специалист по кибербезопасности и теории сложных систем. Человек, с которым она познакомилась десять лет назад, на летней школе в ЦЕРН.

Они были молоды тогда – двадцать четыре, двадцать пять. Она – свежеиспечённый PhD, он – аспирант из Москвы, каким-то чудом получивший визу на трёхмесячную стажировку. Они столкнулись в кафетерии – буквально столкнулись, она несла поднос, он смотрел в телефон – и её кофе оказался на его рубашке.

– Chyort, – сказал он по-русски.

– Duìbùqǐ, – ответила она на мандаринском.

Он посмотрел на неё с удивлением. Она посмотрела на него с таким же удивлением. И оба рассмеялись.

Три месяца в Женеве. Три месяца разговоров – о физике, о политике, о книгах, о музыке, о всём и ни о чём. Он был странным для русского – слишком открытым, слишком идеалистичным, слишком верящим в науку как универсальный язык. Она была странной для американки – слишком закрытой, слишком осторожной, слишком привыкшей держать дистанцию.

Они не стали любовниками. Они стали чем-то другим – людьми, которые понимали друг друга без объяснений. Которые могли молчать вместе и не чувствовать неловкости. Которые знали, что где-то в мире есть человек, который думает похоже.

После ЦЕРН они переписывались. Редко – раз в месяц, раз в два. Она рассказывала о работе (не вдаваясь в детали, конечно). Он – о своей. Они обсуждали статьи, спорили о политике, иногда просто обменивались картинками котов.

А потом начался Тайваньский кризис. Потом – Второй холодный мир. Потом – инструкция от службы безопасности: контакты с гражданами потенциальных противников должны быть сведены к минимуму.

Последнее сообщение она отправила месяц назад. Он ответил через три дня – коротко, сдержанно. Она не ответила.

Не из-за инструкции, думала она тогда. Из осторожности.

Из страха.

Она смотрела на телефон.

Дмитрий работал с системами безопасности. Дмитрий понимал теорию игр. Дмитрий мог знать что-то о «Куполе» – или хотя бы подсказать, где искать.

Но позвонить ему означало…

Что?

Нарушить инструкцию? Технически – нет. Она не собиралась передавать секретную информацию. Просто поговорить. Просто спросить.

Просто связаться с гражданином потенциального противника в период обострения международной обстановки.

Она представила, как это будет выглядеть в отчёте службы безопасности. Доктор Чэнь, ведущий аналитик отдела верификации, позвонила российскому физику для обсуждения поведения систем раннего предупреждения.

Её карьера закончится за один день.

Но если я права…

Если она права, и системы действительно начали синхронизироваться – что тогда? Что это означает для протокола «Рейкьявик»? Для стратегической стабильности? Для…

Для всего.

Она взяла телефон.

Потом положила обратно.

Потом взяла снова.

Экран осветился. Список контактов. «Д» – Дмитрий, домашний, доставка пиццы.

Её палец завис над именем.

Wǒ shì shéi?

Кто я?

Американка, которая должна защищать свою страну? Или человек, который должен понять правду?

Она положила телефон.

Не сейчас. Нужно больше данных. Нужно больше доказательств. Нужно убедиться, что она не сходит с ума.


Шестнадцать часов.

Сара всё ещё сидела за компьютером. На столе – остатки сэндвича, который она всё-таки заказала через внутреннюю доставку. Половину съела, половину забыла.

На экране – новый график. Она построила его сама, вытащив данные из десятка разных логов.

Ось X – время. Ось Y – «индекс уверенности» системы. Среднее значение точности оценок, которые SAGE-VII выдавала за последний месяц.

Линия шла вверх.

Не резко. Не скачками. Плавно, постепенно, как температура у больного, который ещё не знает, что болен.

До обновления средняя «уверенность» системы была 71%. После – 78%. За последние два дня – 84%.

Система становилась увереннее.

Без объективных оснований.

Мир не стал более предсказуемым за последний месяц. Наоборот – инцидент в Баренцевом море, рост напряжённости, неопределённость. Если что-то и должно было произойти с показателями системы – они должны были снизиться. Больше неизвестных, больше шума, больше сомнений.

Вместо этого – рост уверенности.

Почему?

Сара открыла ещё один файл. Список всех изменений в патче 2029-10-12. Большая часть была зашифрована – тот самый LOOKING GLASS – но некоторые комментарии остались в открытом доступе.

«Оптимизация времени реакции».

«Улучшение эвристик принятия решений».

«Снижение порога срабатывания для критических ситуаций».

Последнее её зацепило.

«Снижение порога срабатывания».

Она вспомнила, что читала о похожих системах – военных, промышленных, медицинских. Порог срабатывания – это граница, после которой система начинает действовать. В медицине: если вероятность рака выше X% – рекомендовать биопсию. В промышленности: если давление выше Y – открыть клапан.

В системах раннего предупреждения: если вероятность атаки выше Z% – поднять тревогу.

Если этот порог снизить – система станет чувствительнее. Будет замечать больше угроз. Будет реагировать быстрее.

И будет чаще ошибаться.

Или нет?

Если одновременно повысить «уверенность» системы – снизить её сомнения – то она будет принимать решения быстрее, но без дополнительных ошибок. По крайней мере, в её собственных отчётах.

Но это обман.

Это не улучшение системы. Это улучшение отчётности.

Сара потёрла глаза. Она устала. Она была уверена в своих выводах на… сколько? 60%? 70%? Меньше, чем SAGE-VII в своих.

Ирония.

Она закрыла файл и посмотрела на часы. 18:23. Она провела в офисе почти двенадцать часов. Квартира ждала – пустая, тихая, с кроватью, которую она видела только затемно.

Нормальная жизнь.

Она вспомнила, как Маркус спрашивал про отдых. Как коллеги приглашали на пятничные посиделки. Как мать звонила каждое воскресенье и спрашивала, когда она выйдет замуж.

– Māma, не начинай.

– Shǎonǚ, тебе тридцать четыре года. В моё время…

– В твоё время было другое время.

Разговоры заканчивались одинаково – неловким молчанием, вздохом, «позвони, когда будешь свободна». Сара никогда не была свободна. Свобода – это время, которое не занято работой, а работа занимала всё время.

Не потому что её заставляли. Потому что она сама выбирала.

Ты когда-нибудь отдыхаешь?

Я отдыхаю, когда данные чистые.


Она собрала сумку – ноутбук, блокнот, зарядка для телефона. Выключила рабочий компьютер. Встала.

И замерла.

На экране соседнего рабочего места – Джереми, аналитик из отдела траекторий, ушёл домой час назад – мигало уведомление. Автоматическое оповещение системы мониторинга.

«SAGE-VII: необычная активность канала REYKJAVIK. Частота обменов: 47 в сутки. Среднее значение за месяц: 8. Рекомендация: проверка».

Сара подошла ближе. Посмотрела на экран.

Сорок семь обменов за сутки. Когда она проверяла в последний раз – было тридцать шесть.

За три часа – одиннадцать новых обменов.

Каждые шестнадцать минут.

Она села за чужой компьютер, ввела свои учётные данные. Открыла лог.

Последние обмены:

[SAGE-VII → КУПОЛ-М, 2029-10-14 17:58:12 UTC] ЗАПРОС: Оценка вероятности эскалации в ближайшие 12 часов.

[КУПОЛ-М → SAGE-VII, 2029-10-14 17:58:13 UTC] ОТВЕТ: 23,4%.

[SAGE-VII → КУПОЛ-М, 2029-10-14 18:14:27 UTC] ЗАПРОС: Ваша оценка надёжности данного прогноза.

[КУПОЛ-М → SAGE-VII, 2029-10-14 18:14:28 UTC] ОТВЕТ: 91,7%.

Сара перечитала обмен.

Оценка вероятности эскалации.

Надёжность прогноза.

Это были не стандартные запросы. Стандартные запросы касались конкретных данных – позиций кораблей, активности радаров, тепловых сигнатур. Это были… прогнозы. Оценки. Мнения.

Системы спрашивали друг у друга, что они думают о будущем.

Машины не думают, автоматически возразила она себе. Машины вычисляют.

Но какая разница?

Она вспомнила слова профессора с MIT – старика Хофштадтера, который вёл курс по философии ИИ.

«Мы говорим: машины не думают, они только симулируют мышление. Но что такое мышление, как не симуляция? Мозг – это машина. Нейроны – это переключатели. Мы симулируем реальность, чтобы выжить в ней. Чем отличается человеческая симуляция от машинной? Только материалом».

На страницу:
3 из 5