bannerbanner
Квантовая революция для всех
Квантовая революция для всех

Полная версия

Квантовая революция для всех

Язык: Русский
Год издания: 2025
Добавлена:
Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
2 из 4

Квантовые компьютеры будут моделировать молекулярные взаимодействия с беспрецедентной точностью, потенциально сокращая сроки исследований в данной области с десятилетий до лет. Вместо проверки тысяч вариантов подходов к лечению посредством дорогостоящих и трудоёмких клинических испытаний исследователи могли бы использовать квантовые компьютеры для прогнозирования, какие стратегии, скорее всего, преуспеют, прежде чем начинать физическое тестирование.

Транспорт: Оптимизация трафика, планирование маршрутов и координация автономных транспортных средств включают сложные вычисления, которые растут экспоненциально вместе с масштабами транспортных систем. Курьерская служба, оптимизирующая маршруты для тысяч транспортных средств по городу, сталкивается с таким количеством возможных комбинаций маршрутов, которое больше количества атомов в наблюдаемой вселенной.

Квантовые компьютеры превосходно решают эти задачи оптимизации, потенциально сокращая пробки на дорогах, минимизируя потребление энергии и делая транспортные системы более эффективными и устойчивыми.

Окружающая среда: Моделирование климата, оптимизация использования источников возобновляемой энергии и технологии улавливания углерода – всё это требует вычислительной мощности, которая превышает текущие возможности. Понимание климатических систем включает моделирование взаимодействий атмосферы, океанов, поверхностей суши и биологических систем по множеству измерений – от молекулярных процессов до глобальных шаблонов циркуляции воздушных масс.

Квантовые вычисления могут ускорить решение задач изменения климата, обеспечивая более точные климатические модели, оптимизируя работу систем возобновляемой энергии и ускоряя разработку чистых технологий.

Ваше финансовое будущее: Инвестиционные стратегии, оценка рисков и выявление мошенничества будут революционизированы квантовыми алгоритмами, которые могут единомоментно обрабатывать огромные объёмы данных. На финансовых рынках происходят сложные взаимодействия между миллионами участников, регулятивными системами и экономическими факторами, которые порождают такие задачи оптимизации, которые идеально подходят для квантовых вычислений.

Квантовые компьютеры могут обеспечить более сложный анализ рисков, лучшее выявление мошенничества и разработку инвестиционных стратегий, которые используют взаимосвязи и шаблоны, недоступные для классических методов анализа.

Три вопроса, на которые отвечает эта книга

По мере того как я погружался в предмет квантовых вычислений, проявились три фундаментальных вопроса, ответы на которые должен получить любой, кто входит в эту область:

Что делает квантовые вычисления принципиально отличными от классических вычислений?

Это не просто более быстрая обработка – это совершенно другой подход к информации и вычислениям. Квантовые компьютеры не просто выполняют классические вычисления быстрее; они используют явления квантовой механики для решения задач такими методами, которым нет классического аналога.

Понимание этой разницы имеет решающее значение для понимания того, в каких случаях квантовые компьютеры обеспечат преимущество, а в каких оно останется у классических компьютеров. Оно также важно для подготовки к будущему, в котором гибридные квантово-классические системы будут решать задачи, которые ни один из подходов не смог бы решить в одиночку.

Что вам нужно изучить и сделать, чтобы адаптироваться к квантовой эре?

Навыки, тип мышления и направления карьеры, которые могут потребоваться по мере интеграции квантовых вычислений в основные области деятельности. Это включает технические навыки, такие как квантовое программирование и дизайн алгоритмов, но также стратегическое мышление о том, как квантовые технологии трансформируют отрасли и создают новые возможности.

Подготовка к квантовой эре требует больше, чем просто изучение новых технических навыков – она требует развития новых способов мышления о проблемах, новых подходов к сотрудничеству и инновациям, а также новых схем управления рисками и возможностями, создаваемыми квантовыми технологиями.

Какие достижения появились недавно, и чего мы можем ожидать в практическом плане в ближайшем будущем?

Понимание того, где мы сейчас находимся и куда движемся в следующие пять-десять лет. Это включает недавние демонстрации достижений в сфере квантовых технологий, текущие ограничения квантового оборудования, реалистичные сроки того, когда дело дойдёт до практического применения, и шаги, которые люди и организации должны предпринять для подготовки к квантовым технологиям.

Как использовать эту книгу

Эта книга написана как маршрут познания и как справочное руководство. Каждая глава основывается на предыдущей, давая базовое понимание предмета квантовых вычислений от фундаментальных принципов до практического применения. При этом главы также составлены так, чтобы представлять ценность в качестве самостоятельных блоков справочных материалов, к которым вы можете возвращаться по мере необходимости.

Ключевые понятия чётко определяются в том месте, где они вводятся впервые и объясняются практическими примерами, которые связывают абстрактные идеи с реальным применением. Акцент делается на понимании идей, а не на запоминании математических уравнений. Если слово или символ для вас неясны, за разъяснением обратитесь к исчерпывающему глоссарию, расположенному в конце книги.

Я включил недавние технологические прорывы и разработки на протяжении всей книги не просто в качестве курьёзных фактов, но потому что они иллюстрируют фундаментальные принципы в действии. Когда Google объявил о своём лидерстве в квантовой сфере в 2019 году или когда IBM раскрыла свою квантовую дорожную карту в 2021 году, то были не просто темы для новостных заголовков – это были демонстрации идей, которые мы будем рассматривать, и вехи на пути к практическим квантовым вычислениям.

Цель не в том, чтобы сделать вас квантовым физиком, а в том, чтобы дать вам знания и инструменты для понимания, адаптации и процветания в наступающую эпоху революции квантовых вычислений. Независимо от того, являетесь ли вы бизнес-лидером, планирующим стратегию, студентом, выбирающим карьерный путь, или просто интересуетесь будущим, эта книга подготовит вас к квантовой эре.

Каждая глава включает практические аспекты того, как излагаемые идеи применимы к различным ролям и отраслям деятельности. Бизнес-лидеры найдут стратегические идеи о конкурентных преимуществах и рисках. Технические специалисты откроют новые карьерные пути и возможности развития навыков. Студенты поймут, как квантовые вычисления связаны с различными областями обучения и профессиональными возможностями.

Книга структурирована так, чтобы быть полезной, читаете ли вы её последовательно или переходите к конкретным темам, представляющим интерес. Перекрёстные ссылки помогут вам разобраться во взаимосвязанных понятиях, а исчерпывающий глоссарий обеспечит быстрый доступ к определениям и объяснениям.

Самое главное, эта книга написана как мост между абстрактным миром квантовой механики и практическими реалиями технологического развития, бизнес-стратегии и карьерного планирования. Квантовая революция грядёт, готовы мы к ней или нет – эта книга поможет обеспечить вашу готовность принять участие в надвигающихся событиях и извлечь выгоду из, возможно, самой значительной технологической революции в истории человечества.

Глава 1: Революция классических компьютеров и её пределы

Основа нашего цифрового мира

Чтобы понять, почему квантовые вычисления представляют собой такой революционный скачок, мы должны сначала по достоинству оценить ошеломительный взлёт классических компьютеров. Каждый смартфон, ноутбук и сервер работает на принципах, которые показались бы волшебством человеку из XIX века, однако эти принципы теперь настолько фундаментальны, что мы воспринимаем их как должное.

Классические компьютеры работают на основе удивительно простой идеи: всё можно свести к двоичному выбору. Да или нет. Включено или выключено. 1 или 0. Эта бинарная система в сочетании с логическими операциями может представлять любую информацию и выполнять любые вычисления – по крайней мере, в теории.

Эта простота обманчива. Бинарная основа классических вычислений позволяет достичь необычайной сложности посредством комбинирования и повторения. Подобно тому, как русский язык использует всего 33 буквы для выражения бесконечных мыслей и идей, классические компьютеры используют всего два состояния для представления всего – от «Евгения Онегина» до фотографий высокого разрешения и сложных финансовых моделей.

Универсальность классических вычислений проистекает из фундаментального понимания: любая логическая операция, независимо от её сложности, может быть разложена на последовательности простых бинарных решений. Этот принцип, известный как вычислительная универсальность, означает, что классические компьютеры могут моделировать любой физический процесс, решать любую математическую задачу, которая имеет решение, и представлять любую форму информации, которая может быть точно определена.

Исторический контекст

Развитие классических вычислений не происходило изолированно – оно возникло из веков математического и технологического прогресса. Теоретические основы были заложены математиками, такими как Джордж Буль, который разработал булеву алгебру в середине 1800-х годов, и Алан Тьюринг, который формализовал концепцию вычислений в 1930-х годах.

Работа Буля показала, что логическое рассуждение может быть выражено математически с использованием операций над бинарными значениями. Его алгебра логики обеспечила математическую основу для того, что в конечном итоге станет компьютерным программированием. Каждое условие «если – то», каждое логическое сравнение, каждый запрос к базе данных восходит к пониманию Булем математической природы логического рассуждения.

Работа Тьюринга пошла дальше, доказав, что любое вычисление, которое может быть выполнено, может быть выражено как последовательность простых операций на теоретической машине, которую стали называть машиной Тьюринга. Это установило теоретические пределы и возможности вычислений, показав, что все компьютеры, независимо от их физической реализации, фундаментально эквивалентны с точки зрения того, что они могут вычислить.

Транзисторная революция

Сердце классических вычислений лежит в транзисторе – устройстве, которое может переключаться между двумя состояниями: проводить электричество (представляя 1) или блокировать его (представляя 0). Когда транзисторы были впервые изобретены в 1947 году в Bell Labs Джоном Бардином, Уолтером Браттейном и Уильямом Шокли, они были большими, дорогими и ненадёжными. Но у них было одно решающее преимущество: их можно было стабильно производить в больших количествах и комбинировать для выполнения сложных логических операций.

Изобретение транзистора стало переломным моментом в истории человечества, хотя его значение не было сразу очевидным. Первые транзисторы были размером с ноготь и стоили более 50 долларов каждый в сегодняшних деньгах. Это были капризные устройства, которые требовали точных условий эксплуатации и часто неожиданно выходили из строя.

Но транзисторы имели несколько преимуществ перед электронными лампами, которые они заменяли. Они потребляли меньше энергии, выделяли меньше тепла, были более надёжными, и потенциально их можно было сделать намного меньшего размера. Самое главное, они могли производиться с использованием промышленных процессов, которые можно было масштабировать до массового производства.

Представьте транзистор как простой переключатель, которым управляют с помощью электричества. Когда вы подаёте напряжение на затвор транзистора, он либо позволяет току течь, либо блокирует его. Это бинарное поведение является основой всех цифровых вычислений. Когда вы комбинируете миллионы этих переключателей, вы можете создавать логические вентили – устройства, которые выполняют базовые операции, такие как И, ИЛИ и НЕ.

Вентиль И даёт на выходе 1 только тогда, когда на обоих входах 1. Вентиль ИЛИ даёт на выходе 1, когда на любом из входов 1. Вентиль НЕ просто инвертирует вход – 1 становится 0, а 0 становится 1. Эти простые операции, объединённые в сложные схемы, могут выполнять любую логическую или математическую операцию.

Рассмотрим, как компьютер складывает два числа. В десятичной системе сложение 7 + 5 = 12 кажется простым. Но компьютер должен преобразовать эти числа в двоичные (7 становится 111, 5 становится 101), затем использовать серию логических вентилей для выполнения двоичного сложения. Результат (1100 в двоичной системе) затем преобразуется обратно в десятичную систему (12) для отображения пользователю.

Этот процесс может показаться неэффективным, но у него есть решающее преимущество: он универсален. Любое вычисление, которое может быть описано логически, может быть выполнено с помощью комбинаций этих базовых операций.

Революция интегральных схем

Следующий крупный прорыв произошёл с разработкой интегральных схем в конце 1950-х годов. Вместо соединения отдельных транзисторов проводами инженеры научились изготавливать несколько транзисторов на одном куске кремния. Эта инновация, разработанная независимо Джеком Килби в Texas Instruments и Робертом Нойсом в Fairchild Semiconductor, сделала возможным создание сложных схем в небольших, надёжных корпусах.

Переход от отдельных транзисторов к интегральным схемам был больше, чем просто улучшением производства – это был фундаментальный сдвиг, который открыл совершенно новые возможности. Отдельные транзисторы должны были соединяться вручную, что ограничивало сложность схем, которые можно было практически построить. Интегральные схемы могли содержать сотни, затем тысячи, затем миллионы взаимосвязанных транзисторов.

Первые интегральные схемы содержали всего несколько транзисторов, но технология быстро улучшалась. К 1970-м годам стали возможными микропроцессоры – полноценные компьютерные процессоры на одном чипе. Intel 4004, выпущенный в 1971 году, содержал 2300 транзисторов и мог выполнять 60 000 операций в секунду.

Производственный процесс для интегральных схем становился всё более сложным. Фотолитография, процесс, заимствованный из полиграфической промышленности, позволял инженерам создавать целые типовые схемы из транзисторов, направляя свет через своеобразные трафареты на кремниевые пластины, покрытые светочувствительными материалами. По мере улучшения технологии эти схемы становились меньше и точнее, позволяя размещать больше транзисторов на той же площади кремния.

Закон Мура: двигатель прогресса

В 1965 году соучредитель IntelГордон Мур сделал наблюдение, которое определило развитие технологической индустрии на следующие полвека: количество транзисторов на микрочипе удваивается примерно каждые два года. Этот Закон Мура вдохновлял инженеров и компании последовательно раздвигать границы того, что могут делать компьютеры, превращая простое предсказание в реальность, которая питала десятилетия быстрых инноваций. Компании могли планировать циклы разработки продуктов, зная, что вычислительная мощность будет удваиваться каждые два года. Последствия экспоненциального роста глубоки: удвоение каждые два года означает, что вычислительная мощность увеличивается в 1000 раз каждые двадцать лет.

Закон Мура означал, что компьютеры будут последовательно становиться быстрее, мощнее и способнее, одновременно становясь меньше, дешевле и энергоэффективнее. Это создало положительную обратную связь: по мере того как процессоры становились мощнее, становились возможными новые приложения, которые создавали спрос на ещё более мощные процессоры.

Практическое влияние было значительным. Компьютер, который стоил 10 000 долларов в 1980 году, был бы превзойдён компьютером за 500 долларов в 1990 году, который был бы превзойдён компьютером за 100 долларов в 2000 году. Это предсказуемое улучшение позволило целым отраслям строить бизнес на предположении, что вычислительная мощность будет продолжать расти экспоненциально.

Влияние цифровой революции

Экспоненциальный рост, предсказанный законом Мура, обеспечил цифровую революцию, которая трансформировала общество. В 1980-х годах персональные компьютеры впервые предоставили вычислительные мощности отдельным людям. В 1990-х годах интернет соединил эти компьютеры в глобальную сеть. В 2000-х годах мобильные устройства поместили вычислительный потенциал в карман каждого человека. В 2010-х годах облачные вычисления сделали огромные вычислительные ресурсы доступными по требованию.

Каждая трансформация была обеспечена последовательным улучшением вычислительной мощности. Интернет стал практичным, потому что компьютеры стали достаточно мощными для обработки сложных сетевых протоколов. Мобильные устройства стали полезными, потому что процессоры стали достаточно маленькими и эффективными для работы от батареи. Облачные вычисления стали экономичными, потому что центры обработки данных могли упаковывать огромную вычислительную мощность в относительно небольшие пространства.

Программная индустрия развивалась совместно с улучшениями оборудования. Ранние персональные компьютеры запускали простые программы с дискет. По мере увеличения размеров оперативной памяти и ёмкости устройств хранения информации программное обеспечение становилось более сложным. Графические пользовательские интерфейсы, мультимедийные приложения и в конечном итоге сложные операционные системы стали возможными. Каждое продвижение программного обеспечения создавало спрос на более мощное оборудование.

Достижение физических пределов

Но к началу 2000-х годов инженеры начали сталкиваться с проблемами, которые нельзя было решить, просто делая транзисторы меньше. Дело было не в трудностях инженерного плана – то были фундаментальные физические пределы, налагаемые законами физики.

Проблема тепла: По мере того как транзисторы становились меньше и быстрее, они генерировали больше тепла на единицу площади. Эта генерация тепла следует из базовой физики – когда электроны текут через проводник, они сталкиваются с атомами и теряют энергию, излучая тепло. Современные процессоры генерируют тепло настолько высокой плотности, что она приближается к плотности тепла в ядерных реакторах – около 100 ватт на квадратный сантиметр.

Системы охлаждения становились всё более сложными и дорогими. Настольные компьютеры требовали сложных радиаторов и вентиляторов. Центры обработки данных потребляли огромное количество энергии на кондиционирование воздуха. В конце концов, энергия, необходимая для охлаждения процессоров, начала приближаться к энергии, необходимой для их работы, создавая фундаментальную проблему эффективности.

Проблема квантового туннелирования: Когда транзисторы становятся чрезвычайно маленькими – приближаясь к масштабу отдельных атомов – квантовые эффекты начинают мешать их работе. Наиболее проблематичным эффектом является квантовое туннелирование, при котором электроны могут проходить через барьеры, которые должны их останавливать по законам классической физики.

В транзисторе поток электронов контролируется подачей напряжения на затвор, отделённый от основного канала тока тонким изолирующим слоем. Когда этот слой становится очень тонким (менее нескольких нанометров), электроны могут проходить через него, даже когда транзистор должен быть «выключен». Это заставляет транзистор пропускать ток, делая его ненадёжным и энергозатратным.

Проблема точности производства: Создание транзисторов шириной всего в несколько атомов требует точности, которая раздвигает границы физически возможного. Текущие производственные процессы используют ультрафиолетовый свет для создания паттернов транзисторов на кремниевых пластинах. Однако длина волны УФ-света (около 200 нанометров) больше, чем создаваемые элементы (около 10 нанометров).

Это как пытаться рисовать мелкие детали толстым маркером. Инженеры разработали методы обхода этого ограничения, включая экстремальную ультрафиолетовую литографию и множественное паттернирование. Но эти решения чрезвычайно дороги и сложны. Современная фабрика по производству микросхем стоит более 20 миллиардов долларов.

Проблема скорости света: По мере того как процессоры становятся быстрее, время, необходимое для передачи электрических сигналов между компонентами, становится значительным. В современных процессорах сама скорость света создаёт задержки, которые влияют на производительность. Свет проходит около 30 сантиметров за наносекунду, что означает, что в 3-гигагерцовом процессоре сигнал может пройти только около 10 сантиметров за цикл.

Барьер атомного масштаба: Возможно, самым фундаментальным пределом является сам атомный масштаб. Атомы кремния имеют диаметр около 0,2 нанометра. Текущие транзисторы уже имеют ширину всего около 50 атомов. По мере того как транзисторы приближаются к размеру отдельных атомов, различие между отдельными транзисторами начинает разрушаться.

Конец «бесплатной» производительности

Эти физические пределы создали новую реальность в вычислениях. Впервые за десятилетия покупка нового компьютера не гарантировала значительно лучшую производительность. «Бесплатный сыр» экспоненциального улучшения, которым индустрию кормили пятьдесят лет, подходил к концу.

Этот сдвиг повлиял на более глубоком уровне, чем просто производительность оборудования. Компании-разработчики программного обеспечения больше не могли полагаться на улучшения оборудования для ускорения работы их программ. Вместо этого им пришлось находить новые способы оптимизации производительности, что привело к инновациям, таким как многоядерные процессоры, графические процессоры (GPU) и специализированные чипы для искусственного интеллекта.

Но эти решения, будучи гениальными сами по себе, всё ещё были фундаментально ограничены бинарной природой классических вычислений. Независимо от того, сколько ядер вы добавляете или насколько быстро вы их делаете, вы всё ещё выполняете те же базовые операции – просто больше их параллельно.

Конец закона Мура также повлиял на экономику полупроводниковой индустрии. Стоимость разработки новых производственных процессов резко возросла, делая экономически сложным продолжение традиционного пути уменьшения транзисторов. Только несколько компаний в мире могли позволить себе строить самые передовые фабрики по производству микросхем.

Задачи, которые классические компьютеры не могут решить

По мере достижения этих физических пределов появились определённые типы задач, которые, казалось, требовали больше вычислительной мощности, чем классические компьютеры вообще могли предоставить, независимо от технологических улучшений.

Криптография: Современное шифрование полагается на математические задачи, которые легко решить в одном направлении, но почти невозможно в обратном. Система шифрования RSA основана на сложности факторизации больших чисел. Перемножить два больших простых числа легко, но чрезвычайно сложно разложить результат обратно на эти исходные простые числа.

Безопасность RSA основана на том факте, что факторизация больших чисел экспоненциально сложна для классических компьютеров. Для взлома 1024-битного ключа RSA от классического компьютера потребовалось бы выполнить около 2^80 операций – больше, чем количество атомов в наблюдаемой вселенной.

Оптимизация: Многие реальные проблемы включают поиск лучшего решения из огромного количества возможностей. Эти проблемы появляются в логистике, финансах, производстве и многих других областях. Задача коммивояжёра с 10 городами имеет около 180 000 возможных маршрутов. С 20 городами есть около 60 миллиардов маршрутов. С 50 городами возможных маршрутов больше, чем атомов во вселенной.

Моделирование: Понимание сложных систем требует моделирования поведения бесчисленных взаимодействующих компонентов. Классические вычислительные системы сталкиваются с трудностями при попытке моделирования непрерывных процессов, поскольку для этого им требуется дискретизация вычислений, то есть разбивка их на отдельные части.

Моделирование квантовых систем особенно сложно – квантовая система всего с 300 частицами может существовать в большем количестве возможных состояний, чем атомов во вселенной.

Машинное обучение: Обучение передовых систем ИИ требует обработки огромных объёмов данных и выполнения триллионов вычислений. Хотя классические компьютеры могут это делать, время и энергия, необходимые для этого, растут экспоненциально со сложностью проблемы. Современные системы машинного обучения, такие как большие языковые модели, требуют огромных вычислительных ресурсов для обучения.

Поиск новой парадигмы

К началу 2000-х годов стало ясно, что продолжение прогресса в вычислениях потребует принципиально другого подхода. Постепенных улучшений классических вычислений было бы недостаточно. Индустрии нужна была новая парадигма, основанная на иных физических принципах для выполнения вычислений такими способами, которыми классические компьютеры это делать просто не могли.

На страницу:
2 из 4