В поисках Матрицы
24.02.2014 14:00
Синяя − и всё останется, как есть. Красная − и ты узнаешь, как глубока кроличья нора. Ты обретешь способность летать, уворачиваться от пуль и делать что угодно. Правда, в мире, которого не существует. В мире, который является лишь ловкой ловушкой, детализированной симуляцией, которая разворачивается в недрах невероятного суперкомпьютера, для которого реальные люди служат лишь дешевым источником питания.



Найти Матрицу ©Кадр из фильма «Матрица»


Где же правда? Что же нас окружает − реальный мир, или виртуальность? В 2003 году шведский трансгуманист Ник Бостром (Nick Bostrom) развил эту идею в известной статье «Живем ли мы в компьютерной симуляции?». В ней философ спекулирует на тему о том, что если человечество в обозримом будущем, все-таки, не погубит само себя, то рано или поздно оно разовьется в настолько мощную цивилизацию, что будет способно моделировать реальность в больших масштабах. И что, весьма вероятно, наша текущая реальность действительно является продуктом такого умелого моделирования.

Идеи Бострома подвергались критике неоднократно − детальный «разгром» его доводов можно найти в статье Данилы Медведева «Живем ли мы в спекуляции Ника Бострома?». Однако возможно ли разобраться в этой проблеме со строгой точки зрения, найти весомые экспериментальные доказательства тому, что наш мир, все-таки, реален? На самом деле, вполне.

Первые подобные попытки были сделаны еще до Бострома: в 2001 году исследователь из MIT Сет Ллойд (Seth Lloyd) попробовал подсчитать вычислительные ресурсы, необходимые для того, чтобы симулировать Вселенную в масштабах пространства и времени, доступных нашему наблюдению, и пришел к выводу, что такое невозможно в принципе.


Ллойд оценил, какое количество операций понадобится провести компьютеру, чтобы смоделировать всю Вселенную начиная с момента Большого Взрыва, с каждым событием, которое случилось с каждой элементарной частицей за прошедшие с тех пор почти 14 миллиардов лет. Тут важна не столько сама цифра, сколько ее масштаб: энергия, необходимая для произведения таких вычислений, окажется больше энергии самой моделируемой Вселенной. «Такой компьютер должен быть мощнее всего мироздания, и на работу у него уйдет время большее, чем время жизни мира, − резюмировал Ллойд. − Кому вообще может прийти в голову заняться этим?».



Чтобы компьютеру смоделировать всю Вселенную начиная с момента Большого Взрыва, с каждым событием, которое случилось с каждой элементарной частицей за прошедшие с тех пор почти 14 миллиардов лет понадобится больше времени, чем время жизни мира ©higherperspective.com


Казалось бы, точка поставлена − но это лишь на первый взгляд. В конце концов, наши сверхпотомки, искусственная Матрица, суперцивилизация инопланетян − или кто еще мог бы моделировать текущую реальность − вовсе не обязаны делать эту модель идеальной. Вспомните трехмерные модели миров в современных компьютерных играх: они весьма натуралистичны, притом что являются лишь приближенной моделью, которую способны обсчитывать процессоры обычных настольных компьютеров. Не способен ли некий суперкомпьютер так же обсчитывать и нашу реальность, вместе с нами в ней, откидывая излишнюю детализацию, на таком низком уровне, который мы просто пока не в силах «увидеть»?

Допустим, наша планета и Солнечная система могут обсчитываться с максимальным разрешением, далекие звезды − похуже, ну а самые дальние галактики «обновляются» лишь от случая к случаю. Также происходящее на доступном нам макроуровне может моделироваться весьма качественно, а вот микроуровень довольно грубо (недаром квантовый мир удивляет нас весьма условной приблизительностью, вероятностью своих причинно-следственных связей)?

В самом деле, современные суперкомпьютеры и математические методы квантовой хромодинамики уже вполне позволяют обсчитывать поведение Вселенной на очень небольших масштабах пространства и времени. Это, конечно, крошечный объем, зато происходящее в его пределах действительно ничем не отличимо от реальности, существующей независимо от нас и нашего сознания того, что мы привыкли считать материальным миром.





Cовременные суперкомпьютеры и математические методы квантовой хромодинамики уже вполне позволяют обсчитывать поведение Вселенной на очень небольших масштабах пространства и времени ©iStockphoto


Если вычислительные мощности будут расти так же, как росли они до сих пор (известно, что один современный смартфон превосходит по производительности все возможности компьютеров NASA, которые существовали в годы реализации «лунной» программы Apollo) − не так уж и сложно представить, что возможности техники моделировать будут увеличиваться и, в конце концов, станут достаточными для моделирования всей нашей разумной цивилизации. Простая экстраполяция показывает, что при сохранении тех же темпов моделирование области размерами 1х1 м станет возможным через 140 лет.

Однако американский физик Сайлас Бин (Silas Beane), который занят моделированием взаимодействий протонов и нейтронов в ранней Вселенной, считает, что в пределах ближайшего столетия подобные модели будут еще более совершенны и вполне смогут включать в себя и разумные существа. И они, населяя такую модель, возможно, зададутся вопросом: реален ли наш мир, или мы − лишь продукт моделирования?..

Если это так, то «Матрица» может проявиться, если мы действительно обнаружим недостатки модели, участки, где она начинает «сбоить». В 2007 году с этой идеей выступил кембриджский профессор математики Джон Бэрроу (John Barrow). По его мысли, эти сбои могут проявляться небольшими неточностями в значениях фундаментальных констант, которые должны бы оставаться строго постоянными − таких, как скорость света в вакууме или постоянная тонкой структуры.

Интересно, что как раз в том же 1999 году, когда «Матрица» братьев Вачовски увидела свет, появились первые наблюдательные свидетельства тому, что фундаментальные постоянные − не такие уж и постоянные. Ученые заявили тогда, что 10 млрд лет назад постоянная тонкой структуры была слегка − на тысячную долю процента − больше, чем сейчас. Правда, дополнительные проверки до сих пор не позволили строго подтвердить этот факт, но пугающий шанс остается. Возможно, просто программисты Матрицы успели исправить этот «баг»?

В 2012 году Бин и его коллеги предложили и более ясный подход к проверке Матрицы на прочность. Дело в том, что любая компьютерная модель подразумевает разбиение реальности на участки, в пределах которых происходит обсчет − и затем соединение этих участков вместе. Примерно как картинка на экране компьютера состоит из пикселей: хватит только приблизить глаз достаточно близко, чтобы их увидеть. Проблема лишь в том, как нам разглядеть эти «пиксели реальности».

По расчетам британских ученых, движение частиц, смоделированное в рамках такой решетки, будет определяться размерами ее ячеек. Чем меньше эти ячейки − тем больший максимальный уровень энергии могут иметь. Кстати, астрономические наблюдения показывают, что энергия частиц космических лучей, прибывающих к нам от самых далеких галактик, действительно обрывается на определенном уровне. Эта граница известна, как предел Грайзена − Зацепина − Кузьмина, и расчеты показывают, что если именно она говорит о существовании Матрицы, то совершенство ее исключительно велико: размеры ячеек в такой модели будут в 10^11 раз меньше, чем «пиксели», которыми обсчитывают свои модели современные физики. Такая Матрица слишком совершенна, чтобы выявить ее этим подходом.

Существует и другой потенциально наблюдаемый эффект от существования решетки, в рамках которой моделируется реальность. Если ткань пространства-времени гладка и не имеет «склеек», то движущиеся по ней частицы, в том числе и те самые космические лучи, будут путешествовать по гладким траекториям. Если же решетка Матрицы существует, расчеты показывают, что склейка ее ячеек будет заставлять смоделированные частицы словно соскальзывать и проявлять симметрию, присущую изначальной модели. Если, скажем, решетка составлена из кубов − будет проявляться кубическая симметрия.


Однако как проверить эти доводы − пока совершенно непонятно. А главное, непонятно главное: стоит ли их проверять?