Эмуляция

Мэкалль Мат Свер
      Принцип наименьшего вычисления - главный принцип моделирования.  При построении любой симуляции/эмуляции из множества адекватных вычислительных моделей выбирается самая экономная.  Стоит только начать моделировать каждую элементарную частицу - и "реальный" объём компа, способного потянуть рассчёт в реальном времени превысит "виртуальный" объём модели - в теоретическом пределе.

  
     При моделировании вселенной, даже в "игровых" целях необходим временной масштаб 1:1(real-time), а при эволюционных исследованиях вообще "sky is the limit"(чем быстрее,   тем лучше).  Да и вычислительная система, по возможности, не должна занимать всю вселенную.  Вот и получается, что хорошая модель обычно оперирует не траекториями отдельных частиц, а статистическими формулами, описывающими поведение систем, включающих огромное множество частей, как единого целого.  Не то, что "траектория частицы", но даже и сама частица, существует при этом в той лишь мере, в коей её "поведение" учитывается вычислительной моделью.

 
    Немало решений уравнений статистики имеют волновую природу.  Дифференциальные уравнения отлично моделируются аналоговыми компонентами компьютера.  Наиболее "интересные" их решения включают комплексную экспоненту от времени(на практике - синусоиду).  Наиболее заметные следствия - диффракция, интерференция(радуга, преломление света на призме, белое пятно в центре круглой тени и ещё более "экзотические" эффекты)(*1).  Само по себе, всё это довольно зрелищно и, на первый взгляд, безобидно.  К счастью, когерентный поток метеоритов - весьма редкое явление; а вот на результат испытаний недавно запатентованных сверхскорострельных пулемётов хотелось бы посмотреть(см. ниже).

  
     Волновая природа частиц, таким образом, не баг, а вынужденный результат экономии.  Но вот дальше на сцену выходит понятие наблюдателя, субъекта модели(*2)(*3).  В рамках самой модели это понятие абсолютно необъяснимо(учёные называют такие понятия фундаментальными и просто постулируют, не объясняя).  Вне модели понятие это вводится рекурсивно.  Внешний по отношению к модели субъект: администратор, пользователь(user), "гость" - "реальный" или "виртуальный"(програма) userid - являются наблюдателями самого высокого уровня.  Всё, что они "ощущают", в идеале, должно соответствовать техническому описанию модели и не зависеть от её практической реализации.  Объект модели, способный зарегистрировать и передать информацию наблюдателю, является "прибором" - наблюдателем более низкого уровня.  С введением в модель наблюдателей, возникают как чисто вычислительные, так и философские трудности.

  
     Стоит наблюдателю проявить интерес("посмотреть") к "волновому" процессу на уровне отдельных частиц(регистрация посредством прибора), как модель переходит от статистических формул к вычислению траекторий частиц.  Волновые эффекты исчезают при "пристальном" наблюдении.  "Шероховатости" перехода между вычислительными моделями сглажены так называемым "принципом неопределённости"(*4).  При исследовании явлений микромира ещё остаётся место для демагогии(физическое влияние методов наблюдения на наблюдаемый процесс).  При испытаниях скорострельных пулемётов(см. выше) объяснить влияние скоростных съёмок на диффракцию и прочую интерференцию будет несколько сложнее(*5).

  
     Наблюдателю достаточно проявить интерес к какой либо части модели, как ресурсы начинают концентрироваться на её более детальной и точной проработке(*6)(*3).  Чем больше наблюдателей и приборов, тем больше потребляется ресурсов.  В случае, когда объектом интереса наблюдателя являются разумные существа, они проявляют тенденцию к  переходу в разряд субъектов наблюдения.  Возникает лавинообразный(экспоненциальный) рост потребляемых моделью ресурсов - эффект Проскурина.  Модель "тормозит".  При пересечении порога реального времени, администраторы становятся перед нелёгким выбором.  Всё таки Проскурину недостаёт оптимизма - временная приостановка модели(до увеличения доступных ресурсов) - самое рациональное решение.  Изнутри модели вся эта суета заметно не отражается.  Впрочем, приближение мощности компьютеров в моделируемой вселенной, к мощности сервера, её моделирующего... - вот основной вопрос философии моделирования.

  
     Невозможно смоделировать вселенную с "продвинутым"  разумом так, чтобы этот разум не обнаружил "глюки" модели и не сформулировал принцип наименьшего вычисления.  изнутри модели он выглядит сложнее: "существует такая вычислительная машина, что все "ненаблюдаемые" процессы во вселенной происходят так, чтобы наиболее экономным образом моделироваться на этой машине".  Закон выполняется с точностью до некомпетентности програмистов.  После формулировки этого закона, остаётся "только" оценить меру оной некомпетентности, спрогнозировать вероятные баги, выделить "полезные"(эксплоиты) - и заняться их поиском.  Эмуляция "виртуальных" компьютеров "реальным" сервером модели - одно из самых уязвимых мест.

  
     В середине прошлого века работники Бэлл компани открыли "реликтовое излучение" -    излучение "молодой" вселенной времён Большого Взрыва.  Однородность этого излучения позволяет оценить однородность вселенной.  Когда будут разработаны сверхточные приборы для определения меры когерентности излучения, изучение интерференции пучков реликтового излучения может дать карту "плотности" наблюдателей во вселенной.  В массштабе Солнечной системы должна быть возможна и точная триангуляция.

  
  
  
  
   <i>Примечания, ссылки.</i>

  
   *1  Ньютон, Гюйгенс.

  
   *2  Мах, Эйнштейн.

  
   *3  Нельзя не отметить вклад Проскурина в разработку этого и многих других определений.

  
   *4  Гейзенберг.

  
   *5  Все доказательства, основанные на уже произведённых наблюдениях методологически сомнительны.  Предсказание новых эффектов убедительней.

  
   *6  Желязны.