Desde hace siglos, la humanidad debate si la realidad es tangible o un producto artificial diseñado por una inteligencia superior. Un reciente trabajo académico aborda esta cuestión ancestral mediante una nueva teoría que examina cómo dos sistemas podrían generarse mutuamente sin una jerarquía establecida. El análisis, liderado por David Wolpert del Santa Fe Institute, busca definir con precisión matemática qué significa realmente procesar un cosmos entero, alejándose de la especulación filosófica pura para adentrarse en las ciencias de la computación.
El estudio, publicado en el Journal of Physics: Complexity, trata a cada realidad como un sistema computacional con estados variables en lugar de un sistema físico incognoscible. Para estandarizar los cálculos, el autor utiliza el concepto de la máquina de Turing, un ordenador ideal que sigue reglas secuenciales para transformar datos. Esta elección metodológica permite centrarse en la capacidad técnica de cálculo y copia de la información, dejando de lado las discusiones sobre quién o qué podría estar operando el hardware subyacente.
Una teoría basada en la recursividad infinita
La propuesta se apoya en teoremas de recursividad informática, herramientas que permiten a los programas reproducir sus propias descripciones dentro de su funcionamiento. Esta lógica elimina la necesidad de que un universo simulador se encuentre siempre en un nivel superior al simulado. Según este marco, es posible la auto-simulación, donde un sistema se procesa a sí mismo desde el interior, o incluso escenarios donde dos realidades se generan recíprocamente en un bucle temporal sin que exista un "original" matemático definitivo.
Para organizar estas complejas relaciones, Wolpert emplea gráficos dirigidos, mapas de conexiones donde las flechas indican qué mundo simula a cuál. A diferencia de las visiones tradicionales que imaginan una torre de simulaciones unas sobre otras, estos gráficos permiten cadenas infinitas y círculos cerrados. Esto transforma la vieja narrativa de creadores y creaciones en una red vasta de relaciones computacionales donde el punto de partida se desvanece y la distinción entre lo real y lo virtual pierde nitidez.
Dentro de este esquema, surge el problema de los observadores idénticos. Si un ordenador reproduce cada detalle medible de un universo, el observador situado dentro de la ejecución y el que está fuera comparten la misma historia, memoria y percepción. Ningún experimento físico podría distinguir entre la versión original y la copia, lo que sugiere que las discusiones sobre una única existencia verdadera o un "yo" auténtico podrían carecer de fundamento bajo estas reglas de equivalencia computacional.
Cifrado de datos y límites físicos
A pesar de la precisión de las definiciones formales, ciertos interrogantes permanecen sin respuesta debido a la naturaleza de los algoritmos indecidibles. El documento explora el uso de encriptación homomórfica, la cual permitiría realizar cómputos sobre datos ocultos o revueltos. Esto implica que los posibles arquitectos de una simulación podrían no tener acceso a los resultados de su propia creación sin una clave específica, separando la ejecución técnica del entendimiento o control sobre lo que sucede dentro del programa.
Finalmente, aunque el marco aclara lo que permiten las matemáticas, las limitaciones físicas reales siguen vigentes. Los ordenadores requieren energía y memoria, recursos que crecerían exponencialmente al intentar imitar un cosmos completo. Por tanto, aunque la lógica formal admite estas posibilidades vertiginosas, queda por ver si las leyes de la termodinámica permiten construir las máquinas necesarias para poner a prueba tales hipótesis fuera del papel.





