Compartir

Carlos del Porto Blanco

Y si el futuro ya estuviera calculado, imagine por un instante que cada decisión que toma, cada palabra que pronuncia, cada paso que da estuviera ya contenido en una ecuación, no escrita en un libro secreto, no grabada en las estrellas, sino implícita en las leyes que gobiernan el universo. Que el mañana no fuera una incógnita abierta, sino el resultado inevitable de lo que ocurrió ayer.

¿Vivimos en un mundo donde todo está determinado o existe un margen real para la sorpresa a la elección y el azar? ¿Somos agentes libres o sistemas complejos siguiendo reglas invisibles? Durante siglos, la ciencia ha avanzado precisamente porque el universo parecía obedecer leyes claras y predecibles.

El movimiento de los planetas, la caída de un objeto, la propagación de la luz; si se conocen las condiciones iniciales y las leyes que las rigen, se puede calcular lo que ocurrirá después, al menos en principio. A comienzos del siglo XIX, esa idea alcanzó su forma más extrema, un universo completamente determinista, donde una inteligencia capaz de conocer todas las fuerzas y posiciones del cosmos podría prever el futuro con total precisión. Nada quedaría fuera de su alcance, ni siquiera nosotros.

Hoy hablaré del demonio de Laplace, éste es muy diferente de los demonios que aparecen en la literatura o las películas de terror. Este es inteligente y nació en 1814 de la mente del matemático y astrónomo francés Pierre-Simon Laplace. Laplace había estudiado la mecánica clásica; las leyes de las fuerzas y el movimiento formuladas por Isaac Newton. Se dio cuenta de que si existiera una inteligencia vasta —tanto que pudiera conocer las posiciones y los movimientos de cada partícula del universo en un instante dado— entonces también conocería el futuro. Sin sorpresas, todo está escrito en piedra. A este concepto dedicaré esta columna.

La ciencia es el gran antídoto contra el veneno del entusiasmo y la superstición. Adam Smith

En la historia de la ciencia, el demonio de Laplace se considera la primera publicación de determinismo causal o científico. El deseo de confirmar o refutar el demonio de Laplace jugó una función motivadora en el desarrollo subsiguiente de la termodinámica estadística, la primera de varias objeciones desarrolladas por generaciones posteriores de físicos a la suposición de determinismo causal sobre la que se erigió el demonio de Laplace.

En la introducción a su Ensayo Filosófico sobre las Probabilidades de 1814, Laplace desarrolló una idea de Gottfried Leibniz que se hizo famosa como el Demonio de Laplace, la definición clásica del determinismo físico estricto, con su único futuro posible. Laplace planteaba:

“Podemos considerar el estado actual del universo como el efecto de su pasado y la causa de su futuro. Un intelecto que en un momento dado conociera todas las fuerzas que ponen en movimiento la naturaleza, y todas las posiciones de todos los elementos que la componen, si además fuera lo suficientemente vasto como para someter estos datos a análisis, abarcaría en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más pequeño; pues para tal intelecto nada sería incierto y el futuro, al igual que el pasado, estaría presente ante sus ojos.”

Es a esa idea a la que se denomina demonio de Laplace. El mismo Laplace no utilizó la palabra «demonio». Se refirió a esa entidad como “Une intelligence… Rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux.” (“Una inteligencia (…) Tal que para ella nada sería incierto y el pasado, al igual que el futuro, serían presente ante sus ojos.”

Pero esa visión empezó a resquebrajarse al cabo del tiempo, como siempre ocurre en las ciencias. Primero con la mecánica cuántica que introdujo la probabilidad en el corazón mismo de la naturaleza y luego con la aparición del caos, sistemas gobernados por leyes simples, pero extremadamente sensibles a las condiciones iniciales y más recientemente con algoritmos capaces de predecir comportamientos humanos a partir de datos masivos. Y entonces la pregunta regresó transformada. Si no es el universo quien calcula nuestro futuro, ¿lo están haciendo las máquinas?

Hoy modelos matemáticos anticipan desde el tiempo atmosférico hasta el consumo energético, desde epidemias hasta elecciones, algoritmos que no saben quiénes somos, pero que aciertan sorprendentemente a menudo lo que haremos. No porque lean el destino, sino porque detectan patrones donde nosotros vemos decisiones libres. ¿Hasta qué punto somos previsibles? ¿Es la libertad compatible con la predicción? ¿Y qué significa futuro en un mundo donde cada vez más decisiones se toman antes de que seamos conscientes de ellas?

Todo lo que va a suceder está ya implícito en las condiciones iniciales del sistema. El paso del tiempo no crea novedad, simplemente despliega lo que ya estaba ahí. Este enfoque no se limitó a los astros o a los objetos físicos, pronto se extendió a la naturaleza en su conjunto. Si los cuerpos obedecen leyes, ¿por qué no los organismos? Y si el cerebro con toda su complejidad no fuera más que una máquina biológica sometida a las mismas reglas.

La idea era muy fuerte y en cierto modo tranquilizadora porque un universo determinista es un universo comprensible, un mundo donde todo tiene una causa, aunque no siempre la conozcamos. La incertidumbre no sería una propiedad del mundo, sino una limitación humana. Ese sueño alcanzó su expresión más clara en la idea de que con suficiente información el futuro podría calcularse con total precisión. Bastaría conocer todas las posiciones, todas las fuerzas, todas las interacciones.

El universo entero reducido a un sistema de ecuaciones resolubles. En ese marco, el libre albedrío se volvía problemático. Si cada estado del universo es una consecuencia del anterior, ¿dónde queda la libertad? ¿Somos realmente autores de nuestras decisiones? O simplemente el resultado de una cadena causal que comenzó mucho antes de que existiéramos. Durante mucho tiempo, la ciencia no vio esto como un problema, sino como una consecuencia lógica.

La libertad podía entenderse como ignorancia de las causas profundas. Elegimos, sí, pero la hacemos porque no conocemos todas las variables que nos determinan. Sin embargo, ese sueño tenía una condición muy exigente, la posibilidad de conocer con precisión absoluta las condiciones iniciales. Y ahí empezaron las grietas. Porque en la práctica medir el mundo con precisión infinita es imposible. Siempre hay errores, fluctuaciones y límites instrumentales.

No sabemos qué ocurrirá porque no lo sabemos todo, no porque el futuro no exista todavía. Esa idea tuvo una enorme influencia, convertía a la ciencia en una empresa casi omnipotente. Avanzar en conocimiento equivalía a reducir la incertidumbre. Cada nueva ley descubierta estrechaba el margen de lo desconocido. El universo aparecía como un libro ya escrito del que solo faltaban algunas páginas.

Pero el demonio de Laplace tenía implicaciones muy importantes y no solo científicas. Si todo está determinado por el estado previo del universo, entonces nosotros también lo estamos. Nuestros pensamientos, nuestras decisiones, nuestras emociones serían el resultado inevitable de procesos físicos anteriores. El libre albedrío, en ese marco, se convierte en una ilusión. Elegimos lo que elegimos porque no podríamos haber elegido otra cosa. Esa conclusión no fue aceptada con entusiasmo.

Ese demonio chocaba con nuestra experiencia íntima de decidir, de dudar, de cambiar de opinión, Pero durante mucho tiempo, la ciencia no vio una alternativa clara. El demonio de Laplace parecía una consecuencia incómoda, pero coherente. Sin embargo, el problema no tardó en aparecer. Para que el demonio funcione, se requiere algo imposible, conocimiento perfecto. Medir con precisión absoluta la posición y el estado de cada partícula, conocer todas las fuerzas sin error y hacerlo todo al mismo tiempo.

Durante un tiempo se pensó que eso era una limitación práctica, que el demonio no podía existir, pero que el universo seguía siendo determinista en esencia. El fallo estaría en nosotros, no en las leyes. Pero en el siglo XX cambió radicalmente ese panorama. Primero con la teoría del caos que mostró que incluso sistemas perfectamente deterministas pueden ser impredecibles en la práctica. Una mínima variación en las condiciones iniciales puede producir resultados radicalmente distintos.

El demonio necesitaría una precisión infinita, algo que ya no parecía solo difícil, sino conceptualmente inalcanzable. Después llegó la mecánica cuántica que fue aún más demoledora para el demonio. En el corazón de la materia apareció un límite fundamental al conocimiento. No es que no sepamos algunas cosas, es que no pueden saberse simultáneamente. La incertidumbre ya no era ignorancia, sino una propiedad de la naturaleza.

El demonio de Laplace empezó a desvanecerse, no porque dejara de ser lógico, sino porque el universo ya no parecía obedecer las reglas que lo hacían posibles. Y, sin embargo, la idea no ha desaparecido, sigue reapareciendo bajo nuevas formas. En algoritmos predictivos, en modelos que intentan anticipar el comportamiento humano, en la tentación de creer que, con suficientes datos, todo puede preverse. El demonio de Laplace ya no vive en la física clásica, pero su sombra nos sigue acompañando.

Vayamos al pasado para conocer los antecedentes:

Gotfried Leibniz imaginó a un científico que pudiera ver los acontecimientos de todos los tiempos, del mismo modo que se cree que todos los tiempos están presentes en la mente de Dios. Decía el sabio alemán: «Todo procede matemáticamente… si alguien pudiera comprender suficientemente las partes internas de las cosas, y además tuviera la memoria y la inteligencia suficientes para considerar todas las circunstancias y tenerlas en cuenta, sería un profeta y vería el futuro en el presente como en un espejo.»

El poco conocido científico serbio Roger Joseph Boscovich desarrolló una teoría atómica y comprendió las implicaciones de conocer las posiciones, velocidades y fuerzas de todos los átomos:

“Cualquier punto de materia, dejando de lado los movimientos libres que surgen de la acción de la voluntad arbitraria, debe describir alguna línea curva continua, cuya determinación puede reducirse al siguiente problema general. Dados varios puntos de materia, y dado, para cada uno de ellos, el punto del espacio que ocupa en un instante dado; también dada la dirección y la velocidad del movimiento inicial si fueran proyectados, o la velocidad tangencial si ya estuvieran en movimiento; y dada la ley de fuerzas expresada por alguna curva continua, que contiene esta Teoría mía; se requiere hallar la trayectoria de cada uno de los puntos, es decir, la línea a lo largo de la cual se mueve cada uno de ellos. […]

Ahora bien, aunque un problema de tal tipo supera todas las capacidades del intelecto humano, cualquier geómetra puede ver fácilmente hasta ahora que el problema es determinado y que tales curvas serán todas continuas […] y una mente que tuviera las capacidades necesarias para abordar tal problema de manera apropiada y fuera lo suficientemente brillante como para percibir sus soluciones (y tal mente podría incluso ser finita, siempre que el número de puntos fuera finito y la noción de la curva que representa la ley de las fuerzas estuviera dada por una representación finita), tal mente, digo, podría, a partir de un arco continuo descrito en un intervalo de tiempo, por pequeño que sea, por todos los puntos de la materia, derivar la ley de las fuerzas misma;

[…] Ahora bien, si se conociera la ley de las fuerzas, y la posición, velocidad y dirección de todos los puntos en cualquier instante dado, sería posible para una mente de este tipo prever todos los movimientos y estados subsiguientes necesarios, y predecir todos los fenómenos que necesariamente se derivarían de ellos.”

Y ambas ideas fueron anticipadas por filósofos de la antigüedad, quizás también influenciados por la teoría atómica de la materia de Demócrito y Epicuro. En su obra Sobre la Adivinación, Cicerón explicó la teoría determinista, incluso fatalista, de los estoicos, con su Dios omnisciente,

“Además, puesto que todo sucede por designio divino, como se demostrará más adelante, si existiera algún mortal capaz de observar con su mente la interconexión de todas las causas, nada se le escaparía. Pues quien conoce las causas de lo que ha de ser, necesariamente conoce todo lo que ha de ser. Pero como solo Dios puede hacerlo, lo que le queda al hombre es prever el futuro mediante ciertas señales que aclaran lo que vendrá. Porque lo que ha de ser no surge de repente, sino que el paso del tiempo es como el desenrollado de una cuerda, que no produce nada nuevo, sino que despliega lo que ya existía.”

Volviendo al punto en que nos habíamos quedado, la perspectiva de Laplace implica que el pasado, el presente y el futuro siempre contienen exactamente el mismo conocimiento. Eso convierte a la información en una constante de la naturaleza.

Sin embargo, a mediados del siglo XIX, William Thomson, Lord Kelvin comprendió que la recién descubierta segunda ley de la termodinámica exigía que la información no pudiera ser constante, sino que se destruiría a medida que la entropía (el desorden) aumenta irreversiblemente. Hermann Helmholtz describió ese fenómeno como la muerte térmica del universo. Los físicos, entre ellos Ludwig Boltzmann, describieron la entropía como «información perdida», aunque muchos matemáticos pensaban que la información perdida podría recuperarse (por ejemplo, invirtiendo el tiempo).

La afirmación de Lord Kelvin sería correcta si el universo fuera un sistema cerrado. Pero en nuestro universo abierto y en expansión, David Layzer demostró que la entropía máxima posible aumenta más rápido que la entropía actual. La diferencia entre la entropía máxima posible y la entropía actual se denomina entropía negativa, lo que abre la posibilidad de estructuras de información complejas y estables. Así pues, la visión actual del universo es que comienza con un «nacimiento por calor» y termina con una «muerte por frío».

Ahora se sabe que un demonio de Laplace es imposible, y por dos razones distintas. La razón antigua era que la física cuántica moderna es inherentemente indeterminista. El futuro es sólo probabilístico, aunque pueda estar «adecuadamente determinado».

La nueva razón es que no hay suficiente información del pasado (ninguna en absoluto en el universo primitivo) para determinar el presente. El «pasado fijo» y las «leyes de la naturaleza» no predeterminan nada, a pesar de los recientes argumentos filosóficos que afirman que las leyes de Newton sí determinan el futuro. De igual modo, la información actual no determina el futuro. Nuestro futuro está abierto. Debemos crearlo.

De ello se deduce que el determinismo, la idea filosófica de que todo acontecimiento o estado de cosas, incluyendo toda decisión y acción humana, es la consecuencia inevitable y necesaria de estados de cosas o causas antecedentes, no es cierto. El determinismo, o la determinación por algunos acontecimientos precedentes como causas, debe distinguirse del predeterminismo de la época de Laplace, la idea de que todo el pasado (así como el futuro) estaba determinado en el origen del universo.

En una clase de mecánica clásica, se aprende que las leyes del movimiento: leyes simples y poderosas, como fuerza igual a masa por aceleración o F=ma. En las tareas escolares, se dan condiciones iniciales como «una persona en la superficie de la Tierra lanza una pelota de béisbol con velocidad X en dirección Y» y luego se pregunta dónde aterrizará la pelota y cuándo lo hará. La belleza de la mecánica clásica radica en que, al conocer las condiciones iniciales y las leyes de la física, se sabe con exactitud qué sucederá en el futuro. La pelota aterrizará exactamente donde se calculó, en el momento exacto calculado. Un ejemplo de esto se está comprobando en estos días con la misión espacial Artemis II.

Será válida la pregunta: ¿El demonio puede predecir el futuro? En teoría Sí, conocería el futuro de cada persona, planeta y partícula. Pero imagine la capacidad de cálculo que requiere ese demonio: hay 10²³ átomos de carbono en 12 gramos de carbono, para que se tenga una idea, doce gramos de carbono es una cantidad minúscula, que cabe en una cuchara. El demonio tendría que conocer la posición de cada átomo, y de cada electrón, protón y neutrón, así como los quarks dentro de los nucleones, ¡y sus velocidades! Cuando Laplace dijo “inmenso”, lo decía en serio.

Se cree que el demonio de Laplace no puede existir ni siquiera en principio, pero la cuestión de su existencia es muy sutil y merece ser considerada. Incluso en la mecánica clásica existen ciertas configuraciones físicas con condiciones iniciales que no permiten determinar el futuro con exactitud. Pero son escenarios muy especiales y altamente improbables. El obstáculo más importante para el demonio de Laplace es la mecánica cuántica, como ya se mencionó.

¿por qué la mecánica cuántica es un obstáculo para el demonio?

La tarea del demonio es determinar el futuro de todo el universo a partir de las condiciones iniciales y las leyes de la física, y posee la inteligencia necesaria para ello. La mecánica cuántica complica las cosas porque solo permite calcular probabilidades de resultados. Sus leyes son perfectamente rigurosas y deterministas hasta que se trata de medir cosas (como se mide dónde y cuándo caería una pelota de béisbol). Recuerde el principio de incertidumbre de Heisenberg, se puede conocer de una partícula su posición o su posición, pero no ambas variables.

Si se lanza un electrón contra una pared, se puede afirmar cosas como: hay un 90 % de probabilidad de que caiga justo donde apunto, un 5 % de probabilidad de que termine en una esquina, un 1 % de probabilidad de que termine en una esquina más alejada, etc. Sigue siendo riguroso, pero no determinista. El demonio no puede predecir los resultados como lo hacía cuando solo tenía que lidiar con la física clásica. El demonio omnisciente ya no lo sabría todo; ¡tendría que empezar a tirar los dados!

De hecho, cuando se formuló la mecánica cuántica durante la década de 1920, el proceso duró varios años y fue necesario recopilar numerosas pistas experimentales y teóricas. Se demostró que la naturaleza probabilística de esa nueva teoría coincidía de forma asombrosa con los experimentos; a muchos físicos, incluido Albert Einstein, les costó mucho aceptar que ya no se podía predecir resultados exactos. Y fue entonces que Einstein escribió una carta a Max Born en 1926, donde le expresó la lapidaria frase: “¡Dios no juega a los dados!”. Pero la práctica, tozuda ella, demuestra que la naturaleza sí juega a los dados.

La pregunta que plantea el demonio de Laplace —si el universo es determinista o probabilístico— es interesante porque aún hoy se están poniendo a prueba las implicaciones de la naturaleza probabilística de la mecánica cuántica mediante experimentos. Se ha otorgado el Premio Nobel de Física a investigadores que ponen a prueba a la mecánica cuántica en busca de los mecanismos ocultos (llamados variables ocultas) que tanto intrigaron a Einstein.

Todos los resultados apuntan a un universo probabilístico, y eso es una mala noticia para el señor demonio, pero una buena noticia para nosotros.

Un golpe fuerte al demonio de Laplace fue el descubrimiento de la teoría del caos. El caos no significa desorden ni ausencia de leyes, al contrario. Los sistemas caóticos obedecen reglas matemáticas precisas. La diferencia es que son extremadamente sensibles a las condiciones iniciales. Una variación minúscula en el punto de partida puede generar resultados radicalmente distintos con el paso del tiempo. No porque las leyes fallen sino porque el sistema amplifica cualquier pequeña diferencia hasta hacerla dominante.

Ese comportamiento fue identificado por primera vez en los años 60 por el meteorólogo Edward Lorenz, mientras trabajaba en modelos matemáticos del tiempo atmosférico. Lorenz observó que, al introducir un redondeo decimal insignificante en los datos iniciales, producía predicciones meteorológicas completamente diferentes. No se trataba de un error del modelo, era una propiedad intrínseca del sistema. Así nació la famosa metáfora del efecto mariposa.

La meteorología es uno de los ejemplos más claros de sistemas caóticos. Está regida por leyes físicas bien conocidas, las ecuaciones de la dinámica de fluidos y la termodinámica, pero su complejidad es tan grande que resulta imposible conocer con precisión absoluta todas las variables relevantes: Temperatura, presión, humedad, viento, radiación solar, una desviación imperceptible en cualquiera de ellas puede alterar la evolución futura del sistema.

La predictibilidad tiene un horizonte limitado. Se puede anticipar el tiempo con bastante fiabilidad a corto plazo, pero más allá de unos días o semanas la incertidumbre crece de forma importante. No porque se ignoren las leyes, sino porque la precisión requerida para extender la predicción es físicamente inalcanzable. Pero el caos no es exclusivo de la meteorología.

Aparecen sistemas tan diversos como la dinámica de poblaciones biológicas, el comportamiento de los mercados financieros, la actividad eléctrica del corazón o incluso ciertos procesos neuronales. En todos ellos, pequeñas fluctuaciones internas o externas pueden modificar la trayectoria global del sistema. Desde el punto de vista matemático, esos sistemas presentan lo que se conoce como atractores caóticos, estados hacia los que el sistema tiende, pero sin repetir nunca exactamente la misma trayectoria.

El comportamiento está acotado, pero no es predecible en detalle. Hay estructura, pero no repetición exacta. Ese descubrimiento tuvo un impacto profundo en esa idea clásica de determinismo. Aunque las leyes sigan siendo deterministas, el futuro deja de ser calculable en la práctica, no por limitaciones técnicas, sino por límites fundamentales en la precisión de la información. La teoría del caos introdujo una distinción clave, determinismo no es lo mismo que predictibilidad.

Un sistema puede estar completamente determinado por leyes físicas y aun así ser impredecible a largo plazo. El futuro existe como consecuencia del presente, pero no puede ser anticipado con exactitud. Eso cambia la relación con la idea de un futuro calculado. Incluso sin recurrir al azar cuántico, incluso en un universo regido por las leyes clásicas, la complejidad basta para romper la ilusión de control total.

El caos enseña que el universo no necesita ser indeterminado para ser imprevisible, que el futuro puede estar condicionado sin estar escrito, que las leyes por sí solas no garantizan la capacidad de anticipar lo que vendrá. Y ahí surge una nueva pregunta, ¿hasta qué punto tiene sentido seguir pensando que puede estar completamente calculado?

El futuro en muchos ámbitos se ha convertido en una estimación computacional. Esos sistemas funcionan a partir de datos masivos, millones de registros sobre lo que hacemos, cuándo lo hacemos y en qué condiciones. A partir de esa información, los algoritmos construyen modelos estadísticos que detectan regularidades. No necesitan entender causas profundas, les basta con correlaciones estables. Si un patrón se repite lo suficiente, puede usarse para anticipar lo que probablemente ocurrirá después.

Desde un punto de vista científico, eso no es adivinación, es inferencia probabilística. Los algoritmos no dicen qué ocurrirá con certeza, sino que es más probable que ocurra dadas unas condiciones similares a las observadas en el pasado. En ese sentido, no eliminan la incertidumbre, pero la reducen. El éxito de esos sistemas es innegable, la predicción meteorológica, la gestión del tráfico, la detección temprana de fraudes o la optimización energética dependen hoy de algoritmos predictivos.

En muchos casos funcionan mejor que la intuición humana, porque procesan más información de la que una persona puede manejar. Sin embargo, cuando esos modelos se aplican al comportamiento humano, surge un problema. Las personas no somos partículas ni sistemas cerrados. Cambiamos al conocer la predicción, adaptamos nuestras decisiones y eso introduce un elemento reflexivo que complica cualquier cálculo.

Además, los algoritmos no son neutrales, aprenden de datos históricos y esos datos contienen sesgos, desigualdades y decisiones pasadas. Cuando un modelo predice el futuro basándose en ese pasado, puede reproducirlo y reforzarlo. El futuro no se limita a ser calculado, empieza a ser condicionado por el propio cálculo. Desde la ciencia es crucial distinguir entre predecir y determinar.

El futuro no está escrito en la naturaleza, pero empieza a escribirse en el código. A diferencia del determinismo clásico, el determinismo algorítmico no aspira a la certeza absoluta. Trabaja con posibilidades y probabilidades, pero su poder reside en la escala y la velocidad. Puede anticipar tendencias antes de que seamos conscientes de ellas, puede actuar antes de que decidamos. Por eso el futuro en forma de algoritmo no plantea solo una cuestión técnica, sino una cuestión conceptual.

Pensar en si el futuro está ya calculado obliga a aceptar una realidad más compleja que cualquier respuesta simple. Las leyes existen, los patrones se repiten, los algoritmos anticipan y el azar introduce variación. Nada ocurre al margen de las reglas del universo, pero tampoco todo está fijado con una precisión absoluta. El futuro no es una página en blanco, pero tampoco un texto cerrado, es un espacio de posibilidades acotadas que se despliega a medida que se avanza.

Quizás ahí reside la verdadera condición humana, no en escapar de las leyes ni en creer que todo está escrito, sino en movernos dentro de ese margen incierto que dejan el caos, la probabilidad y la decisión. Un futuro que no puede calcularse del todo y que precisamente por eso sigue siendo habitable, porque mientras exista incertidumbre seguirá existiendo también la posibilidad de elegir, de cambiar de rumbo y de sorprender, incluso a los modelos que intentan anticiparnos.

Recientemente se ha propuesto que existe un límite en el poder computacional del universo, es decir la capacidad del demonio de Laplace para una cantidad infinita de información. Ese límite está basado en la entropía máxima del universo, la velocidad de la luz y la cantidad mínima de tiempo necesario para mover información a través de la longitud de Planck y la cifra resulta ser aproximadamente 10120 bits. Consiguientemente, cualquier cosa que requiera más que esa cantidad de datos no puede ser computada en la cantidad de tiempo que ha sucedido hasta ahora en el universo.

Referencias

Etiquetas: - -