Entrevista a Gregory Chaitin

This post is also available in: Inglés

¿La metabiología es, de alguna forma, la continuación de sus anteriores investigaciones?

Sí. Emil Post fue un matemático que hizo contribuciones muy importantes en la misma época, más o menos, que Turing y Gödel, en los años cuarenta; más o menos en la misma línea, aunque ha quedado un poco en el olvido. Y solía decir que lo que implica la insolubilidad del problema de la parada es que las matemáticas son fundamentalmente creativas, tienen que serlo y siempre lo serán. Entonces, si uno da un pequeño paso adelante y dice: “bueno, vista desde lejos, la creatividad en biología no es tan diferente de la creatividad en matemáticas”, que es lo que yo sostengo, uno ve que el trabajo de Gödel, Turing y Post abre una puerta a la evolución, a la creatividad biológica, a una teoría de la evolución. Esa es, a grandes rasgos, la idea.

Otra forma de verlo es que la incompletitud y la insolubilidad del problema de la parada muestran que las matemáticas tienen complejidad infinita y, por lo tanto, son más como la biología que la propia biología, porque la biología es muy complicada pero solo tiene complejidad finita, mientras que las matemáticas tienen -demostrablemente- complejidad infinita, como muestran los bits de la probabilidad de parada, que son información irreducible. Así que eso es otra puerta desde las matemáticas puras a la biología. Hace un tiempo empecé a desarrollar esa intuición y ahora tengo el principio de una teoría matemática de la evolución en esa línea.

Otra pista es la idea de que el ADN es lo que los informáticos llaman un lenguaje de programación universal. Hay una noción -acuñada por Turing en 1936- la universalidad, que dice que, aunque las teorías axiomáticas son siempre incompletas, los lenguajes de programación pueden ser completos, universales, lo que significa que cualquier cosa que se pueda escribir en un lenguaje de programación se puede escribir también en un lenguaje de programación universal. Esos son los lenguajes más poderosos y, parece ser, el ADN está en ese nivel, es un lenguaje que puede expresar cualquier algoritmo. Así que ahí tenemos otra pista, y aún otra más es simplemente una observación tecnológica: las dos tecnologías más importantes en la actualidad son la informática y la biología molecular. Una está ya bastante desarrollada, la otra lo empieza a estar. Si uno mira al ADN de un organismo, ve que se trata básicamente un gran programa informático: el genoma humano tiene del orden de un gigabyte de información. Y ahora tenemos bibliotecas donde almacenamos el genoma de especies: una vez estuve un una y tenían unas 300; ahora deben de tener miles y miles. Tienen el genoma entero, que no es más que un programa muy grande en un lenguaje de muy bajo nivel, que aún no entendemos muy bien. Y, por otro lado, tenemos lenguajes de programación. Es decir, tenemos software digital en la naturaleza, la biología, y en este mundo artificial, que son los ordenadores. Y se parecen mucho, de alguna forma, así que la idea es aprovecharse de esa analogía y usarla para desarrollar una teoría matemática, fijándose en mutaciones aleatorias en programas de ordenador, que con suerte tendrán algo que ver con las mutaciones aleatorias en el ADN. Esta es la idea que subyace a lo que he dado en llamar “metabiología”.

¿Cuánto ha avanzado en esa dirección?

He estado trabajando en esto durante unos dos años; hace dos años tuve la idea de que esta era una buena dirección para investigar, pero había un problema, una barrera: era incapaz de obtener una teoría matemática razonable, no podía demostrar teoremas serios, como el teorema de que la evolución funciona. A finales de agosto logré un adelanto importante, y ahora esta nueva teoría, la metabiología, está conectada íntimamente a la teoría algorítmica de la información y tiene toda su elegancia. En particular, la teoría algorítmica de la información empieza con la probabilidad de parada Omega, un número fascinante que muestra que las matemáticas puras son infinitamente complicadas, pero la idea clave es que la teoría algorítmica de la información asigna probabilidades de forma muy natural, por ejemplo la probabilidad de parada. De la misma manera, también se puede usar para asignar probabilidades a mutaciones de forma natural. La idea clave es: ¿qué es una mutación? Al principio yo trabajaba con mutaciones de muy bajo nivel, las llamadas “mutaciones puntuales” en biología, lo que básicamente significa que se cambia una o más bases contiguas en el ADN. Como sabrá, el ADN es un lenguaje con cuatro símbolos, A, C, G y T, las cuatro bases. Así pues, al principio trabajaba con mutaciones puntuales, lo que significaba cambiar un cierto número de bits contiguos, y obtuve algunos resultados, pero matemáticamente no me iba muy bien. Era feo, aunque eso suele pasar con los trabajos pioneros. Así que, a finales de agosto, me di cuenta que lo que necesitaba era generalizar la noción de mutación, de forma que ahora una mutación es una función arbitraria que coge el organismo como entrada y produce como salida el nuevo organismo. Es una función arbitraria, pero tiene que ser una función simple. Solo será muy probable si es muy fácil de programar. Eso incluye insertar, cambiar o borrar algunos bits contiguos -todas esas son mutaciones simples en el nuevo contexto- pero también incluye transformaciones como dar la vuelta a cada bit del programa, que no es una transformación muy útil pero es muy simple, muy probable si uno coge mutaciones al azar. Así que la teoría algorítmica de la información, además de darte una probabilidad de parada, también te da una medida natural en el espacio de todas las mutaciones posibles. Y eso es lo que estoy usando ahora, esta noción de alto nivel de lo que es una mutación. Ahora bien, no estoy seguro de cómo son las mutaciones en la biología real: hay mutaciones de alto nivel y mutaciones puntuales, ocurren las dos. Una se llama recombinación, cuando se mezclan piezas del padre y la madre; otra mutación de la que hablan los biólogos es la que consiste en copiar un gen entero y luego hacer cambios en una de las copias -algo que parece suceder a menudo- y esas son transformaciones del ADN de bastante alto nivel.

Otra forma de hablar de los modelos que uso es volver a Dawkins. En El gen egoísta, dice que los organismos son la forma que tienen los genes de reproducirse. Así que en mi modelo todo lo que tengo son los genes. Básicamente, he prescindido del organismo. De alguna forma, estoy haciendo física teórica: para demostrar resultados en biología, tengo que simplificarla a un modelo de juguete -los físicos se sienten muy cómodos con eso, lo hacen todo el rato. La biología teórica que propongo, a la que llamo metabiología, está mucho más alejada de la biología real que la física teórica de la física. La física teórica y la física están muy cerca: eso se debe a que la física es muy matemática. Ahora bien, la biología no parece para nada matemática, de hecho parece ser un sitio donde las matemáticas realmente no pueden aplicarse demasiado, así que tengo que irme lejos de la biología, hasta este modelo de juguete al que llamo metabiología, para ser capaz de demostrar cosas. Por lo tanto, esta biología teórica que propongo y que empieza a funcionar está más alejada de la biología real pero, espero, a medida que se desarrolle tendremos una idea más clara sobre si es relevante o no para esta. De momento, el modelo de juguete que tengo tiene una gran belleza matemática, pero está muy apartado de la biología real: un ejemplo es que me da igual si los programas de mi modelo -que son el equivalente al ADN- tardan mucho en ejecutarse, mientras el tiempo de ejecución sea finito. Eso es poco realista desde el punto de vista biológico, pero hace que mi modelo funcione mejor matemáticamente. Así que al principio estoy intentando ver el caso ideal de la evolución. Desde un punto de vista matemático quizás lo haya encontrado, aún no estoy seguro, pero parece prometedor. Luego, uno podría intentar crear versiones más realistas de la teoría, más cercanas a la biología real, y de hecho yo tengo ya dos versiones más de la teoría. Una de ellas es de más bajo nivel: en esa versión, donde tengo programas más simples -no permito que sean arbitrariamente complejos- puedo demostrar que desarrollarán una estructura más y más jerárquica con el tiempo, lo que está un poco más cerca de la biología, pero en esta situación aún resulta fácil demostrar cosas. Es posible que, para aproximarse mucho a la biología, uno tenga que trabajar haciendo experimentos con ordenador, pero no estoy seguro de si en ese caso sería posible demostrar cosas. La clase de experimento que uno podría intentar es hacer que los programas sean muy rápidos, limitar el tiempo de ejecución. Para hacer eso se necesita hacer experimentos con ordenadores, pero sospecho que sería difícil demostrar teoremas, así que habría que ceñirse al trabajo experimental. Así que parece que va a haber un espectro de teorías posibles en metabiología: las que tengan más belleza matemática serán las que más se alejen de la biología real. Desde un punto de vista epistemológico, lo que eso sugiere es que la biología teórica es posible en esa línea, pero va a ser un poco más teórica que la física teórica, va a estar más alejada de la realidad.

Otra cosa de la que uno puede hablar en este nuevo enfoque -aunque puede que sea prematuro- es la creatividad, la creatividad biológica, en lugar de la competición, de la supervivencia del más apto. Lo menciono porque la teoría de la evolución de Darwin ha sido usada para justificar un mercado libre brutal y mi teoría, que intenta enfatizar la creatividad biológica, que no se enfatiza en la forma usual de mirar a la teoría de la evolución de Darwin, va en otra dirección. Desde este punto de vista, no mediría el valor de una sociedad en dólares, no hablaría de su PIB, sino que miraría a la creatividad de la sociedad, a las nuevas ideas -científicas, sociales, tecnológicas, artísticas- que se le ocurren. Así pues, desde el punto de vista de la creatividad, la Grecia antigua es buena, el antiguo Egipto no lo es; la Italia del Renacimiento es buena, China no lo es. Uno ve que China o el antiguo Egipto son mucho más estables que, por ejemplo, la anárquica Grecia clásica, donde todas las ciudades luchaban entre ellas, o la Italia de Renacimiento, que también estaba dividida en pequeños principados y ducados. Así que un control central muy fuerte sobre una gran área geográfica, como China tiene o Egipto tenía aún más, es muy bueno para la estabilidad, pero no para la creatividad; para la creatividad se necesita más anarquía, creo, y una situación donde los individuos puedan tener una cierta influencia, como las pequeñas ciudades-estado griegas o la Italia del Renacimiento. Así que, desde este punto de vista, si uno enfatiza la creatividad, que es mi principal interés, diría que la Comunidad Europea parece una mala idea: puede que sea una idea fantástica económica o políticamente, por ejemplo, si uno quiere competir con los Estados Unidos, pero sospecho que tendrá un efecto negativo sobre la creatividad porque, para eso, es mejor que cada nación en Europa se dedique a su propia investigación sin un control central por parte de Bruselas. De forma similar, desde el punto de vista de la creatividad, sería mejor dividir los Estados Unidos en cincuenta estados diferentes. Por supuesto que esto tendría muchas consecuencias indeseables y no creo que pasase jamás, ¡solo bromeo!

¿Qué piensa de los experimentos con vida simulada, en la que se hace evolucionar a programas de ordenador en ambientes virtuales?

Ha habido unos cuantos experimentos en ese sentido: el primero, Core Wars, de hecho surgió de un juego de ordenador con el mismo nombre; luego está Tierra, creado por Thomas S. Ray, que fue la primera situación interesante: desarrolló parásitos, hiper-parásitos, etc. Y ha habido versiones más recientes de ese tipo de cosas. Mi comentario sobre ello es: sí, se trata de trabajos muy interesantes. Lo que uno hace es intentar simular la evolución. Pero dos precisiones a esto: primero, nunca se podrán demostrar teoremas. Yo intento demostrar teoremas, demostrar que la evolución continuará indefinidamente, para siempre ascendente y hacia adelante. Y la otra precisión es que algunos de estos modelos funcionan muy bien durante un tiempo, pero el problema es que tarde o temprano se estancan, básicamente cuando los organismos se adaptan bien al entorno. Y no está claro cómo hacer que continúe la evolución: se puede hacer endógenamente o exógenamente, intentando crear una situación donde la evolución continúe en lugar de estancarse. Nunca ha habido un experimento con ordenadores que sugiera que la evolución tenga que continuar, todos ellos se paran cuando los organismos se adaptan muy bien a la situación en que se encuentran. Por ejemplo, el experimento original, Tierra, que atrajo mucha atención, se hizo primero en los Estados Unidos, y los japoneses invitaron al creador a hacer una versión mucho mayor en Japón, donde hizo una simulación enorme con muchísimo poder de cómputo. ¡Y dio peores resultados que la versión original! Lo que pasó fue que empezó con un organismo y este, en lugar de volverse más complicado, desarrollar parásitos e hiper-parásitos, muy rápidamente, de forma muy simple, resultó que un organismo mucho más simple se reproduciría muy rápido, así que el original degeneró y, una vez encontró esa forma tan fácil y simple de reproducirse, se quedó allá.

Chris Adami, en Caltech, también ha trabajado en esto. Usó un sistema llamado Avida, que creo que es al que se refería antes, y una nueva versión del programa apareció recientemente en New Scientist.

En conclusión, creo que esos trabajos son muy interesantes y también creo que parte de la investigación tendría que ir por el camino que sugiero. Algún trabajo experimental sería de ayuda en metabiología. Pero con ordenadores sólo se puede llegar hasta un cierto punto. A mí me gustaría tener demostraciones. El trabajo experimental puede ser muy convincente -los biólogos están convencidos de la que la evolución funciona. Pero a mí me gustaría intentar entenderla matemáticamente un poco. Creo que, si la evolución es tan fundamental, tan básica como creen los biólogos, tendría que haber una teoría matemática básica. En este punto, la metabiología es aún un candidato a ser esa teoría. Sí que parece prometedor; eso podría cambiar en el futuro, pero creo que el trabajo inicial es prometedor y espero poder hacer que otra gente se interese en esto. Estoy convencido de que tiene potencial, pero convencer a gente para que se embarque en una nueva área es difícil, porque no hay revistas, no hay financiación… es un problema, tal y como está la investigación hoy en día, pero creo que es un área muy prometedora.

También es diferente que los algoritmos genéticos. Es análogo pero, de nuevo, en los algoritmos genéticos uno simula la evolución para intentar resolver un problema de ingeniería. Y la evolución se estanca en la solución, en una solución relativamente buena. No se demuestran teoremas y, además, no se obtiene una evolución que continúe, sino que esta se detiene cuando se llega razonablemente cerca de una solución al problema propuesto. Pero los algoritmos genéticos están relacionados con lo que propongo. Estuve hablando en São Salvador da Bahia con alguien que trabaja en algoritmos genéticos y estuvo my interesada en mi investigación, porque es muy cercana a la suya. Trabaja en inteligencia artificial, en Brasil. Yo viajo por el mundo dando charlas sobre el tema, con la esperanza de despertar el interés de la gente, pero dar charlas me va muy bien, aunque nadie se interese, porque la gente hace preguntas, plantea sugerencias, y las ideas se van desarrollando así. Espero que, en algún momento, otra gente se sume al proyecto, pero eso aún no ha sucedido.

¿Su investigación le ha ayudado a llegar a alguna definición de vida?

Sí, hay una definición de vida implícita en este modelo. Por cierto, este modelo no se ocupa para nada del origen de la vida, de la creación de la vida. Básicamente, en el modelo que tengo uno empieza con la vida ya presente. Y lo que uno estudia es cómo evoluciona, cómo se incrementa su complejidad. Uno estudia la creatividad biológica. Eso se da porque en mi modelo ya asumo, esencialmente, el ADN, porque cuando asumo un lenguaje de programación universal estoy asumiendo esencialmente que el ADN y todos los mecanismos asociados ya están allá. Así que yo ya tengo vida: lo que pasa es que esa vida se vuelve más sofisticada, evoluciona. Eso se puede contrastar con la genética de poblaciones. Dawkins, en El gen egoísta, dice que Ronald Fisher es “el biólogo más grande desde Darwin”, y lo dice porque Fisher tiene una teoría matemática de la evolución. Y esa teoría, llamada Genética de Poblaciones -Fisher, Wright, Haldane, mucha gente ha trabajado en ella- estudia cómo las frecuencias de genes cambian en respuesta a presiones selectivas. Y es una teoría muy bonita, no tengo nada contra ella, pero en esa teoría uno empieza con un cierto acervo genético, y lo que se estudia es cómo cambian las frecuencias. Así que no se estudia de dónde vienen los nuevos genes. Y eso es lo que me interesa, la creatividad biológica. Además, desde un punto de vista matemático, la Genética de Poblaciones es muy bella y usa matemáticas muy conocidas, las ecuaciones diferenciales, mientras que yo uso un nuevo tipo de matemáticas, que empiezan con Turing en 1936, la teoría de la computabilidad y, en particular, la teoría algorítmica de la información. Así que eso es un nuevo tipo de matemáticas, y básicamente trabajo sobre la idea de que el ADN es esencialmente un lenguaje de programación digital, una metáfora que se usa a menudo: evo-devo, biología evolutiva del desarrollo, se refiere al ADN como un lenguaje de programación que calcula al organismo, que especifica cómo crear el organismo a través del desarrollo embrionario. Así que es una metáfora muy conocida y lo que añado a ella es decir: “tenemos la oportunidad de crear modelos matemáticos y demostrar cosas.” La mayor parte de la investigación actual, que yo sepa, en modelos biológicos, es muy diferente de lo que estoy haciendo. La biología de sistemas, que es lo que está de moda ahora, intenta tener modelos informáticos de sistemas biológicos que sean muy detallados y realistas. Y es muy útil: por ejemplo, esperan ser capaces de averiguar el efecto de un medicamento a través de simulaciones informáticas, en lugar de en organismos vivos. Se trata de un campo efervescente, con mucha gente trabajando en él. Pero creo que es imposible demostrar teoremas en biología de sistemas, porque los modelos son muy detallados, muy complicados, lo que es bueno para una simulación, pero no para demostrar cosas. Se trata de una especie de problema epistemológico relacionado con la forma en que funcionan las matemáticas puras. Le podría dar un par de citas divertidas para ilustrar esta idea, que los físicos teóricos conocen bien: que los modelos de juguete son útiles para entender los sistemas físicos, porque los sistemas reales son demasiado complicados. Una forma de ilustrar este punto es citar a Picasso: dijo algo así como “el arte es una mentira que nos ayuda a ver la verdad”. Y yo lo he modificado un poco: “las teorías son mentiras que nos ayudan a ver la verdad”. También podría citar a John Maynard Smith, un biólogo teórico, y a Jacob Schwartz, un matemático. Tuve, por cierto, la fortuna de conocer a John Maynard Smith antes de que muriese, y Jacob Schwartz era amigo mío -también ha fallecido, desafortunadamente. Y los dos tienen comentarios dignos de ser citados. Uno de ellos, de Maynard Smith en su libro The origins of life, dice que es un error pensar que los modelos muy complicados son útiles en biología: los modelos muy complicados solamente te confunden. Hay que trabajar con modelos simples, de otra forma no hay ninguna esperanza de llegar a entender su comportamiento. Le puedo dar otra cita, de un ensayo de Jacob Schwartz, The pernicious influence of mathematics on science, donde dice que las matemáticas puras no son adecuadas para tratar situaciones reales, que en general son complicadas, con varios procesos sucediendo a la vez. Las matemáticas puras funcionan mejor al estudiar un solo fenómeno. Las matemáticas puras son, por decirlo de alguna manera, de un solo propósito, y funcionan mejor cuando se coge una idea simple y se extraen de ella sus consecuencias, pero no funcionan bien en una situación más realista, cuando más de un proceso se da a la vez. Entonces, las matemáticas puras tienden a perderse en una jungla de complejidades combinatorias. Se pueden encontrar ambas citas en los apuntes sobre metabiología que he colgado en mi página web, al principio.

La noción de creatividad es central en todo su trabajo. ¿Qué entiende por ella?

¡Pues no lo sé! Creo que es muy interesante intentar entender mejor la creatividad. En parte, por creatividad entiendo algo que no se puede hacer mecánicamente, algo que no se puede hacer de forma automática o rutinaria. Así que, de alguna forma, para mí es necesariamente una función no computable. Así pues, por ejemplo, cuando Turing habla del problema de la parada, demuestra que no hay ningún método general, ningún algoritmo universal, es decir, ninguna forma mecánica de resolver el problema, lo que significa que es un problema que requiere una cantidad ilimitada de creatividad. Lo podríamos describir usando lenguaje de Feyerabend -Paul Feyerabend nunca habla de estas cosas, pero tiene formas potentes y coloristas de referirse a ello- y el título de su libro, Tratado contra el método. Eso es un teorema de las ciencias de la información, el teorema de Turing de 1936, en el que demuestra que no hay ningún algoritmo que pueda resolver el problema de la parada. Eso significa que uno necesita usar métodos diferentes. No hay ningún método individual que resuelva todos los casos. De forma similar, el teorema de incompletitud de Gödel muestra que, incluso en la aritmética elemental, no hay ninguna teoría axiomática que pueda responder todas las preguntas posibles. Si la hubiera, eso te daría un procedimiento mecánico para responder a cualquier pregunta en teoría de números, porque sería posible recorrer mecánicamente todas las pruebas posibles en una teoría axiomática formal. Así que ambos teoremas declaran que no hay métodos generales en las matemáticas puras, que las matemáticas son ricas. Mi versión de la incompletitud dice que las matemáticas puras tienen complejidad infinita, en un sentido que la teoría algorítmica de la información define de forma más precisa. Esencialmente, puedo demostrar que las matemáticas puras son infinitamente complicadas. Cualquier teoría axiomática formal tiene sólo complejidad finita y, por lo tanto, es incompleta, no puede abarcar la totalidad de las matemáticas puras. Otra forma de verlo es que resolver el problema de la parada es infinitamente complicado: ningún algoritmo de complejidad finita funcionará.

Uno puede tomarse esos dos resultados de Turing y Gödel de forma pesimista y decir que son una bofetada en la cara de las matemáticas puras e incluso del pensamiento puro. Pero creo que la forma correcta de tomárselos es de forma optimista, como se los tomó Emil Post, y decir que esos resultados abren una puerta en las matemáticas puras a la importante cuestión de la creatividad. Dicen que la creatividad es esencial en las matemáticas fundamentales, juega un papel fundamental, y empiezan a darnos pistas sobre cómo entender la creatividad. Turing tiene un artículo donde habla de los oráculos, del uso de oráculos en el problema de la parada. Usar un oráculo es un poco como inspiración divina: obtener una respuesta del tipo “sí o no” de un oráculo es como un bit de creatividad, porque el oráculo puede responder preguntas que uno no puede contestar mecánicamente. Siempre me ha fascinado esta cuestión, aunque no estaba trabajando directamente en ella. Pero ahora, con esta teoría de la evolución, estoy usando la incompletitud y la incomputabilidad para obligar a la evolución a continuar para siempre. Necesito enfrentar a mis organismos a un reto que requiera una cantidad infinita de creatividad, y las matemáticas puras, con el trabajo de Gödel, Turing y el mío propio, nos dan un problema matemático que, al ser usado para retar a organismos con él, hace que la evolución siga indefinidamente. Es un primer paso, pero la creatividad es una cuestión muy profunda e importante. Desde luego, si uno piensa en matemáticos como Euler o Ramanujan, la creatividad de los cuales resulta acongojante -especialmente la de Euler- es difícil encontrar una explicación racional. De alguna manera, Euler parece ir directo a la fuente de nuevas ideas. Eso puede parecer un poco místico, pero la creatividad es misteriosa. Algunos matemáticos dicen que pensar sobre cosas no computables es misticismo, pero no estoy de acuerdo. Creo que uno necesita ir más allá de la incompletitud para pensar en la creatividad. Y demostrar lo que se pueda demostrar.

Así que, de alguna manera, lo que está estudiando es el surgimiento de la creatividad a través de la evolución biológica.

Sí, eso es lo que estoy estudiando. Estoy forzando a mis organismos a ser creativos basándose en la medida de aptitud de mi modelo metabiológico, que es muy simple, solo un camino aleatorio en espacio de software. Es un camino aleatorio hacia arriba en el espacio de aptitud. Otra cuestión clave si uno quiere desarrollar una biología teórica es: ¿cuál es el espacio de organismos? ¿Qué tipo de matemáticas deberíamos usar para el espacio de todos los organismos posibles? Y creo que el único espacio que es suficientemente rico es el de todos los algoritmos posibles, de todos los posibles programas. En genética de poblaciones solo nos fijamos en un acervo genético fijo y la frecuencia de cada gen en la población, lo cual no es un espacio de posibilidades muy rico si uno quiere modelar la evolución y la creatividad. Logra modelar de forma muy detallada algunos aspectos de la evolución que son muy interesantes, pero no se encarga de la creatividad y de la procedencia de los nuevos genes. En ese modelo hay solo un conjunto finito de genes.

Usted es uno de los defensores de la Filosofía Digital. ¿Cuáles son sus implicaciones?

La Filosofía Digital es una especie de visión neo-pitagórica. Es una ontología, una metafísica. Y es algo pitagórica. Pitágoras dijo “todo es número”, Dios es un matemático, el Universo está hecho de uno, dos, tres, cuatro, cinco. Y la nueva versión de esa idea pitagórica, esa nueva visión que es la Filosofía Digital, dice que el mundo es discreto, está hecho de ceros y unos, de bits, y Dios es un programador. Así que la nueva versión es “todo es algoritmo” en lugar de “todo es número”. Y algunas personas estamos bastante entusiasmadas con un enfoque de esta índole, y cada uno de nosotros tiene una versión ligeramente diferente, pero básicamente estamos haciendo filosofía presocrática. Estamos diciendo “estaría bien si el mundo fuera así”. Pero el mundo no tiene por qué ser así, solo porque lo encontremos más bonito intelectualmente. Así que estamos haciendo lo que hacían los presocráticos, diciendo “el mundo es fuego”, “el mundo es número”, “el mundo es uno” o “todo es cambio”: estaban haciendo ontología. Estaban intentando entender el mundo a través del pensamiento puro, básicamente. Así que eso es, esencialmente, la Filosofía Digital, pero hay algunos aspectos prometedores en el mundo real, en el lado empírico: está, por supuesto, la tecnología informática, que es digital y discreta; también está el enfoque moderno de la Mecánica Cuántica, llamado Información Cuántica y Computación Cuántica. Otra cosa que me he dejado, que es parte de la Filosofía Digital, es la idea de que el mundo es un programa informático gigante, que el Universo es un ordenador gigante, que está calculando constantemente su estado futuro a partir de su estado presente; es un cálculo gigante. Y hay una teoría física, que está muy de moda hoy en día, llamada Información Cuántica y Computación Cuántica, un nuevo campo muy excitante donde se une la Mecánica Cuántica, que es física teórica, con las ciencias de la información, que son matemática pura, cosa que va en la misma dirección que la Filosofía Digital. Además hay otros trabajos algo más al tanteo, que tienen que ver con la Relatividad General y que están conectados con otras investigaciones acerca de los agujeros negros, a cargo de gente como Stephen Hawking y Jacob Bekenstein, a su vez relacionadas con la gravedad cuántica, que es el intento de unificar la Mecánica Cuántica y la Relatividad General. La teoría de cuerdas es uno de los intentos para resolver este problema; hay otra gente que trabaja de forma más fenomenológica, como Stephen Hawking cuando ataca el problema de la termodinámica de los agujeros negros. Jacob Bekenstein, usando su trabajo sobre la termodinámica de los agujeros negros, llegó a la conjetura que hoy en día ha sido generalizada a algo llamado “el principio holográfico“, gracias al trabajo de Gerhard ‘t Hooft, premio Nobel de física, y Leonard Susskind, de la universidad de Stanford. Toda esa gente son buenos físicos. Y la idea general del principio holográfico es que todo sistema físico puede contener sólo una cantidad finita de información. Y eso es una consecuencia que surge, inicialmente, de la termodinámica de los agujeros negros, pero se puede generalizar a otros sistemas físicos. Hay una fórmula para calcular el número de bits, y lo importante es que ese número crece con el área de la superficie del sistema, no con su volumen. Por eso se le llama el principio holográfico: sugiere que, de alguna manera, el universo físico tiene solo 2 dimensiones, no 3. A los físicos les interesa mucho esa parte, pero lo que me interesa a mí -porque soy un matemático puro, así que estoy más alejado de la física- es simplemente el hecho que eso sugiere que cualquier sistema físico contiene solo un número finito de bits de información y por lo tanto, de alguna forma, el universo físico es discreto.

Eso implicaría que el Universo es computable.

Exacto. Si la información es finita y discreta, entonces los modelos del mundo como un cómputo funcionan mejor, porque los ordenadores son discretos y trabajan mejor con números finitos de bits. No con los números reales o las teorías de campos. En física clásica y en teoría de campos, en teoría cuántica de campos, un trozo arbitrariamente pequeño de espacio-tiempo contiene una cantidad infinita de información. Y, como dice Feynman en su pequeño libro El carácter de la ley física, eso es poco plausible. Así que él dice, basándose en el pensamiento puro, que un modelo en el que el universo físico fuera como un tablero de ajedrez evitaría ese problema. Crearía otros, como la anisotropía -podría haber direcciones privilegiadas- pero solucionaría el problema de la cantidad infinita de información que se necesita para un cubo de espacio-tempo infinitamente pequeño. Esta nueva investigación fenomenológica en gravedad cuántica, conectada con la termodinámica de los agujeros negros, ya sugiere que sólo hay una cantidad finita de información, cosa que me da esperanzas. Por ejemplo, la teoría algorítmica de la información funciona mejor si todo es discreto, no funciona tan bien para sistemas continuos, porque el ordenador es la base en que se mide la información en ella: es el tamaño en bits del programa más corto para calcular algo. Así que eso se puede aplicar a sistemas físicos si estos son discretos. No se puede hablar de la complejidad de un sistema físico si se necesitan matemáticas del continuo, al menos no usando teoría algorítmica de la información, que se fija en el tamaño en bits de un programa de ordenador, porque se necesita un número infinito de bits para calcular un sistema continuo.

Esa es la razón por la que me gusta la Filosofía Digital, pero la cuestión es: ¿a Dios le gusta la Filosofía Digital? Es decir, ¿el universo físico es así? Solo porque a mí me gustaría, no significa que tenga que ser así. Pero hay algunas señales prometedoras en la gravedad cuántica, la termodinámica de los agujeros negros y el principio holográfico. Y también diría que la Teoría de la Información Cuántica es esperanzadora, de alguna manera. Y todo eso es física de verdad.

Por otro lado, el de la tecnología, la tecnología más importante de nuestro tiempo es la informática, que es completamente digital y discreta, y el ADN, que es claramente software discreto. Eso también es esperanzador, como metáfora. Así que creo que hay muchas cosas que pueden motivar a la gente a reflexionar sobre la Filosofía Digital. Y hay algunos de nosotros a los que nos gustaría pensar en términos más específicos: Stephen Wolfram -el autor de A new kind of science– es desde luego un nombre importante; Edward Fredkin ha estado trabajando en esto durante muchos años y tiene una página web (www.digitalphilosophy.org), además de muchos artículos; y yo tengo mi libro Metamath!; así que, de alguna manera, estamos haciendo filosofía presocrática, aunque parte de las razones por las que la hacemos es porque hay signos esperanzadores que vienen de la física. Pero es un poco como intentar entender el mundo a través del pensamiento puro… que también es física teórica, como he leído en alguna parte. Todo buen físico teórico, de alguna forma, está haciendo metafísica. Un buen físico teórico, dice Einstein en uno de sus ensayos, es básicamente un metafísico reformado: un metafísico es alguien que piensa que puede entender el mundo a partir del pensamiento puro, cosa que es un poco extrema; los físicos teóricos llevan eso en la sangre, pero saben que también hay que fijarse en los experimentos. Son una especie de metafísicos reformados. Nunca se te ocurrirá una nueva teoría física si no estás dispuesto a dar un salto hacia lo desconocido, basándote en el pensamiento puro. Los experimentos no te obligan a crear una teoría nueva. Lo hacen en algunos casos rutinarios, pero los grandes avances requieren un gran salto en la imaginación.

En un universo computable, ¿hay espacio para el libre albedrío?

En física clásica tampoco hay libre albedrío, porque es determinista. Aunque, como muestra el caos, la física clásica -aunque determinista- es tan inestable, tan sensible a las condiciones iniciales, que en la práctica no se pueden saber las condiciones iniciales con precisión suficiente para predecir el futuro. Después de cuatro semanas, el tiempo no es predecible, ni siquiera en teoría, porque una mariposa batiendo las alas en India podría afectar al tiempo en NuevaYork. Es lo que se ha dado en llamar “el efecto mariposa“. Ahora bien, en la Mecánica Cuántica supuestamente cabe el libre albedrío, uno puede cogerse a la aleatoriedad cuántica y decir que eso le da libre albedrío, pero no es demasiado útil: ¿le gustaría tener un amigo que tirase una moneda para tomar las decisiones importantes en su vida? Así que es un poco peligroso usar la aleatoriedad para lograr el libre albedrío. Schopenhauer dice algo precioso al respecto: “puedes hacer lo que quieres, pero no puedes querer lo que quieres”, así que lo que hay es una ilusión de libre albedrío. Einstein, creo, se refiere a eso en alguna parte.

Stephen Wolfram ha atacado el problema del libre albedrío y creo que tiene una idea importante. A new kind of science básicamente dice que el mundo es determinista y se puede ejecutar en un ordenador, así que ¿qué es el libre albedrío? Bueno, se puede ejecutar en un ordenador, pero la mayor parte del tiempo -y esa es la tesis principal del libro de Wolfram- no hay atajos, es decir, casi siempre, la única forma de ver lo que hará un sistema físico es ejecutarlo. En casi todos los casos, la única forma de ver lo que hará un programa de ordenador es ejecutarlo: esta es una nueva formulación del resultado de Turing. Stephen Wolfram llama a este principio “irreducibilidad computacional”. Así que, aunque en teoría todo sistema físico es predecible -si uno tuviera un ordenador infinitamente potente fuera del universo- en práctica, la manera más rápida de saber lo que hará es ejecutar el sistema mismo, es decir, si quieres saber lo que va a pasar, haz el experimento y mira. Así que, de alguna forma, lo que dice es que no hay libre albedrío, pero parece que lo haya porque no hay ninguna computación rápida que sea capaz de predecir lo que hará algo, en general. Así que, en ese caso, uno puede pensar en un sistema físico como un sistema aleatorio o uno que ejerce su libre albedrío. Luego, en algún otro lugar de su libro, dice: el mundo parece aleatorio, pero podría tratarse de pseudo-aleatoriedad, y no seríamos capaces de ver la diferencia. El mundo podría ser determinista y parecer como su hubiera mucho aleatoriedad, que podría ser pseudo-aleatoriedad, como en los dígitos de pi. Si uno no los conoce, los dígitos de pi parecen muy aleatorios y Stephen Wolfram cree que toda la aleatoriedad en el mundo físico es de ese tipo. Lo cual es perfectamente posible, es un mundo posible, no sé si es el nuestro. Así que uno puede ver la investigación en Filosofía Digital, en Física Digital, como física teórica de universos posibles, no necesariamente el nuestro. Y eso puede parecer una locura, pero los físicos de cuerdas, por diferentes razones, están haciendo eso, hablan del multiverso, y en parte la razón es que no hay una teoría de cuerdas, sino que hay 10 a la 500 teorías de cuerdas posibles y no saben cuál describe nuestro universo, aunque creen que una de ellas lo hace. Así que hablar de universos posibles se ha vuelto aceptable en física teórica. Uno se lo puede tomar como una mala señal: se puede decir que los físicos teóricos están hablando más como filósofos porque no hay ningún dato experimental convincente para sugerir nuevas teorías, o tal vez porque a los físicos teóricos no se les ha ocurrido la teoría adecuada. Es posible, pero hay gente como Max Tegmark que realmente tiene argumentos muy convincentes a favor de multiversos y universos posibles, basándose en datos astronómicos, en datos experimentales cosmológicos. Una de las cosas que dice es: “la física de nuestro universo en particular no es demasiado interesante, desde un punto de vista intelectual: puede que sea de importancia práctica, pero solo es nuestra dirección de correo en el multiverso”. Uno tiene el espacio de todos los universos posibles, de todos los conjuntos de leyes posibles, y ese conjunto es más interesante que cualquier universo en particular. Ese es uno de sus argumentos filosóficos; Max Tegmark tiene argumentos cosmológicos y astrofísicos, basados en los datos astronómicos. Recuerdo asistir a una de sus charlas, que se volvía más y más interesante a medida que avanzaba. La idea general de lo que decía era: la cosmología solía ser un área muy filosófica dentro de la física teórica, porque había muy pocos datos, así que era pura especulación, mientras que hoy en día hay un montón de datos y la cosmología se ha convertido en un campo bastante difícil, porque hay muchos modelos que dan cuenta de los datos de forma muy precisa; por el contrario, la física fundamental era muy sólida cuando yo era estudiante y la cosmología no lo era, porque la física de partículas tenía muchos datos y la cosmología no. Ahora es al revés: en física fundamental tenemos la teoría de cuerdas, donde hablan del paisaje de todas las posibles teorías de cuerdas, que alguna gente llama mundos posibles, otros el multiverso -hay diferentes versiones de estas ideas, por diferentes razones, lo que me recuerda por supuesto al “mejor de todos los mundos posibles” de Leibniz- así que, de alguna forma, los físicos teóricos hablan cada vez más como filósofos. Y los filósofos hoy en día están mayoritariamente en contra de la metafísica, especialmente si son filósofos analíticos. Pero, extrañamente, la metafísica está vivita y coleando en la física teórica. Además, a los físicos teóricos no les asusta hacer ontología, mientras que eso no se lleva en filosofía, donde lo que se lleva es la epistemología. La ontología pertenece a los presocráticos y ahora se la considera como algo que nunca sabremos, la naturaleza de la realidad. Pero los físicos lo intentan. Así que las especulaciones ontológicas están vivas en física teórica, aunque los filósofos las consideran ridículas. Es lo que está de moda si uno sigue la filosofía analítica, en la que no creo, como se puede deducir de mis comentarios.

¿Cuál es el sentido de la vida?

No lo sé. En el modelo metabiológico, el sentido de la vida es intentar ser creativo. Esa la mejor respuesta que puedo dar en este momento.

Share and Enjoy:
  • Digg
  • del.icio.us
  • Facebook
  • Yahoo! Buzz
  • Twitter
  • Google Bookmarks
  • Bitacoras.com
  • Google Buzz
  • Meneame
  • Reddit
  • RSS

Leave a Reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>