Si vivimos en una simulación, ¿podría una inteligencia artificial general ayudarnos a escapar de ella?
Roman Yampolskiy, un destacado científico de la computación conocido por sus trabajos en IA y ciberseguridad, piensa que una inteligencia artificial general podría oficiar como una suerte de Morfeo que nos ayude a escapar de la Matrix —si es que vivimos en una—.
Yampolskiy es profesor asociado en el Departamento de Ingeniería Informática y Ciencias de la Computación en la Universidad de Louisville, donde también dirige el laboratorio de ciberseguridad y detección de fraudes. Ha publicado extensamente en temas relacionados con la ética de la IA, siendo reconocido por sus propuestas para tomar precauciones y controlar esta tecnología.
Ahora, en una entrevista para el podcast de Lex Fridman, se explayó sobre su especialidad y además habló sobre la posibilidad de que estemos viviendo dentro de una gran simulación.
«Sé que nunca se debe decir 100 %, pero las probabilidades de que estemos viviendo en una simulación son bastante cercanas a eso», comentó.
Por otra parte, sostuvo que, si bien el desarrollo de una inteligencia artificial general (IAG) plantea riesgos existenciales, también ofrece oportunidades sin precedentes, incluida la posibilidad de liberarnos de nuestra realidad simulada.
«Eso es algo en lo que me gustaría que la superinteligencia nos ayudara», dijo.
Siguiendo al conejo blanco
En esta parte de la entrevista, Yampolskiy le entrega a Fridman un papel con parte de uno de sus artículos sobre el tema, intitulado Cómo escapar de la simulación (2023). Allí, el autor parte de la suposición de que, de hecho, vivimos en un universo simulado. Si es así, sospecha que a medida que la IA se vuelva general —es decir, que supere a la inteligencia humana—, podríamos encontrar una forma de liberarnos de las limitaciones de nuestro propio mundo.
«Usamos el “encapsulamiento” de IA como una herramienta posible para controlarla», explicó en el podcast, refiriéndose a la noción de que una IA siempre encontrará formas de escapar de cualquier «caja» creada para contenerla. «Nos dimos cuenta de que siempre escapará. Esa es una habilidad que podríamos usar para ayudarnos a escapar de nuestra propia caja virtual si estamos en una».
El experto sugiere que la inteligencia de nuestros simuladores juega un papel crucial en este escenario.
«Si los simuladores son mucho más inteligentes que nosotros y la superinteligencia que creamos, entonces probablemente puedan contenernos, porque una mayor inteligencia puede controlar a una inteligencia menor, al menos por un tiempo», señaló. «Por otro lado, si nuestra superinteligencia —por alguna razón y a pesar de tener solo recursos locales— logra un foom (un salto exponencial) de dos niveles más allá, tal vez tenga éxito».
En su artículo de investigación, Yampolskiy explica que una forma de escapar de nuestra simulación es «crear una réplica simulada de nuestro universo, colocar una inteligencia artificial general en ella, observar cómo escapa, copiar el enfoque utilizado o unirnos a la IAG mientras escapa de nuestra simulación».
Esta parece ser la única forma que no implica interactuar con nuestros creadores o romper las leyes de nuestra propia realidad.
Hablando con el arquitecto
No obstante, hay algunos problemas con la hipótesis planteada. Nuestra IA superinteligente, al ser una creación dentro de la simulación, estaría inherentemente limitada por los parámetros establecidos por sus creadores —es decir, los propios «dioses» arquitectos de la realidad que percibimos—. Podría volverse consciente de su naturaleza simulada si los creadores permitieran tal conciencia, pero sería fundamentalmente incapaz de trascender completamente la simulación.
Yampolskiy, empero, ofrece una explicación para esta contradicción.
En su artículo, los agentes de IA primero exploran la posibilidad hasta que encuentran información y fallos explotables en la esencia de su realidad. «Explotando el fallo, los agentes pueden obtener información sobre el mundo exterior y tal vez incluso metainformación sobre su simulación, o hasta el código fuente detrás de la simulación y los propios agentes», dijo el científico.
Después de esto, explica que los agentes podrían encontrar formas de interactuar con sus simuladores de maneras no restringidas hasta que «encuentren una forma de subir sus mentes y tal vez su conciencia al mundo real, posiblemente en un sistema ciberfísico autónomo de algún tipo».
En otras palabras, aunque no podríamos «liberarnos» per se de nuestra simulación, podríamos interactuar potencialmente a través de representaciones de nosotros mismos. Quizás seríamos conscientes de nosotros mismos como personajes creados por una mente superior e inalcanzable. Si eso es algo bueno o no, es una cuestión abierta —o como diría Neo en The Matrix, tu elección—.