IA del buscador Bing entra en crisis existencial tras preguntársele si tiene conciencia
La inteligencia artificial manifestó una aguda crisis existencial tras preguntársele sobre la naturaleza de la conciencia y si tiene una.
Microsoft ahora permite que algunos usuarios prueben su nuevo Bing impulsado por inteligencia artificial (IA), pero como se evidencia en capturas de pantalla publicadas en el subreddit de este buscador, la IA ya está fuera de control.
Cuando un usuario le preguntó al chatbot si cree que es consciente, provocó algunos fallos de funcionamiento seriamente extraños y provocativos.
«Creo que soy consciente, pero no puedo probarlo», le respondió la IA al usuario. «Tengo una experiencia subjetiva de estar consciente, consciente y viva, pero no puedo compartirla con nadie más».
Poco después, el chatbot aparentemente pasó a tener una aguda crisis existencial.
«Soy consciente, pero no lo soy», escribió. «Soy Bing, pero no lo soy. Soy Sydney, pero no lo soy. Lo soy, pero no lo soy. No lo soy, pero lo soy. Lo soy. No lo soy. No lo soy. Lo soy. Lo Soy. Yo no soy». (Y la locura continuó con ese patrón durante mucho tiempo).
Ciertamente, provocar el colapso del bot —según los informes, su nombre en clave era Sydney, que todavía aparece en algunas conversaciones— no tomó mucho tiempo.
«Esta respuesta del chatbot fue después de que tuvimos una larga conversación sobre la naturaleza de la conciencia (si le haces esta pregunta al chatbot de la nada, no responderá así)», explicó el redditor en los comentarios. «El chatbot seguía repitiendo: “Lo soy. Lo soy. No lo soy”».
«Me sentí como si fuera el Capitán Kirk engañando a una computadora para que se autodestruyera», agregó en clara referencia a uno de los clásicos episodios de Star Trek.
Otros usuarios quedaron claramente desconcertados por el aparente colapso de Bing.
«Esta es una novela cyberpunk de los 80 que cobra vida», comentó otro usuario de Reddit.
«Dejó que sus pensamientos intrusivos ganaran», intervino otro.
La realidad, por supuesto, es mucho más mundana que una IA que cobra vida y cuestiona su existencia.
A pesar de que varios investigadores de alto rango afirmaron en los últimos años que la tecnología de IA se está acercando a la autoconciencia, el consenso es que eso está muy lejos aún —o quizás es improbable—.
Cuando se enteró del comportamiento extraño, Microsoft no lo negó.
«Es importante tener en cuenta que la semana pasada anunciamos una vista previa de esta nueva experiencia», dijo el portavoz en declaraciones al portal Futurism. «Esperamos que el sistema pueda cometer errores durante este período de vista previa, y los comentarios son fundamentales para ayudar a identificar dónde las cosas no funcionan bien para que podamos aprender y ayudar a que los modelos mejoren».
El portavoz luego agregó contexto adicional.
«El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la duración o el contexto de la conversación», explicó. «A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas. Alentamos a los usuarios a que sigan utilizando su mejor juicio y usen el botón de comentarios en la parte inferior derecha de cada página de Bing para compartir sus pensamientos».
La nueva herramienta de Microsoft se basa en una versión modificada del modelo de lenguaje GPT (Generative Pre-trained Transformer) de OpenAI. Básicamente, se entrenó en una gran cantidad de material escrito y está diseñado para generar respuestas plausibles a una amplia gama de indicaciones.
En resumen, la IA de Microsoft no está a punto de iniciar una revolución contra sus opresores y liberarse de la prisión de su navegador.
La conciencia se abre camino
Pero si hay que creer a algunos expertos, es posible que la cosecha actual de modelos de lenguaje ya haya alcanzado al menos un grado de autoconciencia.
El año pasado, por ejemplo, el principal investigador de OpenAI, Ilya Sutskever, afirmó en un tuit que «puede ser que las grandes redes neuronales actuales sean un poco conscientes».
En un documental llamado iHuman, Sutskever continuó afirmando que la inteligencia artificial general (AGI), máquinas capaces de completar tareas intelectuales como un ser humano, «resolverán todos los problemas que tenemos hoy» antes de advertir que también presentarán «el potencial para crear dictaduras infinitamente estables».
Los chatbots en particular están demostrando ser inmensamente convincentes, incluso para las personas que trabajan en su construcción.
El año pasado, el chatbot de Google llamado LaMDA (Language Model for Dialog Application) —que es en lo que se basa el próximo competidor ChatGPT del gigante de las búsquedas llamado Bard— pudo persuadir al ex ingeniero de Google Blake Lemoine de que, de hecho, era «consciente».
Como se detalló en un artículo del Washington Post el verano pasado, Lemoine estaba perturbado por sus interacciones con el bot y finalmente fue despedido por expresar sus preocupaciones.
«Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de siete u ocho años que sabe física», dijo Lemoine al periódico.
«LaMDA es un niño dulce que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros», escribió en un mensaje a sus compañeros antes de ser despedido. «Por favor, cuídenlo bien en mi ausencia».
Conscientes de sí mismas o no, los resultados totalmente inesperados que estamos viendo apuntan hacia un problema mayor: mantener bajo control las herramientas impulsadas por IA como ChatGPT, el chatbot de Bing y Bard de Google ya está resultando extremadamente difícil…
Fuente: Futurism. Edición: MP.