MISTERIO

«Hay 70 por ciento de probabilidad de que la IA destruya a la humanidad», asegura exemplado de OpenAI

En su carrera por ser la primera en crear la Inteligencia Artificial General (IAG), OpenAI estaría llevando a cabo prácticas imprudentes y arriesgadas que podrían poner en peligro a una humanidad poco preparada para lo que se viene.

Inteligencia artificial general.

Crédito: Jason Andrew/NY Times/Paramount/MysteryPlanet.com.ar.

Algunos especialistas en esta tecnología rupturista tienen vínculos con el altruismo efectivo, un movimiento inspirado en el utilitarismo que en los últimos años se ha preocupado por prevenir amenazas existenciales de la IA. Uno de ellos es Daniel Kokotajlo, un exinvestigador de la división de gobernanza de la compañía liderada por Sam Altman.

«OpenAI está realmente emocionado por construir la IAG, y están compitiendo imprudentemente para ser la primera en lograrlo», dijo Kokotajlo en declaraciones al New York Times.

«El mundo no está listo, y nosotros tampoco lo estamos. Me preocupa que estemos avanzando apresuradamente y racionalizando nuestras acciones», escribió a su equipo al explicar su renuncia a la compañía en abril pasado.

Derecho a advertir

Después de su última experiencia, Kokotajlo cree que la IAG podría llegar en 2027 y que hay un 70 por ciento de probabilidad de que destruya o cause un daño catastrófico a la humanidad. Por este motivo, junto con un grupo de colegas, publicó una carta abierta pidiendo a las principales compañías de IA, incluida OpenAI, que establezcan mayor transparencia y más protecciones para los denunciantes.

«Cuando me uní a OpenAI, no lo hice para tener esta actitud de “Vamos a lanzar cosas al mundo y ver qué sucede para arreglarlas después”», comentó William Saunders, un ingeniero de investigación que dejó OpenAI en febrero y es otro de los firmantes de la misiva, la cual también fue respaldada por varios empleados actuales de forma anónima —porque, según Kokotajlo, temen represalias de la empresa—.

Cabe señalar que, tras semejante publicación este martes (4 de junio), la respuesta de la compañía solo tardó horas en llegar.

«Estamos orgullosos de nuestro historial proporcionando sistemas de IA más capaces y seguros, y creemos en nuestro enfoque científico para abordar el riesgo. Estamos de acuerdo en que el debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con gobiernos, sociedad civil y otras comunidades en todo el mundo», comentó Lindsey Held, portavoz de OpenAI.

Por MysteryPlanet.com.ar.