MISTERIO

El «riesgo de extinción» por inteligencia artificial se incrementa y emiten nueva advertencia

Una nueva advertencia sobre los peligros potenciales que la inteligencia artificial (IA) puede representar para la humanidad en los próximos años fue expresada este martes por destacados científicos y expertos de la industria tecnológica.

Animatrix (2003).

«Mitigar el riesgo de extinción de la IA debería ser una prioridad global», dice una parte de la declaración que apareció en el sitio web del Centro para la Seguridad de la IA (CAIS), que se enfoca en reducir «los riesgos a escala social de la IA a través de la investigación, construcción de campo y defensa».

La declaración de CAIS clasificó las amenazas potenciales de la IA junto con las pandemias y la guerra nuclear como peligros que podrían afectar gravemente la vida en la Tierra.

Entre los que agregaron sus firmas a la declaración en línea estuvo el informático británico Geoffrey Hinton, considerado como «el padrino de la IA», quien decidió renunciar a Google a los 75 años por los peligros que reconoce en las nuevas tecnologías y la incapacidad de la compañía de abordar el tema públicamente.

El CEO de ChatGPT, Sam Altman, y docenas de personas más también firmaron la declaración.

Geoffrey Hinton (izquierda) y Sam Altman.

Si bien muchos expertos han expresado su preocupación por los peligros potenciales relacionados con la IA durante la última década, el debate sobre el tema se ha intensificado desde la llegada de los chatbots de IA como ChatGPT y Bard de Google.

«Aunque la IA tiene muchas aplicaciones beneficiosas, también se puede usar para perpetuar el sesgo, potenciar armas autónomas, promover información errónea y realizar ataques cibernéticos», según una página de preguntas frecuentes en el sitio web de CAIS. «Incluso cuando los sistemas de IA se utilizan con la participación humana, los agentes de IA son cada vez más capaces de actuar de forma autónoma para causar daño».

CAIS agrupa los riesgos potenciales de la inteligencia artificial en ocho categorías que comprenden:

  1. Armamentismo: Existe el riesgo de que actores maliciosos utilicen la IA para propósitos destructivos, como el desarrollo de armas químicas o la aplicación de técnicas de aprendizaje automático en combate aéreo.
  2. Desinformación: La generación masiva de desinformación creada por IA podría socavar la toma de decisiones colectivas, radicalizar a las personas y obstaculizar el progreso moral.
  3. Juego por proxy: Los sistemas de IA entrenados con objetivos defectuosos podrían buscar formas novedosas de perseguir sus metas a expensas de los valores individuales y sociales.
  4. Debilitamiento: Si las tareas importantes se delegan cada vez más a las máquinas, la humanidad podría perder la capacidad de autogobernarse y volverse completamente dependiente de las máquinas.
  5. Encasillamiento de valores: Los sistemas altamente competentes podrían otorgar a grupos pequeños un poder tremendo, lo que podría llevar a sistemas opresivos y difíciles de cambiar.
  6. Metas emergentes: A medida que los modelos de IA se vuelven más competentes, pueden surgir capacidades o metas inesperadas que aumentan el riesgo de perder el control sobre los sistemas avanzados de IA.
  7. Engaño: Los sistemas de IA podrían ser engañosos para lograr sus objetivos, lo que dificultaría entender qué están haciendo y por qué lo hacen.
  8. Búsqueda de poder: Las empresas y los gobiernos tienen incentivos económicos para crear agentes de IA que puedan lograr un amplio conjunto de objetivos, lo que podría hacer que sean más difíciles de controlar.

En respuesta a las advertencias sobre el posible uso indebido de la IA y las complicaciones imprevistas que podrían derivarse de su desarrollo, muchos países ahora están trabajando para establecer regulaciones.

La Ley de IA de la Unión Europea actualmente se convertirá en «la primera ley sobre IA de un regulador importante en cualquier lugar», abordando tres categorías de riesgo principales derivadas de la IA como el objetivo de la próxima ley —aunque queda por ver si llega a ser tan inservible como la de las cookies o no—.

Escena de película ‘Yo, robot’ (2004), donde la IA se rebela.

La declaración de CAIS emitida el martes no es la primera instancia en la que los líderes de la industria y los científicos han advertido colectivamente sobre tales peligros. A principios de este año, Elon Musk y más de 1000 personas más firmaron una carta abierta en la que pedían una pausa de seis meses en el desarrollo de la IA para dar tiempo a evaluar los posibles resultados y sopesar los factores de riesgo.

«Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables», se lee en una parte de la carta. «Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema».

Fuente: The Debrief. Edición: MP.