Te quedan 1 artículos gratuitos este mes.

Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

El riesgo de extinción como estrategia

Comparte
Mundo

Identificar el progreso tecnológico con el progreso a secas viene siendo desde hace décadas una de las constantes del discurso tecnocéntrico. Sería pues de esperar que la demostración de las nuevas y hasta cierto punto sorprendentes prestaciones de las inteligencias artificiales (IAs) de nueva generación debería henchir de orgullo y optimismo tanto a los evangelistas de estas tecnologías como a los fieles de su congregación.

Pero parece estar sucediendo justo lo contrario. Un grupo de notables de la industria y la academia, encabezados por jerarcas de las compañías que compiten por liderar la tecnología y el negocio de la IA, difunden a bombo y platillo una declaración que sostiene: "Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".

Hay ahí algo que no cuadra, como mínimo a primera vista. Las mismas personas que lideran y aplauden el desarrollo de la IA como un progreso afirman a la vez que genera un riesgo de extinción de la humanidad. Parece una contradicción flagrante.

Creo que conviene tomar muy en serio, no tanto por lo que dice, como por lo que omite y da por supuesto, cabe suponer que de forma deliberada dado el nivel intelectual y de conocimiento de los firmantes. Cabe suponer que el manifiesto tiene un propósito, pero sin descartar que este tenga que ver más con beneficios particulares que con los de la humanidad en general. Propongo pues aplicarle el análogo de la estrategia de "confianza cero" (zero-trust) que recomiendan los expertos en ciberseguridad. Reemplazar la actitud de "primero confiar, luego analizar" por la de "nunca confiar, siempre analizar".

Desde esta perspectiva de desconfianza manifiesta, la declaración resulta sospechosa:

Porque aboga sólo por "mitigar” el riesgo de la IA, no por eliminarlo, un objetivo este al que algunos de los firmantes podrían contribuir con el simple gesto de cerrar sus empresas y dedicar su talento a otras causas y empeños.

Porque puede verse, y por tanto se ha de ver, como un intento de desviar la atención del riesgo cierto de daños a corto plazo que ya causa el despliegue sin control de los grandes modelos de lenguaje por parte de algunos de los firmantes.

Porque es impropio referirse al riesgo de la IA como si se tratara de una única tecnología o una única entidad. Lo que supone un riesgo cierto no son las IA presentes y futuras, sino el modo en que estas tecnologías se conciben, desarrollan y difunden. Quienes representan un riesgo para la humanidad son los responsables de esas prácticas.

Coincido con Jaron Lanier en que el mayor riesgo que representa la trayectoria actual de desarrollo y despliegue de la IA es el de volvernos estúpidos. El de seguir identificando progreso tecnológico y progreso social. El de delegar a autómatas comerciales y a las empresas que los diseñan porciones cada vez mayores de la capacidad de pensar, sentir y actuar por nuestra cuenta. En La doctrina del shock Naomi Klein documenta cómo el capitalismo más radical se aprovecha del miedo y el desorden para progresar. No descartemos que propagar el riesgo de extinción de la humanidad sea justamente una estrategia de progreso, por lo menos para algunos de los firmantes del manifiesto.