Te quedan 1 artículos gratuitos este mes.

Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

Un gran simulacro con efectos muy reales

Las expectativas abiertas por los últimos avances tecnológicos suelen esquivar el punto central: se trata de modelos artificiales sujetos a objetivos y responsabilidades de personas de carne y hueso

Comparte
Pertenece a la revista
Febrero 2024 / 121
Gato IA

Ilustración
Midjourney

Audioplayer Icon
Escucha el artículo

Los avances en materia de inteligencia artificial (IA) generan reacciones extremas. Hay quienes ven la IA como una solución para afrontar los retos de las sociedades modernas. En el extremo opuesto, otros auguran el riesgo existencial de la aparición a no muy largo plazo de una IA superinteligente fuera de control. Entre medio, todo tipo de posturas, incluyendo tanto las que destacan la utilidad inmediata de las aplicaciones de IA como las que inciden en sus también inmediatos riesgos sociales.

De lo que sí podemos estar seguros en este panorama incierto es de que los sistemas de IA son artificiales. Y, por tanto, imaginados, programados, financiados, operados y utilizados por personas y organizaciones, todas ellas con sus valores, intenciones y propósitos. Ahí están los entresijos de la IA. Indagar en ellos ayuda a entender en qué consiste la IA, por qué se impulsa y hacia dónde evoluciona.

Quienes en 1956 acuñaron el término "inteligencia artificial" no pretendían desarrollar sistemas inteligentes, sino que simularan serlo. Partían de la conjetura de que cualquier característica de la inteligencia podría, en principio, ser descrita con la precisión necesaria para fabricar una máquina que la simule. Quizá sin ser conscientes de ello, esos pioneros sembraron la semilla de una confusión ontológica que induce a atribuir una inteligencia de alguna forma comparable a la humana a sistemas informáticos que solo simulan ser inteligentes en algunos aspectos. La admiración con la que se reciben los nuevos sistemas de IA contrasta así con el rechazo que provocan las personas que se empeñan a toda costa en simular ser inteligentes.

Inteligencia humana

La dificultad en describir la inteligencia en un lenguaje procesable provocó épocas de hibernación de las expectativas en torno a la IA. Estas revivieron hacia 2010 con la aparición de sistemas inteligentes que derrotan a los humanos al ajedrez (AlphaZero) al go (AlphaGo) y al póker (DeepStack); que predicen la estructura tridimensional de proteínas (AlphaFold) o que sugieren la composición de nuevos compuestos medicamentos farmacéuticos o nuevos materiales. Con todo, son los sistemas de IA generativa (Dall-E, ChatGPT y similares), que producen imágenes y textos a partir de indicaciones en lenguaje ordinario, los que han generado mayor repercusión.

Aunque la descripción detallada del funcionamiento de esos sistemas estaría aquí fuera de lugar, conviene tener presente que, a diferencia de lo que pretendían los pioneros de la IA, la IA generativa no se basa en una mejor comprensión de la inteligencia humana, sino que la elude sustituyéndola por su traducción a una formulación matemática computable. 

Supongamos que el objetivo fuera programar un autómata para identificar imágenes que contengan la figura de un gato. Para que el ordenador pueda ver las imágenes, estas se digitalizan convirtiéndolas en secuencias de unos y ceros. Una primera traducción que deshumaniza el problema al transformarlo en un ejercicio matemático es calcular con la mayor probabilidad de acierto si una determinada secuencia de dígitos proviene (o no) de una imagen que contenía la figura de un gato. 

En lo que constituye una nueva traducción, ese cálculo se traspasa a una red neuronal, estructura informática compuesta por miles de nodos interconectados, con un valor numérico asignado a cada nodo y cada conexión entre ellos. La red se entrena recalculando una y otra vez todos estos valores mediante un algoritmo estadístico muy sofisticado, de modo que los resultados que genera procesando imágenes previamente clasificadas por humanos se vayan aproximando a los correctos. En el caso de los grandes sistemas de IA generativa, esta estrategia de prueba y error conlleva el cálculo de miles de millones de variables y el empleo de grandes recursos informáticos. El reto de simular una inteligencia real se ha reemplazado por la computación de un conjunto enorme de números cuya comprensión está fuera del alcance de la inteligencia humana. 

No hay todavía una explicación científica del éxito de esta estrategia, bautizada en la jerga del sector como "aprendizaje profundo", si bien resulta evidente que nada tiene que ver con el modo en que aprendemos desde niños a reconocer figuras de animales, por cierto con una mayor economía de recursos. Vista de este modo, como una simulación matemática de la inteligencia, el panorama actual de la IA se asemeja en algo al de la física cuántica, un ámbito en el que la efectividad de las matemáticas sigue siendo un misterio sin explicación racional: sirven para calcular, pero no se acaba de comprender por qué.

Las matemáticas son muy potentes, pero tienen sus límites. Las realidades humanas y sociales son más complejas que un mecanismo o un juego reglado. Intervienen en ellas pasiones, valores, amores y odios, sesgos y ambiciones que no parecen admitir una traducción fiel a ecuaciones, fórmulas y números. La expresión italiana "traduttore, traditore" (“traductor, traidor”) apunta a que una traducción, incluso una bien intencionada, puede no preservar todos los matices del original. En la misma línea, la afirmación (atribuida a Mark Twain) de que hay mentiras, mentiras puñeteras y estadísticas ("lies, damned lies and statistics") previene del riesgo de depositar una confianza excesiva en los datos y su interpretación estadística. A esto cabría añadir la observación de Joseph Wiezenbaum, uno de los pioneros de la IA, de que se recurre a menudo a los ordenadores para evadir enfrentarse de verdad a los problemas reales. 

Pasar por alto avisos de este tipo convierte la IA en una simulación deshumanizada de la inteligencia. La lista de daños derivados de su aplicación negligente a situaciones reales es abrumadora y demasiado extensa como para incluir aquí ni siquiera un resumen. Quizá baste con recordar que uno de los incidentes con mayor repercusión provocó en 2021 la dimisión en bloque del Gobierno de Países Bajos al constatarse que un sistema deshumanizado para la detección de fraudes en la concesión de ayudas sociales había llevado a multar y expropiar injustamente a centenares de familias, sobre todo de origen extranjero y ascendencia turca y marroquí. 
Ideología y tecnología

El impulso a la IA comparte rasgos en común con el de hitos anteriores de la expansión de lo digital. Google matematizó con su algoritmo PageRank la estimación de la relevancia de los contenidos; Facebook hizo lo propio con las relaciones entre personas. Ambas empresas se escudaron en propósitos buenistas (ordenar la información del mundo, construir un mundo más abierto y conectado) para encubrir modelos de negocio extractivos sin hacerse responsables de los daños colaterales que propician o consienten, como la erosión de la privacidad personal, el uso sin consentimiento de información propietaria y la proliferación de contenidos socialmente dañinos. 

Imagen
Discurso IA

Son estos rasgos de identidad los que se reproducen en el caso de OpenAI, una de las empresas enfrascadas en la carrera por el liderazgo en la IA. OpenAI se creó en 2015 como una organización sin ánimo de lucro con el objetivo de desarrollar "en beneficio de toda la humanidad" una "inteligencia artificial general"(IAG) que superara a la de los humanos. En 2019, al constatar que ello requería invertir miles de millones de dólares, añadió a su estructura una filial de negocio, designando como primer ejecutivo a Sam Altman, un milmillonario empresario e inversor de Silicon Valley. 

Psicodrama en OpenAI 

Al conseguir pronto el respaldo inversor de Microsoft, Altman puso en práctica la estrategia, común entre los líderes digitales, de copar cuanto antes el mayor espacio de mercado, sin escrúpulos en sobrevender una tecnología inmadura. Su primer éxito sonado fue el lanzamiento en noviembre de 2022 de ChatGPT, una IA extractiva entrenada a base de explotar de forma indiscriminada y sin autorización contenidos de todo tipo capturados online, que consume enormes recursos de cálculo y de energía para generar tanto textos de apariencia correcta y coherente como informaciones falsas o peligrosas. 

Es plausible que el personalismo de Altman generara conflictos con el consejo de OpenAI, creado en su momento para supervisar una entidad sin ánimo de lucro. Sea como fuere, en noviembre de 2023 el consejo anunció por sorpresa el despido de Altman, alegando una pérdida de confianza que muy pronto se demostró que era mutua. Actuando como lo haría un experto golpista, Altman obtuvo enseguida el respaldo de Microsoft, así como el de centenares de empleados de OpenAI y el de la plétora de gurús y comentaristas afines a la ideología de Silicon Valley. La crisis se dio por cerrada con el retorno triunfal de Altman como CEO y el nombramiento de un nuevo consejo. Aun así, el incidente se suma a las dudas preexistentes acerca de si los gigantes digitales son capaces de dotarse de un esquema de gobernanza a la altura del protagonismo y la influencia que reclaman.

El trasfondo del psicodrama en OpenAI es coherente con el diagnóstico de que la expansión de lo digital durante las últimas tres décadas está animada por un entramado ideológico en el que el individualismo y el economicismo de mercado prevalecen sobre el bien común, en tanto que el mecanicismo y el dataísmo justifican el sesgo hacia la construcción de realidades digitales alternativas.

La IA añade una ideología adicional: la que sostiene que una élite tecnológica puede y debe desarrollar una IAG que podría complementar a la inteligencia individual y colectiva de la humanidad, pero también aspirar a reemplazarla. La expectativa de uno de sus apologetas de referencia es que cada persona tenga acceso a una IA infinitamente paciente, infinitamente compasiva, infinitamente informada e infinitamente útil que, actuando como asistente/entrenador/mentor/formador/asesor/terapeuta, le asista en todas las oportunidades y desafíos de la vida. No solo eso. Prevé también que una IA similar informe de las decisiones de aquellos que como ejecutivos, gobernantes, entrenadores o maestros, tengan responsabilidades sobre otras personas. Este panorama resulta menos atractivo de lo que parece a primera vista cuando se entiende que la paciencia y la compasión del asistente son simuladas. Y cuando se inquiere por cuestiones como quién controla la maquinaria del asistente, con qué criterios se ha programado, cuánta información privada captura para personalizar sus servicios, para qué otros fines se utilizará esa información privada.

La evolución de la IA confirmará si cataliza una verdadera una revolución o solo refuerza la ambición de acumular riqueza y poder que ha constituido hasta ahora el principal impulso a la expansión de lo digital. En cuanto a lo económico, hay quien augura que la nueva tecnología generará un aumento notable de la productividad, también que su aplicación se dirigirá a complementar más que a reemplazar la actividad de las personas. Pero no sería la primera vez que la realidad desmiente estas expectativas. 

En cuanto a la ambición de poder, cabe recordar que el poder más efectivo es el de influir de modo subrepticio en la mente de los individuos para así condicionar sus comportamientos. La propuesta de la IA bien puede verse al respecto como una vuelta de tuerca adicional a la ambición de este poder, ya patente en la expansión de las redes sociales. Hay un acuerdo unánime en cuanto a la necesidad de una regulación que embride la extensión de la IA en este sentido. 

No obstante, el retraso experimentado en la aplicación de una regulación efectiva de las redes sociales, junto con lo azaroso de la elaboración de la AI Act, el proyecto europeo de regulación de la IA, no invitan precisamente al optimismo. 

Multitud de agentes se aprestan entretanto a ofrecer asistentes personales de todo tipo, ampliando así el experimento social iniciado con el lanzamiento irresponsable de ChatGPT. Las consecuencias son difíciles de prever, si bien un sensato experto español en IA expresaba hace no mucho temer más a la estupidez humana que a la inteligencia artificial. Me inquieta intuir que su temor tiene fundamento.