La esencia de las inteligencias artificiales, sobre todo la de las IA basadas en el llamado “aprendizaje profundo”, es el cálculo. No el tipo de cálculo como el que lleva a cabo un jugador de ajedrez para prever las próximas jugadas de su adversario y escoger la suya. Se trata de un cálculo matemático; de probabilidades, para ser más preciso.
Importa tomar conciencia de ello porque el impulso hacia el desarrollo y la expansión de la IA se sustenta en la convicción filosófica e ideológica de que hay muchos problemas y situaciones en que los resultados de un cálculo matemático automatizado son más confiables que los derivados del razonamiento humano. La actual batalla por la supremacía en la IA puede pues percibirse no sólo como una carrera tecnológica o por la obtención de beneficios económicos a corto plazo, sino como una pugna estratégica por ganar influencia y poder en procesos de decisión, con derivadas sociales y políticas evidentes.
El funcionamiento de las IA actuales difiere radicalmente del previsto por quienes en 1955 convocaron el evento considerado como fundacional de la IA. Su punto de partida era la hipótesis de que cualquier característica de la inteligencia humana podría en principio describirse de un modo tan preciso que hiciera posible construir una máquina (un algoritmo, diríamos hoy) que simulara ser inteligente. Sin embargo, una tal descripción no existe todavía, ni es previsible que aparezca a corto plazo.
Cuando, por ejemplo, se nos pide a los humanos demostrar que lo somos identificando todos los coches que contiene una imagen, lo hacemos en el acto, aún sin ser todo conscientes de cómo. Así y todo, la evidencia de que los niños de muy corta edad son ya capaces de reconocer imágenes conduce a concluir que ningún cálculo matemático interviene en el proceso humano de reconocimiento.
La comprensión profunda del pensamiento, el de la intuición más aún que el del raciocinio, continúa resistiendo a los esfuerzos de los investigadores. Las expectativas de desarrollar algoritmos que emulen la inteligencia humana se han incumplido muchas veces, resultando en períodos de pérdida de confianza en la tecnología: los denominados como “inviernos IA”». El resurgir de las expectativas en la IA a partir de 2010 tiene que ver con los resultados en buena medida inesperados de un enfoque radicalmente inhumano: el de convertir un reto conceptual en el de la optimización matemática de los millones o miles de millones de parámetros de una red neuronal, una enorme estructura de cálculo vagamente inspirada en la organización de las neuronas cerebrales. Si el reto es el de generar textos sintácticamente correctos, como en el caso de ChatGPT, el objetivo de esa optimización, denominada equívocamente como “aprendizaje profundo”, es que la red adquiera la capacidad de calcular a partir de una palabra o frase la que con mayor probabilidad se asemeje a algunas de las presentes en la ingente base de textos generados por humanos que el sistema ha analizado previamente.
No es cuestión de entrar aquí en detalles técnicos, acerca de los que hay ya excelentes publicaciones accesibles. Mi propósito con esta columna se limita a sostener que la IA no comprende, por lo menos no en la forma en que lo hacemos los humanos: sólo calcula probabilidades. Y que, en consecuencia, la IA parece tanto más humana cuanto más se la compara con los comportamientos menos deliberados y conscientes de las personas. Más sobre ello y sus implicaciones, la próxima semana.