Usamos analogías para explicar, entender o hacer entender nuevos conceptos por medio de su comparación con otros que nos resulten familiares. Podemos decir, por ejemplo, que un problema que nos cuesta resolver es como un “rompecabezas”, o como “encontrar una aguja en un pajar”.
Sin embargo, como sucede a menudo con los artificios del lenguaje, las analogías no siempre acaban siendo acertadas. En 1911, el ya premio Nobel Ernest Rutheford propuso una analogía entre la estructura del átomo y el sistema solar, con el núcleo atómico como Sol y los electrones como planetas. Una imagen sugerente, pero contradictoria con las leyes del electromagnetismo, que quince años más tarde fue reemplazada por la descripción de los electrones como “ondas de probabilidad” gobernadas por las ecuaciones de la Mecánica Cuántica.
Este ejemplo ilustra que las analogías son más o menos útiles en función de su encaje en una determinada visión del mundo, que puede a su vez cambiar con el tiempo. En los años 60, cuando los ordenadores eran máquinas enormes, confinadas en centros de datos accesibles sólo a una minoría de especialistas, era habitual referirse a ellos como “cerebros electrónicos”. Dado que el funcionamiento del cerebro humano era por entonces mucho más misterioso de lo que hoy sigue siendo, supongo que la intención de esa analogía era transmitir la idea de los ordenadores como artefactos de una enorme complejidad.
La aparición del ordenador personal conllevó un cambio radical de la terminología popular sobre la informática. Cuando Apple introdujo el primer Macintosh, en 1984, lo hizo asociándolo un principio democrático: "una persona, un ordenador". Un ordenador no sólo para especialistas, sino uno que todo el mundo pudiera utilizar. En esa época, los PCs se promocionaban fuera de los ambientes profesionales como electrodomésticos para el hogar y la familia. Un eslogan en la línea de "ponga un cerebro en su vida" no hubiera a buen seguro sido una buena idea.
Desde hace un tiempo, y de forma más acusada a partir de la eclosión de inteligencia artificial (IA), aparecen analogías que invierten la comparación entre ordenadores y máquinas. No se presenta al ordenador como un cerebro, sino al cerebro como un ordenador. Proliferan imágenes en las que el interior del cerebro aparece representado como un conjunto de circuitos electrónicos. Más aún. Imágenes inspiradas en el conocido fresco de la Capilla Sixtina en que Dios infunde vida a Adán, presentan de manera subliminal a los robots como agentes de un aumento de lo humano.
Las consecuencias de esta inversión de conceptos no son en absoluto triviales. Conceptuar el cerebro como una especie de ordenador conduce de manera natural a postular que, después de pasar por un proceso de aprendizaje profundo, las máquinas programadas con algoritmos de IA adquieren la capacidad de pensar y decidir. Hay incluso quien afirma que esos autómatas no sólo perciben, sino que tienen una percepción de la realidad más amplia que la nuestra.
Las analogías de este estilo sobre conceptos que, como el pensar o el comprender, están en la esencia de lo humano, tienen consecuencias peligrosas. Porque, a medida que aumenta la potencia de cálculo de las máquinas, refuerzan el impulso, denunciado hace mucho por Jaron Lanier, de postergar a lo humano como obsoleto. Como también el de reclamar mayores cuotas de influencia y poder para las élites de la nube.
Un antiguo aforismo, mil veces repetido, sostiene que no vemos la realidad como es, sino como somos. Sospecho que quienes se apoyan en la analogía de que los ordenadores piensan parten de la hipótesis, carente de base científica, de que los pensamientos emanan de algún modo del cerebro. Es cierto, por supuesto, que el cerebro interviene en el pensar. Pero imaginar que el cerebro es todo lo que hace falta para producir pensamientos se me antoja tan improbable como que el saxo de Paul Desmond tocara Audrey sin la intervención del músico. Sobre los misterios de la relación entre lo material y lo inmaterial, mejor recurrir a los filósofos que a los ingenieros.