Hay ideologías tóxicas y creencias infundadas que actúan, a menudo de modo discreto pero influyente, en la trastienda de lo digital. Me ha parecido pertinente comentar esta semana la que ha llevado a una científica informática recién incorporada a la Real Academia de la Lengua (RAE) a afirmar en una entrevista en el El País Semanal: “La tecnología es neutra, el problema somos nosotros”.
Refiriéndose a la “inteligencia artificial subsimbólica”, la que subyace a los grandes modelos de lenguaje como ChatGPT, reconoce que "a mucha gente le da miedo", pero que "el problema no es la IA, sino cómo se utiliza. La tecnología es neutra. El problema viene del uso que le demos. Siempre ha sido así. El problema somos nosotros".
Aunque solo sea una frase dentro de una entrevista más amplia, aunque quizá la académica la hubiera matizado de habérselo sugerido el periodista, se trata de una afirmación desmentida por muchos estudiosos, de entre los cuales el más conocido pudiera ser el historiador Melvin Kranzberg, que formuló su primera ley de la tecnología como "La tecnología no es buena ni mala; pero no es neutral".
En un ámbito más académico, Lewis Mumford, una autoridad en el análisis de la evolución del maquinismo, describió en detalle cómo todas las máquinas, incluso las más sencillas, son "encarnaciones de un propósito claramente articulado". En America by design, un estudio sobre la evolución del capitalismo industrial en EE UU, David Noble describió cómo la tecnología no ha evolucionado de un modo automático, sino conformada por elementos subjetivos, a su vez influenciados por las relaciones de poder vigentes en el entorno social. En Tecnópolis, un libro publicado en 1992 que sigue siendo de plena actualidad, Neil Postman explica cómo cada herramienta tecnológica "está incrustada una tendencia ideológica, una predisposición [...] a valorar una cosa por encima de otra, a amplificar un sentido o una habilidad más que otra", de modo que "cuando se ha aceptado una tecnología, esta hace su juego, aquello que está diseñada para hacer". Para no extender demasiado esta ya larga lista de referencias, solo añadiré el muy recomendable Atlas de la IA, en el que Kate Crawford argumenta en detalle y de manera convincente que "debido al capital que se necesita para construir una IA a gran escala y a las maneras en que se optimiza, los sistemas de IA se diseñan para servir a intereses dominantes ya existentes".
Por otra parte, cuando la académica explica que la RAE ha decidido introducir la IA en sus procesos de trabajo por la preocupación de que las grandes empresas tecnológicas no se inventen una gramática propia, ya está reconociendo de modo implícito la no neutralidad de la tecnología que generan esas empresas, como tampoco será neutra la que se genere por la actuación de la propia RAE. Algo que se me antoja como una demostración más de la observación de Langdon Winner de que muchos ingenieros no parecen ser conscientes de las cuestiones filosóficas y sociales que su trabajo puede entrañar.
Afirmar que la tecnología es neutra y que el problema "somos nosotros" supone eximir de toda responsabilidad a quienes construyen, introducen, operan y difunden tecnologías digitales diseñadas para invadir la privacidad, secuestrar la atención y erosionar la disposición de las personas a pensar, sentir y actuar de modo autónomo. Me parece una afirmación irresponsable de una persona a la que, dado su historial, no se le puede conceder la ignorancia como excusa.