Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

El riesgo de las IA mediocres

Comparte
Robot de cartón

Ilustración
generada con IA

En marzo de 2023, sólo cuatro meses después del sonado lanzamiento de ChatGPT, un conjunto de personalidades relevantes del mundo de la tecnología y de la empresa publicaron un manifiesto reclamando una pausa de seis meses en el desarrollo de nuevos sistemas de IA generativa. Su documento tuvo una considerable repercusión en los medios, pero muy poca o ninguna en la práctica. 

Más bien al contrario, la práctica totalidad de agentes sociales, desde tecnólogos e inversores hasta empresarios y gobiernos, aceptan hoy como inevitable el despliegue de la IA. Más que intentar retrasarlo o modularlo, su prioridad es la de no perder el tren de la IA y ubicarse en el bando de los ganadores. Por ejemplo, el documento "Estrategia de Inteligencia Artificial 2024" publicado por el Gobierno de España empieza manifestando la convicción de que la IA representa una revolución trascendental, "que por sus características tiene la capacidad de abordar los desafíos más complejos del mundo contemporáneo" y "promete ser el catalizador de grandes transformaciones económicas y sociales". 

El cambio de tono es perceptible incluso en un nuevo manifiesto sobre los "riesgos extremos" de la IA, cuya lista de firmantes está encabezada por dos investigadores considerados como padres de esta tecnología. Después de reconocer como un "progreso" que las capacidades de los actuales sistemas de IA superen las de los humanos en algunos tipos de actividad, el documento añade que no hay "obstáculos fundamentales" que impidan que lo hagan también "actividades críticas" a no muy largo plazo. Avisan, no obstante, que la respuesta de la sociedad no está a la altura del "progreso transformador" que anticipan los expertos y que los actuales procedimientos de gobernanza carecen de los mecanismos e instituciones para impedir usos imprudentes o directamente nocivos. 

En esta ocasión, sin embargo, los firmantes no abogan por una moratoria, limitándose a proponer una serie de acciones en dos ámbitos: reorientar por una parte la I+D para dedicar más recursos a la seguridad de los sistemas de IA avanzada; en paralelo, desarrollar mecanismos adaptables de gobernanza proactiva que reduzcan los riesgos de comportamientos perniciosos o no deseables. 

Hay varias razones para acoger con reservas un documento de este tipo. La previsión de que los sistemas de IA desbordarán las capacidades de los humanos es hoy por hoy solo una hipótesis que no todos los expertos comparten. El debate sobre las posibles consecuencias de esa hipótesis no debería distraer la atención acerca de los riesgos a corto plazo del actual despliegue de la IA. En contra de lo que podría desprenderse de reportajes como este, emitido por rtve, ocuparse de los riesgos de las actuales IA mediocres, no fiables y opacas, parece más urgente que preocuparse demasiado de los de una hipotética Inteligencia Artificial General

Hay conciencia, incluso desde antes de la aparición de la IA generativa, del riesgo de que la IA, incluso la IA mediocre, se utilice para automatizar y hacer más productiva la actividad de quienes se dedican a utilizar las redes con fines maliciosos, como la desinformación o la ciberdelincuencia. La aplicación de la IA en el sistema financiero aumenta los riesgos de fragilidad financiera. Un reciente informe de DeepMind, la empresa de IA de Google, desgrana los riesgos éticos y sociales de los asistentes personales cuya oferta promueven todas las tecnológicas, Google incluido. 

Acabaré con un breve apunte sobre una cuestión adicional que merece un espacio aparte. La IA no tiene por sí misma el poder transformador que le atribuyen los tecnófilos; el poder real lo ejercen quienes utilizan y prevén utilizar la IA como herramienta de transformación. Como señala con acierto Daron Acemoglu, el cambio de dirección hacia una evolución más inclusiva de la tecnología requiere cambios en la base del poder social. Una cuestión esta a la que los firmantes del último manifiesto se refieren solo para poner en duda que los gobiernos puedan reunir el "inmenso conocimiento experto" necesario para una evaluación técnica de las capacidades de la IA y de sus riesgos sociales. Peligro.