Te quedan 2 artículos gratuitos este mes.

Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

ChatGPT: Lo que cuenta es el propósito

Comparte
Logo ChatGPT

La sorpresiva presentación en sociedad de ChatGPT y otros grandes modelos de lenguaje que utilizan técnicas de Inteligencia Artificial (IA) suscita reacciones dispares. Henry Kissinger afirma que estamos ante "nuevo y espectacular logro que se erige como una gloria de la mente humana", en tanto que Yuval Noah Harari lo considera una amenaza potencial a los "fundamentos de nuestra civilización". Es probable que toda valoración apresurada, estas dos incluidas, sea prematura. Así y todo, lo que sí parece inevitable es que aumente la presión sobre los legisladores y expertos que ultiman la AI Act, la regulación europea de la inteligencia artificial.

El enfoque europeo propone un tratamiento diferenciado de las aplicaciones de la IA en función del riesgo que representen, prohibiendo las que comporten un riesgo inaceptable e imponiendo requisitos muy exigentes a las valoradas como de “algo riesgo”. Pero está todavía pendiente cómo valorar a ChatGPT y similares, dado que están consideradas como de “propósito general”, susceptibles tanto de aplicaciones de alto como de bajo riesgo.

Las grandes tecnológicas norteamericanas, las únicas en Occidente con los recursos técnicos para entrenar y operar los grandes modelos de lenguaje, defienden que, dado que no se les puede asignar un propósito concreto, deberían quedar excluidos de la regulación AI Act. Algo a lo que se oponen quienes argumentan que en su estado actual estos modelos presentan serios riesgos éticos y sociales. Que, según un documento del Parlamento Europeo, incluyen los de discriminar injustamente y perpetuar estereotipos y prejuicios sociales, usar un lenguaje que incite al odio y la violencia, proporcionar información falsa o engañosa, aumentar la eficacia de las campañas de desinformación e inducir a los usuarios a sobreestimar las capacidades de la IA y a usarla de manera insegura. A lo que se añade la sospecha de que para entrenar a estos sistemas se ha utilizado información confidencial o propietaria de modo indiscriminado y sin autorización.

Admitiendo no ser un experto en la materia, me atrevo a opinar que, tomando el Libro Blanco de la Comisión Europea sobre la IA como referencia, hay argumentos suficientes para calificar como de alto riesgo a los actuales modelos de lenguaje. Si la AI Act estuviera en vigor, ello supondría imponerles unas restricciones y controles que situarían al ChatGPT fuera de la ley. Así pues, se augura una negociación de alto voltaje, que ojalá fuera pública, entre los legisladores y el lobby tecnológico acerca de esta cuestión.

Tecnicismos legales aparte, lo que es seguro es que quien tiene propósitos concretos acerca de ChatGPT es OpenAI, la empresa que lo ha creado. Aunque si les preguntara al respecto, habría que hacerlo aplicando la técnica de los cinco por qués para ir más allá de sus previsibles respuestas vagas, políticamente correctas y a la vez sospechosas de ocultar la verdad.