Google revoluciona el mundo de la inteligencia artificial con el lanzamiento de Gemini
La compañía busca competir y superar el dominio de la desarrolladora de ChatGPT
La secretaria de Estado de Digitalización, Carme Artigas, es la principal responsable en este proceso de trílogo en el que los dos colegisladores europeos, el Consejo y el Parlamento, tratan de encajar sus distintas posiciones con la mediación de la Comisión que propuso esta ley en 2021. La legislación tiene un espíritu preventivo y trata de cerrar puertas para que esta tecnología no pueda causar daño a las sociedades pero sí que pueda ayudar al desarrollo económico y la productividad, sobre todo en las pequeñas empresas. en función de su capacidad de causar daño.
Los debates giran precisamente en torno a la definición del alto riesgo y, por tanto, también de los dominios donde ese riesgo es mayor y aquellos donde el uso de la IA estará prohibido.
Para hacerse una idea de la dificultad para establecer unas normas para la Inteligencia Artificial, basta recordar que cuando la Comisión lanzó esta propuesta no existía ni siquiera un dominio como el famoso Chat GPT que actualmente es utilizado por millones de personas (cuatro millones solo en España). El Parlamento sí que llegó a mencionarlo en su desarrollo legislativo pero no el Consejo, que ha tenido más dificultades para ponerse de acuerdo, pero ambos colegisladores han llegado a la conclusión de que la ley tendrá que ser aplicable incluso en campos que actualmente no existen y que ni siquiera nos imaginamos.
La ley se ha estructurado para ello en dos campos, en la parte central, el artículo 5 define las áreas en las que el uso de la IA está prohibido salvo en casos en los que se invoquen claramente motivos de seguridad nacional, como por ejemplo la clasificación social automática de las personas o el uso indiscriminado del reconocimiento facial. La lista del Parlamento era más extensa que la del Consejo y por ello se ha aplicado una segunda lista no de prohibiciones sino de «riesgos» que no estarán en el articulado de la ley como los prohibidos, sino en un anexo que jurídicamente puede ser modificado por la Comisión Europea con un simple acto delegado, a medida que la evolución de la tecnología vaya cambiando el panorama.
Uno de los puntos en los que todos están de acuerdo es en imponer la garantía de que el contenido generado por IA esté marcado como tal, a través de protocolos estandarizados. En cuanto a los derechos de autor, la redacción que está sobre la mesa requiere que los proveedores de modelos establezcan «medidas adecuadas» para cumplir con los requisitos legislativos y publiquen un resumen suficientemente detallado de los datos de capacitación y las políticas de derechos de autor.
Consejo y Parlamento han mantenido posiciones divergentes respecto a las obligaciones de los llamados «modelos fundacionales» en relación a los usuarios intermedios, que pueden ser las empresas. La Comisión ha propuesto un modelo de transparencia según el cual los «modelos fundacionales» como Chat GPT estarían obligados a revelar los puntos esenciales de sus algoritmos. Se definen sanciones económicas y se prevé la creación de agencias nacionales de supervisión y un sistema europeo de alerta sobre riesgos que se hayan detectado en determinado país.
El principal obstáculo al comenzar este último pulso negociador era que Francia y Alemania son de la opinión de que todavía no sabemos bastante sobre esta tecnología como para crear una ley en un campo en el que ningún otro país del mundo (EE.UU. anuncia que lo hará) se ha atrevido a entrar.