La UE está a punto de convertirse en la policía mundial de la IA
con normas vinculantes sobre transparencia, ética, y más.
Por ejemplo, la sanidad, la educación,
la vigilancia de fronteras y los servicios públicos, además de prohibir los
usos que supongan un "riesgo inaceptable".
Los sistemas de IA de "alto riesgo" deberán cumplir unas
estrictas normas que exijan, por ejemplo, sistemas de mitigación de esos
riesgos, conjuntos de datos de alta calidad, mejor documentación y supervisión
humana. Sin embargo, la gran mayoría de los usos de la IA, como los sistemas de
recomendación y los filtros de spam, tendrán vía libre.
La Ley de IA es un gran acuerdo, ya que introducirá importantes
normas y mecanismos de aplicación en un sector muy influyente que ahora avanza
sin control.
PRINCIPALES CONCLUSIONES DEL ACUERDO PROVISIONAL
En comparación con la propuesta inicial de la Comisión Europea,
los principales elementos nuevos del acuerdo provisional pueden resumirse como
sigue:
- Reglas sobre modelos de IA de propósito general de alto impacto que puedan causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo
- Un sistema revisado de gobernanza con algunos poderes de ejecución a nivel de la UE
- Ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias.
- Una mejora en la protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA.
En términos más concretos, el acuerdo provisional cubre los
siguientes aspectos:
Definiciones y alcance
Para garantizar que la definición de un sistema de IA proporcione
criterios suficientemente claros para distinguir la IA de los sistemas de
software más simples, el acuerdo de compromiso alinea la definición con el
enfoque propuesto por la OCDE.
El acuerdo provisional también aclara que el reglamento no se
aplica a áreas fuera del alcance de la legislación de la UE y no debería, en
ningún caso, afectar las competencias de los Estados miembros en materia de
seguridad nacional o cualquier entidad a la que se le hayan confiado tareas en
esta área. Además, la ley de IA no se aplicará a los sistemas que se utilicen
exclusivamente con fines militares o de defensa. De manera similar, el acuerdo
establece que la regulación no se aplicaría a los sistemas de IA utilizados con
el único fin de investigación e innovación, ni a las personas que utilizan la
IA por motivos no profesionales.
Clasificación de sistemas IA como prácticas
prohibidas y de alto riesgo
El acuerdo de compromiso prevé una capa horizontal de protección,
incluida una clasificación de alto riesgo, para garantizar que no se capturen
los sistemas de inteligencia artificial que probablemente no causen violaciones
graves de los derechos fundamentales u otros riesgos importantes. Los sistemas
de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de
transparencia muy leves, por ejemplo, revelar que el contenido fue generado por
IA para que los usuarios puedan tomar decisiones informadas sobre su uso
posterior.
Se autorizaría una amplia gama de sistemas de IA de alto riesgo,
pero sujetos a una serie de requisitos y obligaciones para acceder al mercado
de la UE. Estos requisitos han sido aclarados y ajustados por los
colegisladores de tal manera que sean más viables técnicamente y menos gravosos
de cumplir para las partes interesadas, por ejemplo, en lo que respecta a la
calidad de los datos o en relación con la documentación técnica que debe ser
elaborada por pymes para demostrar que sus sistemas de IA de alto riesgo
cumplen los requisitos.
Dado que los sistemas de IA se desarrollan y distribuyen a través
de cadenas de valor complejas, el acuerdo de compromiso incluye cambios que
aclaran la asignación de responsabilidades y roles de los diversos actores en
esas cadenas, en particular los proveedores y usuarios de sistemas de IA.
También aclara la relación entre las responsabilidades en virtud de la Ley de
IA y las responsabilidades que ya existen en virtud de otra legislación, como
la legislación sectorial o de protección de datos de la UE pertinente.
Para algunos usos de la IA, el riesgo se considera inaceptable y,
por lo tanto, estos sistemas serán prohibidos en la UE. El acuerdo provisional
prohíbe, por ejemplo, la manipulación cognitivo-conductual, la eliminación no
selectiva de imágenes faciales de Internet o imágenes de CCTV, el
reconocimiento de emociones en el lugar de trabajo y en instituciones
educativas, la puntuación social, la categorización biométrica para inferir
datos sensibles, como la orientación sexual o creencias reeligiosas y algunos
casos de vigilancia policial predictiva para individuos.
Excepciones de aplicación de la ley
Teniendo en cuenta las especificidades de las autoridades
encargadas de hacer cumplir la ley y la necesidad de preservar su capacidad de
utilizar la IA en su trabajo vital, se acordaron varios cambios en la propuesta
de la Comisión en relación con el uso de sistemas de IA con fines policiales.
Sujetos a las salvaguardias adecuadas, estos cambios pretenden reflejar la
necesidad de respetar la confidencialidad de los datos operativos sensibles en
relación con sus actividades. Por ejemplo, se ha introducido un procedimiento
de emergencia que permite a los organismos encargados de hacer cumplir la ley
desplegar en caso de urgencia una herramienta de inteligencia artificial de
alto riesgo que no haya pasado el procedimiento de evaluación de la
conformidad. Sin embargo, también se ha introducido un mecanismo específico
para garantizar que los derechos fundamentales estén suficientemente protegidos
contra posibles usos indebidos de los sistemas de IA.
Además, en lo que respecta al uso de sistemas de identificación
biométrica remota en tiempo real en espacios de acceso público, el acuerdo
provisional aclara los objetivos cuando dicho uso sea estrictamente necesario
para fines policiales y para los cuales, por tanto, debe permitirse
excepcionalmente a las autoridades policiales utilizar dichos sistemas. El
acuerdo de compromiso prevé salvaguardias adicionales y limita estas
excepciones a los casos de víctimas de ciertos delitos, la prevención de amenazas
genuinas, presentes o previsibles, como ataques terroristas, y la búsqueda de
personas sospechosas de los delitos más graves.
Sistemas de IA de propósito general y modelos
básicos
Se han añadido nuevas disposiciones para tener en cuenta
situaciones en las que los sistemas de IA pueden utilizarse para muchos fines
diferentes (IA de propósito general) y en las que la tecnología de IA de
propósito general se integra posteriormente en otro sistema de alto riesgo. El
acuerdo provisional también aborda los casos específicos de los sistemas de IA
de propósito general (GPAI).
También se han acordado reglas específicas para los modelos
básicos, grandes sistemas capaces de realizar de manera competente una amplia
gama de tareas distintivas, como generar vídeo, texto, imágenes, conversar en
lenguaje lateral, informática o generar código informático. El acuerdo
provisional establece que los modelos de base deben cumplir con obligaciones
específicas de transparencia antes de su comercialización. Se introdujo un
régimen más estricto para los modelos de fundaciones de “alto impacto”. Se
trata de modelos básicos entrenados con una gran cantidad de datos y con una
complejidad, capacidades y rendimiento avanzados muy por encima del promedio,
que pueden difundir riesgos sistémicos a lo largo de la cadena de valor.
Una nueva arquitectura de gobernanza
A raíz de las nuevas normas sobre los modelos GPAI y la evidente
necesidad de su aplicación a nivel de la UE, se crea una Oficina de IA dentro
de la Comisión encargada de supervisar estos modelos de IA más avanzados,
contribuir a fomentar estándares y prácticas de prueba, y hacer cumplir las
normas comunes en todos los estados miembros. Un panel científico de expertos
independientes asesorará a la Oficina de AI sobre los modelos GPAI,
contribuyendo al desarrollo de metodologías para evaluar las capacidades de los
modelos de cimientos, asesorando sobre la designación y el surgimiento de
modelos de cimientos de alto impacto y monitoreando posibles riesgos de
seguridad de materiales relacionados. a modelos de cimentación.
La Junta de AI, que estaría compuesta por representantes de los
Estados miembros, seguirá siendo una plataforma de coordinación y un órgano
asesor de la Comisión y otorgará un papel importante a los Estados miembros en
la implementación del reglamento, incluido el diseño de códigos de prácticas
para modelos de fundación. Por último, se creará un foro consultivo para las
partes interesadas, como representantes de la industria, las pymes, las
empresas emergentes, la sociedad civil y el mundo académico, para proporcionar
los conocimientos técnicos a la Junta de IA.
Penalizaciones
Las multas por violaciones de la ley de IA se establecieron como
un porcentaje de la facturación anual global de la empresa infractora en el año
financiero anterior o una cantidad predeterminada, el que fuera mayor. Una
cifra que representaría 35 millones de euros o el 7% por violaciones de las
aplicaciones de IA prohibidas, 15 millones de euros o el 3% por violaciones de
las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el
suministro de información incorrecta. Sin embargo, el acuerdo provisional
establece límites más proporcionados a las multas administrativas para las
pymes y las empresas de nueva creación en caso de infracción de las
disposiciones de la Ley de IA.
El acuerdo de transacción también deja claro que una persona
física o jurídica puede presentar una queja ante la autoridad de vigilancia del
mercado pertinente en relación con el incumplimiento de la Ley de IA y puede
esperar que dicha queja se tramite de acuerdo con los procedimientos
específicos de esa autoridad.
Transparencia y protección de los derechos
fundamentales
El acuerdo provisional prevé una evaluación del impacto sobre los
derechos fundamentales antes de que sus implementadores pongan en el mercado un
sistema de inteligencia artificial de alto riesgo. El acuerdo provisional
también prevé una mayor transparencia con respecto al uso de sistemas de
inteligencia artificial de alto riesgo. En particular, se han modificado
algunas disposiciones de la propuesta de la Comisión para indicar que ciertos
usuarios de un sistema de IA de alto riesgo que sean entidades públicas también
estarán obligados a registrarse en la base de datos de la UE para sistemas de
IA de alto riesgo. Además, las disposiciones recientemente añadidas hacen
hincapié en la obligación de que los usuarios de un sistema de reconocimiento
de emociones informen a las personas físicas cuando estén expuestas a dicho
sistema.
Medidas de apoyo a la innovación
Con vistas a crear un marco jurídico más favorable a la innovación
y promover el aprendizaje normativo basado en pruebas, las disposiciones
relativas a las medidas de apoyo a la innovación se han modificado
sustancialmente en comparación con la propuesta de la Comisión.
En particular, se ha aclarado que los entornos limitados de
pruebas regulatorias de IA, que se supone deben establecer un entorno
controlado para el desarrollo, prueba y validación de sistemas de IA
innovadores, también deberían permitir probar sistemas de IA innovadores en
condiciones del mundo real. Además, se han agregado nuevas disposiciones que
permiten probar sistemas de IA en condiciones del mundo real, bajo condiciones
y salvaguardias específicas. Para aliviar la carga administrativa para las empresas
más pequeñas, el acuerdo provisional incluye una lista de acciones que deben
emprenderse para apoyar a dichos operadores y prevé algunas derogaciones
limitadas y claramente especificadas.
Entrada en vigor
El acuerdo provisional establece que la ley sobre IA debería
aplicarse dos años después de su entrada en vigor, con algunas excepciones para
disposiciones específicas.
Próximos pasos
Tras la firma del acuerdo provisional, en las próximas semanas se
seguirá trabajando a nivel técnico para ultimar los detalles del nuevo
reglamento. La Presidencia presentará el texto transaccional a los
representantes de los Estados miembros (Coreper) para su aprobación una vez
concluido este trabajo.
El texto completo deberá ser confirmado por ambas instituciones y sometido a una revisión jurídico-lingüística antes de su adopción formal por los colegisladores
Fuente: administacionelectronica.gob.es
CONCLUSIÓN
1. La Ley de IA introduce normas importantes y vinculantes, de transparencia y ética
A las empresas tecnológicas les encanta hablar de su compromiso con la ética de la IA. Pero, cuando se trata de medidas concretas, la conversación se estanca. En cualquier caso, los hechos dicen más que las palabras. Los equipos responsables de IA suelen ser los primeros en sufrir recortes durante los despidos y las empresas tecnológicas pueden cambiar sus políticas éticas en materia de IA en cualquier momento. Por ejemplo, OpenAI empezó como un laboratorio de investigación de IA "abierta" antes de cerrar el acceso público a su investigación para conservar su ventaja competitiva, como cualquier otra start-up de IA.
La ley cambiará esta situación. El reglamento impone normas jurídicamente vinculantes que obligan a las empresas tecnológicas a notificar a los usuarios cuando interactúan con un chatbot, sistemas de categorización biométrica o de reconocimiento de emociones. También exigirá que se etiqueten tanto los deepfakes como los contenidos generados por IA, y se diseñen los sistemas de forma que puedan detectarse los medios generados por IA. Es un paso más allá de los compromisos voluntarios que las principales empresas de IA contrajeron con la Casa Blanca para limitarse a desarrollar herramientas de procedencia de la IA, como las marcas de agua.
El proyecto de ley también obligará a todas las organizaciones que ofrecen servicios esenciales, como seguros y banca, a realizar una evaluación de impacto sobre cómo afectará el uso de sistemas de IA a los derechos fundamentales de las personas.
2. Las empresas de IA aún tienen mucho margen de maniobra
En 2021, cuando se presentó por primera vez la Ley de IA, la población aún hablaba del metaverso.
En un mundo post-ChatGPT, los legisladores consideraron que la regulación debía tener en cuenta a los denominados modelos de lenguaje, unas potentes herramientas de IA que pueden utilizarse para fines muy distintos. Esto provocó un intenso debate sobre qué tipo de modelos deberían regularse, y si esta regulación podría acabar con la innovación.
La Ley de IA exigirá que los modelos fundacionales y los sistemas de IA creados a partir de ellos mejoren la documentación, cumplan la legislación de la UE sobre derechos de autor y compartan más información sobre los datos con los que se ha entrenado el modelo. Y, para los modelos más potentes, hay requisitos adicionales. Por ejemplo, las empresas tecnológicas tendrán que informar sobre la seguridad y eficiencia energética de sus modelos de IA.
No obstante, aquí está el truco. El compromiso al que han llegado los legisladores consiste en aplicar un conjunto de normas más estrictas solo a los modelos de IA más potentes, en función de la potencia informática necesaria para entrenarlos. Y corresponderá a las empresas evaluar si entran dentro de las normas más estrictas.
Un funcionario de la Comisión Europea no quiso confirmar si el límite actual incluiría potentes modelos como GPT-4 de OpenAI o Gemini de Google, porque solo las propias empresas saben cuánta potencia de cálculo utilizaron para entrenar sus modelos. El funcionario sí afirmó que, a medida que se desarrolle la tecnología, la UE podría cambiar la forma de medir la potencia de los modelos de IA.
3. La UE se convertirá en la primera policía de la IA del mundo
La Ley de la IA creará una nueva Oficina Europea de la IA para coordinar su cumplimiento, aplicación y ejecución. Será el primer organismo mundial que aplique normas vinculantes sobre IA, y la UE espera que esto le ayude a convertirse en el regulador tecnológico mundial de referencia. El mecanismo de gobernanza de la Ley de IA también incluye a un grupo científico de expertos independientes que ofrezca orientación sobre los riesgos sistémicos que plantea la IA, y cómo clasificar y probar los modelos.
Las multas por incumplimiento son elevadas: del 1,5% al 7% de la facturación global de una empresa, dependiendo de la gravedad de la infracción y del tamaño de la empresa.
Europa también se convertirá en uno de los primeros lugares del mundo donde los ciudadanos podrán presentar quejas sobre los sistemas de IA y recibir explicaciones sobre cómo estos sistemas han llegado a las conclusiones que les afectan.
Al ser la primera en formalizar normas en torno a la IA, la UE conserva su ventaja. Al igual que el RGPD, la Ley de IA podría convertirse en una norma mundial. Las empresas de otros países que quieran hacer negocios en la segunda economía mundial tendrán que cumplir la ley. Las normas de la UE también van un paso más allá que las introducidas por EE UU, como la orden ejecutiva de la Casa Blanca, ya que son vinculantes.
4. La seguridad nacional siempre gana
Algunos usos de la IA ahora están prohibidos en la UE: los sistemas de categorización biométrica que utilizan características más sensibles, el raspado no selectivo de imágenes faciales de internet o grabaciones de CCTV [circuito cerrado de televisión] para crear bases de datos de reconocimiento facial como Clearview AI. Además, el reconocimiento de emociones en el trabajo o las escuelas, el scoring (puntuación) social, los sistemas de IA que manipulan el comportamiento humano, y la IA utilizada para explotar las vulnerabilidades de las personas.
Se prohíbe también la actuación policial predictiva, a menos que se utilice con "una clara evaluación humana y hechos objetivos, que no dejen la decisión de ir a por un individuo concreto en una investigación penal solo porque lo indique un algoritmo", según un funcionario de la Comisión Europea.
Sin embargo, la Ley de IA no se aplica a los sistemas desarrollados de manera exclusiva para usos militares y de defensa.
Una de las luchas más cruentas en torno a la Ley de IA ha sido siempre cómo regular el uso policial de sistemas biométricos en lugares públicos, muchos temen que pueda conducir a una vigilancia masiva. Mientras el Parlamento Europeo impulsaba una prohibición casi total de esta tecnología, algunos países de la UE, como Francia, se han resistido de manera feroz. Pues quieren utilizarla para luchar contra la delincuencia y el terrorismo.
Las fuerzas policiales europeas solo podrán utilizar sistemas de identificación biométrica en lugares públicos si antes obtienen la aprobación judicial, y para 16 delitos específicos, como terrorismo, trata de seres humanos, explotación sexual de menores y tráfico de drogas. Las fuerzas del orden también podrán utilizar sistemas de IA de alto riesgo que no superen las normas europeas en "circunstancias excepcionales relacionadas con la seguridad pública".
5. ¿Y ahora qué?
Podrían pasar semanas o incluso meses antes de que veamos la redacción final del proyecto de ley. El texto aún tiene que sufrir algunos retoques técnicos, además de ser aprobado por los países europeos y el Parlamento de la UE antes de entrar en vigor de manera oficial.
Una vez esté vigente, las empresas tecnológicas tienen dos años para aplicar las normas. Las prohibiciones de los usos de la IA se aplicarán a los seis meses, y las empresas que desarrollen modelos fundacionales tendrán que cumplir la ley en el plazo de un año.
POSDATA
Entiendo que el chollo para que las IA les escriban los discursos a políticos conservadores y ultraconservadores, está cerca de acabar, con la futura entrada en vigor de la anteriormente expuesta ley de Inteligencia Artificial de la UE.
Conclusión a la que he llegado esta misma mañana, tras estar escribiendo estos artículos, mientras escuchaba las noticias en TV, porque considero, que personas íntegras y cabales como les supongo a los líderes del PP y Vox, son incapaces de lanzar "motu proprio" semejantes falsedades y afirmaciones tan hiperbólicas, que solo pueden ser producto de mentes enfermizas o de entidades diabólicas artificiales como las IA.
Y por ello me inclino a pensar que las IA son quienes les escriben los discursos, lo cual me lleva a pensar que en ese caso, muy sobrados de inteligencia e imaginación no están, y que además no se molestan en dedicar el tiempo necesario para expresar sus ideas y opiniones personales, menospreciando a los ciudadanos, que no sé que será peor.
Fuente: Redacción