España se ofrece a Bruselas para hacer una prueba
piloto del Reglamento Europeo de la Inteligencia Artificial y ya trabaja en
medidas de control y de auditoría para este tipo de sistemas
La prueba piloto implicaría adelantar la
implantación de la normativa un año, a 2022. Y ello conllevaría evaluar el
riesgo que plantea la aplicación de cada algoritmo (el reconocimiento facial o
los sistemas de puntaje, por ejemplo, son considerados de alto riesgo y por
tanto están proscritos con algunas excepciones) y preparar mecanismos de
auditoría para asegurarse de que no discriminan por raza, género o renta (los
llamados sesgos algorítmicos).
España sería el único país que se adelante en la
aplicación de este reglamento europeo. Con este movimiento, el Gobierno
pretende colocar al país en la vanguardia de esta importante normativa y
acelerar “los cambios que tarde o temprano tendrán que darse”, señalan fuentes
de la Secretaría de Estado de Digitalización e Inteligencia Artificial (Sedia):
preparar equipos de análisis, definir estándares, desarrollar procedimientos de
actuación, etcétera. Esas mismas fuentes confirman que el acuerdo entre el
Gobierno y la Comisión Europea está muy avanzado. Si no hay contratiempos, se
anunciará a la vuelta de vacaciones.
La aplicación temprana del borrador de reglamento
europeo no implicaría obligaciones legales adicionales para las empresas que
operen los algoritmos que se supervisarán. El sector, de hecho, ha recibido de
buen grado la iniciativa y se ha ofrecido para colaborar en lo que sea necesario
con Sedia, dependiente del Ministerio de Asuntos Económicos y Transformación
Digital que dirige la vicepresidenta primera Nadia Calviño. La idea del
Gobierno es crear un sandbox o banco de pruebas en un entorno seguro similar al
que ya se desarrolló para las fintech.
Evaluación de riesgos
Tanto la Estrategia Nacional de la Inteligencia
Artificial, presentada a finales del año pasado, como el reglamento europeo de
la IA contemplan la figura de la auditoría algorítmica como uno de los pilares
del sistema de evaluación de riesgos.
El Gobierno todavía no tiene claro qué organismo se
encargará de realizar en España esas auditorías. “No hemos llegado a esa
discusión”, señalan desde la Secretaría de Estado que dirige Carme Artigas. Una
opción sería crear una oficina independiente, como ya sucede en el ámbito de la
privacidad con la Agencia Española de Protección de Datos (AEPD).
Antes de llegar a ese punto, y para preparar el
terreno, se acaba de poner en marcha el Observatorio sobre el Impacto Social de
los Algoritmos (Obisal). Dependiente a su vez del Observatorio Nacional de
Tecnología y Sociedad (Ontsi), esta entidad será la encargada de desarrollar
los indicadores de referencia que se usarán en las auditorías. El Obisal está
ahora mismo en proceso de captación de expertos y de constitución de grupos de
trabajo sectoriales para analizar los sistemas de IA. “Los algoritmos no son
sectoriales, pero su impacto sí”, subrayan desde Sedia.
Este observatorio producirá informes que
contribuirán a que el año que viene vea la luz una metodología concreta para
realizar las auditorías algorítmicas. A ello contribuirá también un registro de
algoritmos del sector público que está impulsando la propia Secretaría de
Estado. El objetivo, según fuentes del Gobierno, es que este proceso de
evaluación del impacto social de los sistemas pueda materializarse en una
especie de sello de calidad de los algoritmos. “Todo este trabajo está preparando
el terreno para dentro de 10 o 15 años”, aseguran desde Sedia.
Fuente: El Pais.com