6 de junio de 2023

IA. ¿Quién vigila a la IA? Guía del ranking de las iniciativas globales para regularla

 Ranking sobre los esfuerzos  más prometedores para gobernar la IA en todo el mundo, de mayor a menor valoración de su influencia.

La regulación de la IA está de moda. Desde el éxito del chatbot ChatGPT de OpenAI, la atención del público se ha dividido entre el asombro y la preocupación sobre lo que pueden hacer estas potentes herramientas de IA. 

La IA generativa se ha promocionado como un cambio potencial para las herramientas de productividad y los asistentes creativos. Aunque ya están mostrando las formas en que pueden ser perjudiciales. Los modelos generativos se han utilizado para generar información errónea, y podrían convertirse en armas de spam y estafa.

En las últimas semanas, desde CEOs de empresas tecnológicas hasta senadores estadounidenses y líderes del G7 han pedido una normativa internacional y límites más estrictos para la tecnología de IA. ¿Cuál es la buena noticia? Los responsables políticos no tienen que empezar de cero.

MIT Technology Review, ha analizado seis intentos internacionales muy diferentes para regular la inteligencia artificial. Luego, de analizar los pros y contras de cada uno, los han valorado dándoles una puntuación que indica lo influyentes que entienden son.

UE (ley de IA)

La Unión Europea está ultimando la Ley de Inteligencia Artificial, una amplia normativa que pretende regular los usos con mayor "riesgo" de los sistemas de IA. Esta fue propuesta por primera vez en 2021, y regulará la IA en sectores como la sanidad y la educación.

Pros.- La ley podría responsabilizar a los malos actores y evitar los excesos más perjudiciales de la IA mediante la imposición de grandes multas, y la prevención de venta y uso de tecnología contraria a la UE. El proyecto de ley también regulará la IA generativa e impondrá algunas restricciones a los sistemas que se considere que crean un riesgo "inaceptable", como el reconocimiento facial. Al ser la única normativa exhaustiva sobre IA, la UE es la primera en tomar la iniciativa. Es probable que el régimen de la UE acabe siendo de facto la normativa mundial sobre IA, ya que las empresas de países que no pertenecen a la UE y quieran hacer negocios en este bloque comercial tendrán que ajustar sus prácticas para cumplir la ley.

Contras.- Muchos elementos del proyecto de ley, como la prohibición del reconocimiento facial y los planteamientos para regular la IA generativa, son muy controvertidos. Además, la UE se enfrentará a lobbies de las empresas tecnológicas que presionarán para suavizar la normativa. Por tanto, pasarán al menos un par de años antes de que la ley se abra camino a través del sistema legislativo de la UE y entre en vigor.

Valoración de la influencia: 5/5

OCDE (principios sobre la IA)

En 2019, los 38 países que pertenecen a la Organización para la Cooperación y el Desarrollo Económicos (OCDE) acordaron adoptar un conjunto de principios no vinculantes que establecen algunos valores que deben sustentar el desarrollo de la IA. Según estos principios, los sistemas con este tipo de inteligencia deben ser transparentes y explicables; deben funcionar de forma sólida, segura y protegida; deben contar con mecanismos de rendición de cuentas; y deben diseñarse respetando el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad. Los principios también establecen que la IA debe contribuir al crecimiento económico.

Pros.-  Desde entonces, estos principios, que constituyen una especie de manifiesto de la política occidental sobre la IA, han dado forma a otras iniciativas políticas en todo el mundo. Por ejemplo, es probable que la definición jurídica de IA de la OECD se adopte en la Ley de IA de la UE. La OECD también controla y supervisa las normativas nacionales sobre IA, e investiga su impacto económico. Además, cuenta con una red mundial de expertos en IA que investigan y comparten sus buenas prácticas.

Contras.-  El mandato de la OECD como organización internacional no consiste en elaborar normativas, sino en estimular el crecimiento económico, señala Smuha. Y traducir los principios de alto nivel en políticas viables requiere mucho trabajo por parte de cada país, afirma Phil Dawson, director de Políticas de Armilla, una plataforma de IA responsable.

Valoración de la influencia: 4/5

Normas técnicas del sector

Las normas técnicas de los organismos de estandarización desempeñarán un papel cada vez más crucial a la hora de traducir la regulación en sencillas reglas que las empresas puedan seguir, opina Dawson. Por ejemplo, cuando se apruebe la Ley de la UE, las empresas que cumplan determinadas normas técnicas se ajustarán automáticamente a dicha ley. Ya existen varias normas sobre IA, y hay más en camino. La Organización Internacional de Estandarización (ISO) ya ha elaborado algunas normas sobre cómo las empresas deben realizar la gestión de riesgos y las evaluaciones de impacto, así como gestionar el desarrollo de la IA.

Pros.- Estas normas ayudan a que las empresas lleven una complicada regulación a la práctica. A medida que los países empiecen a redactar sus propias leyes individuales para la IA, las normas ayudarán a las empresas a crear productos que funcionen en múltiples jurisdicciones, según afirma Dawson.

Contras.- La mayoría de las normas son genéricas, y se aplican a distintos sectores. Por tanto, las empresas tendrán que interpretarlas para utilizarlas en su sector concreto. Esto podría suponer una gran carga para las pequeñas empresas, sugiere Dawson. Uno de los puntos más controvertidos es si los expertos técnicos y los ingenieros deben redactar las normas sobre riesgos éticos. "A muchos les preocupa que los responsables políticos se limiten a trasladar las cuestiones difíciles sobre buenas prácticas a la elaboración de normas industriales", añade Dawson.

Valoración de la influencia: 4/5

Consejo de Europa (tratado de IA jurídicamente vinculante)

El Consejo de Europa (COE, por sus siglas en inglés), organización de derechos humanos conformada por 46 países, está ultimando un tratado jurídicamente vinculante sobre inteligencia artificial. El tratado exige a los firmantes que tomen medidas para garantizar que la IA se diseña, desarrolla y aplica de forma que proteja los derechos humanos, la democracia y el Estado de derecho. El tratado podría incluir moratorias sobre tecnologías que supongan un riesgo para los derechos humanos, como el reconocimiento facial.

Si todo va según lo previsto, la institución terminaría de redactar el texto en noviembre, según Nathalie Smuha, jurista y filósofa de la Facultad de Derecho de la Universidad Católica de Leuven (Bélgica) y asesora del Consejo.

Pros.- El Consejo de Europa incluye a muchos países no europeos, entre ellos, Reino Unido y Ucrania. Además, ha invitado a la mesa de negociaciones a otros, como EE UU, Canadá, Israel, México y Japón. "Es una buena señal", asegura Smuha.

Contras.- Cada país tiene que ratificar individualmente el tratado y luego incorporarlo a su legislación nacional, un proceso que podría llevar años. También existe la posibilidad de que los países puedan renunciar a ciertos elementos que no les gusten, como normas estrictas o moratorias. El equipo negociador intenta encontrar un equilibrio entre el refuerzo de la protección y la firma del mayor número posible de países, explica Smuha.

Valoración de la influencia: 3/5

ONU (marco voluntario ético sobre IA)

Naciones Unidas, que cuenta con 193 países miembro, quiere ser la organización internacional que apoye y facilite la coordinación global en materia de IA. Para ello, en 2021 la ONU creó un nuevo enviado de Tecnología. Ese mismo año, la UNESCO (agencia de la ONU) y los países miembro también adoptaron un marco voluntario de ética de la IA. En este, los miembros se comprometen, por ejemplo, a introducir evaluaciones de impacto ético para la IA, evaluar su impacto ambiental y garantizar que se promueva la igualdad de género y no se utiliza para la vigilancia masiva.

Pros.- La ONU es el único lugar significativo de la escena internacional donde los países del sur global han podido influir en la política de IA. Mientras que Occidente se ha comprometido con los principios de la OECD, el marco ético de la IA de la UNESCO ha tenido una enorme influencia en los países emergentes, que son los nuevos en tratar la ética de la IA. En especial, China y Rusia, excluidas en gran medida de los debates occidentales sobre la ética de la IA, también han firmado los principios.

Contras.- Esto plantea una cuestión sobre la sinceridad de los países a la hora de seguir las directrices éticas voluntarias, ya que muchos países, como China y Rusia, han utilizado la IA para vigilar a la ciudadanía. La ONU también tiene un historial irregular en lo que respecta a la tecnología. Su primer intento de coordinar la tecnología mundial fue un fracaso: el diplomático elegido como enviado de Tecnología fue suspendido a los cinco días tras un escándalo de acoso. Y los intentos de la ONU de establecer normas para los drones autónomos letales, también conocidos como robots asesinos, no han progresado en años.

Valoración de la influencia: 2/5

Asociación Mundial sobre IA

En 2020, Justin Trudeau, el primer ministro de Canadá, y Emmanuel Macron, el presidente de Francia, crearon la Asociación Mundial sobre Inteligencia Artificial (GPAI, por sus siglas en inglés). Este organismo internacional tiene como objetivo compartir investigaciones e información sobre IA, fomentar la colaboración internacional en materia de investigación en torno a la IA responsable, e informar sobre las políticas de IA en todo el mundo. La organización incluye a 29 países, algunos de África, América Latina y Asia.

Pros.-  El valor de la GPAI reside en su potencial para fomentar la investigación y la cooperación internacional, asegura Smuha.

Contras.- Algunos expertos en IA han pedido un organismo internacional similar al Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) de la ONU para compartir conocimientos e investigaciones sobre IA, y GPAI tenía potencial para encajar en el proyecto. Sin embargo, después de su lanzamiento a bombo y platillo, la organización ha mantenido un perfil bajo y no ha publicado ningún trabajo en 2023.

Valoración de la influencia: 1/5

Fuente: MITTechnology Review

COMPUTACION CUANTICA. El próximo salto cuántico de IBM: un ordenador de 100.000 'qubits'

 La empresa quiere hacer realidad los ordenadores cuánticos a gran escala en solo 10 años

A finales de 2022, IBM cumplió un récord al conseguir el mayor sistema de computación cuántica con un procesador que contenía 433 bits cuánticos, o qubits, los componentes fundamentales del procesamiento cuántico de la información. Ahora, la empresa ha puesto sus miras en un objetivo mayor: una máquina de 100.000 qubits que pretende construir en un plazo de 10 años.

El 22 de mayo, IBM hizo este anuncio en la cumbre del G7, celebrada en Hiroshima (Japón). La empresa se asociará con la Universidad de Tokio (Japón) y la Universidad de Chicago (EE UU) en una iniciativa de 100 millones de dólares (unos 93 millones de euros) para llevar la computación cuántica a una operación a gran escala. En ella, la tecnología podría abordar problemas acuciantes que ningún superordenador estándar puede resolver.

O, al menos, no podrá resolverlos por sí solo. La idea es que los 100.000 qubits trabajen junto a los mejores superordenadores "clásicos" para lograr nuevos avances en el descubrimiento de fármacos, la producción de fertilizantes, el rendimiento de las baterías y otras aplicaciones. "Lo llamo supercomputación cuántico-céntrica", explica Jay Gambetta, vicepresidente de Cuántica de IBM, a MIT Technology Review en una entrevista mantenida en Londres la semana pasada.

La informática cuántica almacena y procesa información, aprovechando las propiedades únicas de partículas fundamentales: electrones, átomos y pequeñas moléculas pueden existir en múltiples estados energéticos a la vez. Este fenómeno se conoce como superposición, y los estados de las partículas pueden entrelazarse entre sí. Eso significa que la información puede codificarse y manipularse de formas novedosas, abriendo la puerta a una serie de tareas informáticas imposibles.

Hasta ahora, los ordenadores cuánticos no han conseguido nada útil que no puedan hacer los superordenadores estándar. Esto se debe, en gran parte, a que no disponen de suficientes qubits y a que los sistemas se ven fácilmente alterados por pequeñas perturbaciones en su entorno, que los físicos denominan "ruido".

Los investigadores han estado explorando formas de contener los sistemas ruidosos, pero muchos prevén que los sistemas cuánticos tendrán que ampliarse para ser útiles. De este modo, podrán dedicar una gran fracción de sus qubits a corregir los errores inducidos por el ruido.

IBM no es la primera empresa en soñar a lo grande. Google ha manifestado que su objetivo es llegar a 1.000.000 de qubits para finales de esta década, aunque la corrección de errores significa que solo 10.000 estarán disponibles para realizar cálculos. IonQ, con sede en Maryland, aspira a tener 1.024 "qubits lógicos", cada uno formado por un circuito de corrección de errores de 13 qubits físicos, preparados para realizar cálculos en 2028. PsiQuantum, con sede en Palo Alto (como Google), también aspira a construir un ordenador cuántico de un 1.000.000 de qubits, pero no ha revelado su objetivo temporal ni sus requisitos de corrección de errores.

Debido a estas condiciones, citar el número de qubits físicos es una especie de pista falsa: los detalles de cómo están construidos, que afectan a factores como su resistencia al ruido y su facilidad de funcionamiento, son cruciales. Las empresas implicadas suelen ofrecer medidas adicionales de rendimiento, como el "volumen cuántico" y el número de "qubits algorítmicos". En la próxima década, los avances en la corrección de errores, el rendimiento de los qubits y el objetivo de mitigar errores mediante software, así como las grandes diferencias entre los distintos tipos de qubits, harán que esta carrera sea complicada de seguir.

Perfeccionando el hardware

En la actualidad, los qubits de IBM se fabrican con anillos de metal superconductor, que siguen las mismas reglas que los átomos cuando funcionan a temperaturas de milikelvin, apenas una fracción de un grado por encima del cero absoluto. En teoría, estos qubits pueden funcionar como un gran conjunto. Sin embargo, según la hoja de ruta de IBM, los ordenadores cuánticos que está construyendo solo pueden ampliarse hasta 5.000 qubits con la tecnología actual. La mayoría de los expertos opinan que eso no es suficiente para lograr una computación útil. Para crear ordenadores cuánticos potentes, los ingenieros tendrán que ir más allá, y eso requerirá de nuevas tecnologías.

Por ejemplo, se necesita un control de los qubits más eficiente, desde el punto de vista energético. Ahora, cada uno de los qubits superconductores de IBM requiere unos 65 vatios para funcionar. "Si quiero hacer 100.000, eso requiere mucha energía: voy a necesitar algo del tamaño de un edificio, una central nuclear y mil millones de dólares para hacer esa máquina", asegura Gambetta. "Eso es ridículo. Para pasar de 5.000 a 100.000, está claro que necesitamos innovación".

IBM ya ha realizado experimentos de pruebas preliminares, que demuestran que los circuitos integrados basados en la tecnología de "semiconductores complementarios de óxido metálico" (CMOS, por sus siglas en inglés) pueden instalarse junto a los qubits fríos para controlarlos con solo unas decenas de milivatios. Más allá de eso, admite Gambetta, aún no existe la tecnología necesaria para la supercomputación cuántica. Por ello, la investigación académica es una parte vital del proyecto.

Los qubits existirán en un tipo de chip modular, que está empezando a tomar forma en los laboratorios de IBM. La modularidad será esencial cuando resulte imposible poner suficientes qubits en un solo chip, y requiere de interconexiones que transfieran información cuántica entre los módulos. El Kookaburra de IBM es un procesador multichip de 1.386 qubits con un enlace de comunicación cuántica, si bien está en fase de desarrollo, su lanzamiento se ha previsto para 2025.

Otras innovaciones necesarias son aquellas que aportan las universidades. Según Gambetta, los investigadores de Tokio y Chicago ya han avanzado mucho en ámbitos como los componentes y las innovaciones de comunicación, que podrían ser partes vitales del producto final. En su opinión, en la próxima década es probable que se produzcan muchas más colaboraciones entre la industria y el mundo académico: "Tenemos que ayudar a las universidades a hacer lo que mejor saben hacer". Y Google tienen una opinión similar. En otro acuerdo, destina 50 millones de dólares (unos 47 millones de euros) a financiar la investigación en computación cuántica en estas mismas universidades.

Gambetta asegura que el sector también necesita más "científicos computacionales cuánticos". Es decir, personas capacitadas para tender puentes entre los físicos que crean la máquina y los desarrolladores que buscan diseñar y aplicar algoritmos útiles.

El software que funcione en máquinas cuánticas también será de vital importancia. "Queremos crear la industria lo antes posible, y la mejor forma de hacerlo es desarrollando el equivalente de nuestras bibliotecas de software clásico", afirma Gambetta. Por eso, en los últimos años IBM se ha esforzado por poner sus sistemas a disposición de los investigadores académicos. Los procesadores cuánticos de IBM pueden trabajar a través de la nube mediante interfaces personalizadas, que requieren un conocimiento mínimo de los aspectos técnicos de la computación cuántica. Además, explica que se han escrito unos 2.000 artículos de investigación sobre experimentos con los dispositivos cuánticos de la empresa: "Para mí, eso es un buen indicio de que la innovación está sucediendo".

No hay garantías de que los 100 millones de dólares destinados a este proyecto basten para alcanzar el objetivo de los 100.000 qubits. "Sin duda, hay riesgo", reconoce Gambetta.

Joe Fitzsimons, consejero delegado de Horizon Quantum, una empresa de desarrollo de software cuántico con sede en Singapur, también está de acuerdo. "Es poco probable que vaya a ser un viaje tranquilo y sin sorpresas".

No obstante, añade que es un riesgo que hay que correr: la industria tiene que afrontar el miedo al fracaso y los retos técnicos a los que se enfrenta la computación cuántica a gran escala. El plan de IBM parece razonable, admite Fitzsimons, aunque hay muchos obstáculos en potencia. "A esta escala, los sistemas de control serán un factor limitante y tendrán que evolucionar para soportar un número tan grande de qubits de forma eficiente", concluye Fitzsimons.

Fuente: MIT Technology Review