13 de febrero de 2022

EUROPA. Batalla por la soberanía energética

 La crisis ucraniana ha dejado al descubierto el flanco más débil de la economía europea en el momento de la transición hacia un modelo descarbonizado, por la ausencia de una soberanía energética europea, lo cual implícitamente utiliza Moscú en sus exigencias sobre Ucrania.

El compromiso con la transición ecológica ha obligado a Europa a migrar hacia otras fuentes menos contaminantes que el carbón. Pero al no disponer todavía de infraestructura energética verde suficiente, los vientos de guerra en Ucrania han traído consigo escasez de gas, materia prima clave de su sistema energético, cuyo grifo se abre y cierra desde Rusia.

La región ha recortado en un 42,7% la producción de electricidad basada en hidrocarburos sólidos respecto a la media de las dos décadas anteriores; quedando a expensas de la generación renovable (dependiente del clima) y, en particular, de las “energías de transición” como el gas, un mercado dominado por jugadores oportunistas como Rusia, y donde aparecen duros competidores como China e India. ¿ Y será Europa capaz de alcanzar la soberanía energética?

Por su flexibilidad y menor nivel de emisiones, el gas es la fuente más accesible para economías altamente dependientes del carbón como Alemania. Hoy por hoy, este combustible genera alrededor del 20% de la producción eléctrica europea, según Eurostat. En España la producción a partir de gas representó alrededor del 27% del sistema eléctrico en 2021, y en enero se alcanzó el 33,5% del total, según datos de Red Eléctrica.

El problema es que Europa no tiene gas, y que el mercado mundial está sujeto a una elevada tensión. La reactivación económica en el último tramo de la pandemia puso de manifiesto este delicado equilibrio: las disrupciones del suministro de gas natural licuado (GNL) estadounidense a mediados de año se unieron a un aumento en la demanda generada por la descarbonización de gigantes como China o, en mucha menor medida, India, dando como resultado una fuerte subida de precios desde verano. La disminución del suministro ruso ligada a la crisis ucraniana ha terminado de cuadrar una tormenta perfecta, que ha disparado los precios del gas y el coste de la energía eléctrica.

El precio de los futuros del gas en el mercado neerlandés, referente europeo, refleja esta alocada carrera: de los 20 euros por megawatio en marzo pasó a 40 en agosto,  volvió a duplicarse en septiembre hasta los 80 y, tras moderarse en noviembre, llegó a un pico de 166 el 21 de diciembre, desde el que ha caído un 50%. Aun así está un 300% por encima de la media de 2020, y no se normalizará hasta 2024, de acuerdo con las cifras de los futuros a más largo plazo de Intercontinental Exchange.

Los socios europeos son conscientes de su situación, hasta el punto de que la agencia Eurostat dispone de un indicador específico para la "dependencia energética" de los 27. De media, el 57,5% de la energia que consume el bloque es de origen extracomunitario. Italia lidera la lista entre los países más grandes de la UE, con un 73,4%, seguida de España con un 67,9% y Alemania con un 63,6%. Francia es el único de los gigantes europeos que se encuentra por debajo de la media, con un 44,4%, en parte gracias a su abastecimiento nuclear.

Esta dependencia tiene importantes matices en función de la fiabilidad de la fuente de suministro y de la concentración de las importaciones. Exportadores como Argelia, Noruega o Rusia, que dominan el mercado europeo, tienen diferentes grados de influencia en cada país dependiendo del peso de sus envíos en cada respectivo mix energético. Así mismo, el nivel de interconexión con el sistema de gas europeo o el acceso al mercado del GNL, que proviene principalmente Estados Unidos y Oriente Medio, son factores que pueden mitigar o empeorar el impacto de los flujos del mercado.

Gas, el as en la manga de Rusia

En este contexto, la concentración de varias decenas de miles de soldados e ingentes cantidades de material miltar ruso en la frontera ucraniana solo ha aumentado la presión energética sobre Europa, que ahora se traslada al plano geopolítico. El Kremlin maneja alrededor del 40% del suministro de gas europeo a través de la empresa estatal Gazprom, y ha utilizado esta "arma del gas" para presionar al bloque y alejarlo de las ex repúblicas soviéticas, su histórica área de influencia.

Según la Agencia Internacional de Energía, Moscú ha reducido en un 25% interanual los envíos de gas a la región durante el último trimestre de 2021. Este movimiento solo se podría explicar por su agenda política, afirma la institución, ya que en el contexto de los precios altos del gas mantener el suministro habría generado una jugosa rentabilidad para las exportaciones rusas.

Los recortes rusos se han dado esencialmente en dos de las cuatro rutas empleadas: el gasoducto “Yamal-Europa”, que atraviesa Bielorrusia y Polonia para llegar a Alemania, y el corredor ucraniano, que conecta Rusia con los países al sur de Alemania. Específicamente, este corredor ha pasado de movilizar alrededor del 45% de los envíos rusos en 2019 a cerca del 20% en 2022, según los datos del Ministerio de Energía de Ucrania.

El Kremlin tiene más influencia sobre algunos países que sobre otros. En Alemania, la principal economía del bloque, las importaciones rusas suponen entre un 60% y un 65% del total del gas consumido, mientras que en Italia ronda el 40%. En países como Austria la dependencia es tal que el Gobierno incluso ha advertido sobre posibles apagones ante la caída en el suministro. España y Francia, no obstante, están en una situación diferente. Aunque siguen siendo vulnerables ante las subidas de precio del mercado, las importaciones africanas protegen a sus sistemas ante las turbulencias rusas. Tan solo un 10,5% del suministro de la península, cuyo principal proveedor es Argelia, proviene de Rusia. Para los franceses, esta cifra se mantiene cerca del 17%.

La disminución de los flujos también se da en el contexto de un nivel anormalmente bajo en las reservas de gas europeas, que a principios de febrero se encuentran a un 35% de su capacidad, en contraste con el 48% en estas fechas de 2021, según datos de la agencia Gas Infrastructure Europe. De acuerdo con Fatih Birol, jefe de la Agencia Internacional de Energía, este déficit está principalmente localizado en los depósitos alimentados por Gazprom, que ha elegido recortar sus envíos al mínimo estipulado en los contratos, incluso en un entorno de precios estratosféticos.

El Gobierno de Vladimir Putin ha promovido intensamente la aprobación del Nord Stream 2, la vía gemela del gasoducto báltico Nord Stream, que sin paradas intermedias permitirá duplicar las exportaciones directas a Alemania. El proyecto, que ha costado en torno a 9.500 millones de euros y fue financiado al 50% por empresas europeas como Shell, Engie, y las alemanas OMV y Uniper, permitirá redirigir los envíos rusos sin cruzar el territorio de las exrepúblicas soviéticas. Fuentes del Gobierno ucraniano han indicado a Cinco Días que su utilización podría representar un ahorro de alrededor de 1.500 millones de dólares anuales en derechos de tránsito que el gigante paga por el paso de sus exportaciones a través de Ucrania.

El futuro del gasoducto, sin embargo, permanece incierto precisamente a causa de la concentración de tropas rusas en la frontera ucrania. Si bien el vicepresidente de la Comisión Europea, Valdis Dombrovskis, aseguró el 31 de enero que la aprobación del ducto se encuentra suspendida por "ir en contra de la legislación europea", nada garantiza que en el mediano plazo no se pueda retomar. En este sentido, los ucranianos temen que su posible aprobación incline la balanza geopolítica a favor de Rusia: “Si se aprueba el Nord Stream 2 no solo perderíamos el dinero, sino que afectaría nuestra seguridad. El gas hace que la Unión Europea mantenga un ojo sobre Ucrania y si eso se pierde Rusia podría ganar terreno”, ha advertido a este diario Aliona Osmolovska, asesora del ministerio de energía de Ucrania.

El riesgo de suministro, en todo caso, ha sido mitigado por la llegada de metaneros cargados de gas natural licuado, atraídos por la alta rentabilidad del mercado europeo. Este reequilibrio ha calmado los nervios en el mercado, y los precios del gas en el mercado neerlandés han caído en un 55,2% desde el último pico el 21 de diciembre. El suministro de gas por barco implica la necesidad de enfriar en origen el gas natural para que pase al estado líquido, transportarlo en barcos especiales y convertirlo de nuevo en gas natural en destino. Alemania o Austria, que no cuentan con terminales de GNL, solo pueden acceder a estas importaciones por medio de la red europea de gasoductos. España, por el contrario, es uno de los países con más capacidad de regasificación.


El consumidor español contempla atónito cómo el cóctel económico y geopolítico ha elevado un 72% la factura regulada de la luz en 2021, según el INE, a pesar de la escasa dependencia de gas ruso. Es, precisamente, la subida del precio del gas en el mercado internacional lo que ha desatado la subida de la tarifa, y gracias también al particular mecanismo de fijación de precios en la electricidad.

Así, el precio del mercado mayorista (donde operan empresas generadoras, comercializadoras y grandes consumidores) depende de la tecnología más cara que se use para cubrir la demanda diaria: si la nuclear y las renovables pueden hacerlo, el precio será bajo porque sus costes son menores. Pero si hay que usar gas natural o carbón, el precio lo fijarán estas tecnologías más caras. Además, en España el precio de la electricidad en este mercado mayorista se traslada directamente a la factura de los consumidores acogidos al mercado regulado. Un mecanismo que se ha tornado endiablado este 2021 y que explica la inusual atención que España presta al otrora mercado mayorista, pese a que la restricción del gas ruso apenas afecte directamente a España.

Un futuro, dos visiones

Líderes y legisladores europeos han insistido en la necesidad de diversificar. Recientemente, la comisaria europea de energía, Kadri Simson, viajó a Azerbaiyán para negociar un posible aumento de las exportaciones de gas desde este país que permitirían depender menos de Rusia. Asimismo, el alto representante de la Unión Europea para asuntos exteriores, Josep Borrell indicó este lunes que la prioridad inmediata del bloque es diversificar las fuentes de energía y los flujos de gas para evitar interrupciones en el suministro y "garantizar que los mercados energéticos mundiales sean líquidos, competitivos y bien abastecidos".

A la cabeza de la cruzada contra la dependencia, se ha situado la presidenta de la Comisión Europea, Úrsula Von der Leyen, quien ha insistido en la urgencia de que Europa consiga la soberanía energética por medio de la transición ecológica. Una meta que no solo contribuirá a frenar el cambio climático, sino que aumentará la resiliencia energética del bloque.

De acuerdo con la Comisión Europea, lograr este objetivo supondría que Europa produzca la totalidad de su propia energía, cortando su dependencia de suministros externos y protegiéndose de posibles interrupciones y de la volatilidad de los precios del gas. También sería un gran ahorro económico: lograr los objetivos de reducción de emisiones en 2030 supondría una caída de más del 25% en las importaciones de combustibles fósiles, y de alcanzarse la neutralidad climática para 2050, el bloque ahorraría hasta tres billones de euros.

Sin embargo, el cómo lograrlo ha generado división entre los socios. Si bien Bruselas considera que ni el gas ni la energía nuclear son energías neutras a nivel climático, ha decidido defender su papel como "actividades de transición" para alcanzar el objetivo de una economía descarbonizada en 2050. La Comisión Europea ha propuesto a principios de febrero que ambas fuentes se consideren dentro de la taxonomía verde del Ejecutivo comunitario, un sistema que pretende orientar las inversiones en la transición ecológica.

¿Qué supone que la energía nuclear sea verde?


Algunos países Europeos, entre ellos España, han alzado la voz contra la decisión. El Ministerio para la Transición Ecológica (MITECO) ha considerado que la inclusión en la propuesta final de taxonomía o clasificación de la Comisión Europea (CE) del gas y la energía nuclear puede distraer fondos e inversiones que podrían destinarse en la "dirección correcta", las energías renovables, como la eólica o la solar.

En esta misma línea, la Unión Española Fotovoltaica (UNEF) ha transmitido su rechazo a esta etiqueta propuesta por Bruselas, al considerar que no se cumplen los criterios medioambientales para que el gas y la nuclear califiquen como inversiones sostenibles. “En la fase crítica que atravesamos a nivel global hacia la transición energética, esto podría restar inversiones que permitan el avance de la energía renovable, sería un error muy importante”, ha señalado Rafael Benjumea, Presidente de UNEF. En concreto, según Benjumea, esta decisión podría frenar la inversión en almacenamiento, hidrógeno verde y fotovoltaica, fundamentales para permitir una mayor flexibilidad en la gestión de la demanda energética.

La tendencia apunta a que en el medio plazo Europa se alejará del gas. La Agencia Internacional de la Energía (AIE) cree que la demanda de gas en el bloque caerá este año un 4%, en un contexto marcado por la fuerte tensión en el mercado con unos precios históricamente elevados y una reducción de los suministros por gasoducto que llegan desde Rusia. En su informe trimestral sobre el mercado del gas publicado a finales de enero, se estima que el consumo de gas en Europa caerá en 2022 a 527.000 millones de metros cúbicos, frente a los 552.000 millones de 2021, y se acercará a los 522.000 millones de 2020, un año en que se había vivido un severo hundimiento por la crisis del Covid.

Por el contrario, visualiza un futuro optimista a medio plazo para otras energías. La AIE cree que el hidrógeno sin emisiones podría llegar a ser competitivo en el horizonte de 2030 en países con muchos recursos renovables, impulsado por una reducción significativa en sus costes de producción. Según el informe Global Hydrogen Review publicado a finales de enero, la demanda de hidrógeno a nivel global en 2020, fue de 90 millones de toneladas, utilizado sobre todo en la industria química y las refinerías; un dato que para 2030 podría crecer hasta 105 millones de toneladas.

Este optimismo es secundado por la Agencia Internacional de Energías Renovables (IRENA), una institución que asegura que el rápido crecimiento de la economía del hidrógeno mundial puede producir importantes cambios geoeconómicos y geopolíticos. Impulsado por la urgencia climática y los compromisos de los países con respecto a la producción de cero emisiones netas, IRENA estima que el hidrógeno representará hasta el 12% del uso de energía en el mundo para 2050.

“El hidrógeno se apalanca claramente en la revolución de las energías renovables, de modo que el hidrógeno verde se presenta como una solución radical para alcanzar la neutralidad climática sin comprometer el crecimiento industrial y el desarrollo social”, ha señalado Francesco La Camera, director general de IRENA.

Sin embargo, a corto plazo, Bruselas se conforma con “aceptar soluciones imperfectas”, en palabras de la comisaria de Servicios financieros, Mairead McGuinnes, al anunciar la polémica taxonomía verde que complace las peticiones de Francia y Alemania. Pero más allá de que esta reforma vea la luz verde, en lo que sí coinciden los 27 es en la urgencia de abandonar la dependencia de Rusia, que ha pasado en las últimas semanas de ser un socio energético a un potencial enemigo bélico. Tras un 2021 de crisis energética, la Unión Europea ha entendido que el gas es su arma de doble filo.

Fuente: cincodias.elpais.com

TECNOLOGÍA. La UE quiere producir el 20% de los chips del mundo entero y ganar autonomía.

 La Comisión Europea teme la debilidad geopolítica frente a Moscú y Pekín que le supone su dependencia de mercados asiáticos para componentes vitales en todo tipo de productos electrónicos, desde coches hasta móviles.

La UE quiere superar la debilidad que le genera depender tanto de la producción de chips y semiconductores, y además, en plena guerra fría con China y Rusia. Así, la Comisión Europea ha anunciado este martes sus planes para convertir a la UE en una potencia de semiconductores frente a EEUU. La UE quiere producir el 20% de los chips del mundo de aquí a 2030, lo cual supone cuadriplicar su producción de semiconductores en solo ocho años.

La presidenta de la Comisión, Ursula von der Leyen, reconoce que la llamada ley europea de chips incluye mecanismos de ayuda estatal para destinar dinero público a lugares de producción concretos.

La norma, no obstante, reúne unos 11.000 millones de euros extraídos de las partidas presupuestarias existentes, por lo que dependerá en gran medida de las propuestas de los países miembros, a los que se suman otros 30.000 previstos en otras partidas comunitarias o estatales, hasta un total de 43.000.

Y todo ello para competir con los más de 50.000 millones de dólares anunciados por EEUU, como adelantaba El Mundo, lo cual pasa por la construcción de grandes fábricas robotizadas, "megafabs", como dice la Comisión Europea.

Con este plan la UE busca impulsar la fabricación de diminutos semiconductores que sirven para todo tipo de productos electrónicos, desde automóviles hasta teléfonos inteligentes. "Asegurar el suministro en los chips más avanzados se ha convertido en una prioridad económica y geopolítica”, afirma el comisario europeo de Mercado Interior, Thierry Breton.

En efecto, los microchips parecen ser el puente a la prosperidad del siglo XXI, y la mayor parte de su producción se encuentra en Asia, lo que ha dejado expuestos a los fabricantes de la UE a cuellos de botella masivos durante el último año.

Los fabricantes de automóviles –la mayoría de los europeos, alemanes, el país de la presidenta de la Comisión Europea Ursula von der Leyen, y franceses, el país de Breton– afirman haber tenido miles de millones en pérdidas por verse obligados a detener la producción a causa de la escasez de chips.

Y lo que teme la UE es que los chips se conviertan en armas geopolíticas a medida que se intensifica la guerra fría entre China y Estados Unidos.

Alrededor del 50% de los microchips de todo el mundo y hasta el 95% de los chips más avanzados provienen de Taiwán, según Politico. Y el estatus político y jurídico de la isla con respecto a China crea inquietud en Bruselas.

"Al mejorar la seguridad de su cadena de suministro y mediante su capacidad para diseñar y producir semiconductores potentes y eficientes en el uso de los recursos, la UE está contribuyendo al reequilibrio de la cadena de suministro mundial de semiconductores", dice Bruselas: "Europa tendrá como objetivo construir asociaciones equilibradas de semiconductores con países de ideas afines [EEUU. Canadá, Reino Unido, etc]. El objetivo de estas alianzas sería cooperar en iniciativas de interés mutuo y garantizar la continuidad del suministro en tiempos de crisis. Al mismo tiempo, la UE debe estar preparada para posibles cambios repentinos en la situación política o crisis imprevistas, que podrían amenazar la seguridad del suministro de la UE. La ley de chips de la UE brindaría a la UE los medios necesarios para abordar tales situaciones y, en última instancia, para garantizar la resiliencia general de Europa".

El reglamento propuesto por la Comisión Europea debe ser debatido ahora por el Parlamento Europeo y el Consejo –los Gobiernos–, para llegar a un acuerdo antes de convertirse en norma.

Fuente: El Diario.es

DeepMind. Desarrolla un sistema de inteligencia artificial capaz de programar de forma creativa

 La compañía de Google enfrentó su herramienta a una serie de desafíos complejos y obtuvo resultados similares a los de los ‘hackers’ e ingenieros que participaron en la competición

DeepMind, la puntera compañía inglesa de desarrollo de sistemas de inteligencia artificial (IA) adquirida por Google en 2014, presentó AlphaCode, una herramienta capaz de escribir código a nivel competitivo. El mérito del programa es haber conseguido un nivel de eficacia y creatividad en la resolución de problemas comparable a la media de programadores humanos, algo nunca antes logrado.

No es el primer sistema capaz de programar: Copilot, de Microsoft, ya demostró el año pasado que podía programar de forma solvente. Sin embargo, este sistema fue acusado de aprovechar partes de código disponibles en GitHub, el repositorio de código abierto con el que fue entrenado.

La forma de operar de AlphaCode, según aseguran sus responsables, es más creativa. También copia código de otros, pero a niveles similares a los que lo hacen cualquier programador. El sistema se apoya en las llamadas redes neuronales profundas, el modelo más aplicado en el avance del aprendizaje automático o deep learning. Esta rama de la inteligencia artificial pone a trabajar al mismo tiempo a varias capas de sistemas de IA y los conecta entre sí, tratando de imitar en la medida de lo posible el funcionamiento de las neuronas del cerebro humano. En este caso, AlphaCode se entrenó con montones de ejemplos de código sacados también de GitHub y de la competición de hackers Codeforces. Cuando se le expone un problema complejo, el sistema de DeepMind elabora una cantidad masiva de soluciones distintas para luego seleccionar las diez mejores.

Los desarrolladores de AlphaCode decidieron probar su sistema en una competición (la mencionada Codeforces) con programadores e ingenieros, en la que se presenta una serie de problemas y luego se puntúa las respuestas aportadas por los participantes. Los resultados fueron muy buenos: se probó en diez rondas y se dieron cuenta de que el programa sacaba una puntuación que se situaba en la media de la obtenida por los humanos. Quedó entre el 54% de los que mejor lo hicieron de los 5.000 participantes. “Es la primera vez que un sistema computacional consigue un nivel tan competitivo en una competición para programadores de élite”, subrayan desde DeepMind.

“Los problemas a los que se enfrentó no los había visto antes el modelo durante su entrenamiento. Solucionar de forma creativa estos desafíos requiere una combinación de pensamiento crítico, lógica, algoritmos, programación y entendimiento del lenguaje natural”, añaden los desarrolladores de la herramienta.

AlphaCode está lejos de poder ser usado en otros campos que no sean la programación competitiva: su terreno es el de la investigación. “Sin embargo, el uso de sistemas de generación de código en aplicaciones presenta muchas oportunidades para programadores”, asegura el español Oriol Vinyals, investigador principal de DeepMind, director de investigación en aprendizaje profundo de la compañía londinense y responsable del programa AlphaCode . “Muchas de las herramientas que se han desarrollado a través de investigación, como los compiladores, han ayudado a los programadores a pensar a un nivel más alto de abstracción para poder así centrar sus esfuerzos en la función del programa, en vez del código en sí”, añade el experto.

La máquina vence al jugador

DeepMind consiguió fama mundial en 2016 gracias a AlphaGo, un sistema desarrollado por la compañía que fue capaz de ganar a Lee Sedol, campeón surcoreano de Go y uno de los mejores jugadores del mundo. Go es un juego de origen chino en el que la intuición desempeña un papel clave considerado mucho más complejo que el ajedrez. AlphaGo no solo derrotó 4 a 1 al gran campeón, sino que para hacerlo inventó jugadas nunca antes vistas por los expertos.

Un año después, en 2017, hizo otra demostración de músculo con AlphaZero, un programa que derrotó al mejor software de ajedrez que había en ese momento. Para que lo lograra bastó que sus creadores le enseñaran las reglas del juego y le dejaran practicar consigo mismo durante tan solo cuatro horas.

En 2019, otra de sus creaciones, AlphaStar, derrotó 10 a 1 a los mejores jugadores del mundo de StarCraft II, un popular videojuego de estrategia en tiempo real. El desafío era especialmente complejo porque en este juego, en el que dos o más jugadores tienen que desarrollar una pequeña economía de guerra y un ejército con el que aplastar a los demás, cada uno solo ve la parte del mapa en la que tiene a sus unidades. Es decir, la máquina no sabe qué está haciendo el contrincante y por tanto debe tomar decisiones basadas en la intuición.

Fuente: El Pais.com

IA. Método pionero para diseñar algoritmos éticos y responsables

 Empresas españolas colaborarán para poner en marcha sistemas de inteligencia artificial socialmente aceptables

Partiendo de la base que un algoritmo informático es un conjunto de instrucciones definidas, ordenadas y acotadas para resolver un problema, realizar un cálculo o desarrollar una tarea. En programación, un algoritmo supone el paso previo a ponerse a escribir el código.

Dos empresas españolas de referencia en el sector se han propuesto diseñar sistemas de inteligencia artificial que cumplan esos estándares en los llamados ámbitos de alto impacto (salud, empleo, educación, seguridad, servicios sociales o justicia). Se trata de Eticas, especializada en auditar algoritmos, y la desarrolladora de software Sngular. Ambas firmas emplearán una metodología pionera, inédita en este país, que ralentizará los tiempos de entrega, ya que se evaluarán y tratarán de pulir los posibles efectos negativos del sistema desde antes de que se ponga en marcha, pero que garantizará unos resultados más limpios.

¿Cómo lo harán? La idea de fondo es aportar una visión más amplia de la que tiene un ingeniero, que no necesariamente está formado para entender el contexto en el que se va a aplicar una herramienta que tenga impacto social. Eso se consigue con equipos multidisciplinares. Se necesitan ingenieros, claro, pero también trabajadores sociales, juristas o filósofos. “Para construir un edificio hacen falta arquitectos, albañiles, electricistas, fontaneros… No se le puede confiar todo el trabajo al electricista. En la tecnología de alto impacto lo estamos haciendo”, ilustra Gemma Galdon, consejera delegada de Eticas.

La UE es consciente de que los algoritmos de alto impacto necesitan ser mirados con lupa. Bruselas prepara una directiva que, previsiblemente, contemplará medidas de supervisión para los sistemas de IA que se apliquen a actividades especialmente sensibles, aquellas en las que se debe exigir un margen de error algorítmico mínimo. Si finalmente se incluyen medidas coercitivas, posiblemente las tecnológicas empiecen a dedicarle más tiempo y recursos a pensar qué posibles externalidades negativas pueden propiciar sus algoritmos.

En España, la Secretaría de Estado para la Digitalización y la Inteligencia Artificial trabaja en la confección de la Agencia de Evaluación de Algoritmos. Este organismo, creado por una petición expresa de Más País para apoyar los presupuestos de 2022 (aunque la secretaría de Estado tenía ya previsto desarrollar un ente similar), se encargará de clasificar el riesgo que presenten los algoritmos y tendrá capacidad sancionadora.

La intención de Eticas y Sngular es desarrollar de cero algoritmos que cumplan con creces esos estándares. Para ello combinarán la auditoría con el diseño técnico. “Cuando hacemos una auditoría algorítmica analizamos todo el ciclo de vida del algoritmo, desde la elección de las bases de datos del entrenamiento hasta la implementación de un sistema algorítmico”, explica Galdon. “Tenemos hasta 20 puntos de identificación de sesgos e ineficiencias y hacemos pruebas en cada uno de ellos para asegurar que no se produzcan. Cuando identificamos esas ineficiencias las subsanamos, intervenimos incorporando datos sintéticos y normas dentro de los algoritmos para asegurar que esa disfunción, ineficiencia o sesgo no se reproduce”.

Un algoritmo ético, paso a paso

Un ejemplo demasiado común de los sesgos de los que habla Galdon es la discriminación de las mujeres por parte de los sistemas algorítmicos. “Es el caso del ámbito bancario: como históricamente las mujeres no hemos sido las representantes económicas de las familias, en las bases de datos de entrenamiento de los algoritmos bancarios estamos infrarrepresentadas”, indica la experta.

Tras ese estudio previo entraría en acción Sngular. Esta tecnológica, que debutó en Bolsa a finales de año y que instauró el teletrabajo por defecto entre sus 900 empleados, se ocuparía del desarrollo técnico del sistema de IA. “Trabajar con Eticas nos aportará poder aplicar metodologías muy enfocadas en la privacidad y en todos esos aspectos regulatorios que se están empezando a contemplar, algo en lo que nosotros cojeamos”, dice Nerea Luis, responsable de IA de Sngular.

No existe una forma perfecta de diseñar un algoritmo, pero sí está claro cuál es el proceso que debería seguirse. Para Galdon, primero debería definirse bien el problema que se quiere abordar. El siguiente paso debería ser entender cuáles son los puntos de datos que pueden ayudar a resolverlo. “Hay un ejemplo del que se ha hablado bastante: un algoritmo de priorización hospitalaria que se había entrenado con datos financieros porque lo desarrolló una compañía de seguros. A menudo se usan los datos que se tienen y no los que se necesitan. ¿Qué podemos hacer? Conocer bien cuáles son los datos que me permiten tomar una buena decisión y seleccionar los inputs adecuados”.

Después de la selección, otro reto importante es ver si hay sesgos históricos en esos datos. Por ejemplo, si hay infrarrepresentación de algún colectivo: mujeres, hombres, personas no blancas, niños, mayores, habitantes de ciertas zonas, etcétera. “Las capas de discriminación que nos podemos encontrar dentro de los algoritmos son muchísimas; identificarlas es clave para poder mitigarlas”, subraya Galdon. “Por ejemplo, si sabemos que nuestra base de datos tiene condicionantes históricos que podrían llevar al algoritmo a tomar decisiones injustas sobre esos perfiles, tenemos mecanismos para solventar eso. Pero si no lo hemos identificado, ese problema no se solventa y el sesgo se reproducirá”.

Fuente: El Pais.com

TELEFONIA. ¿Qué es mejor Android o IOS?

La batalla que confronta a los dispositivos de iOS —el sistema operativo de Apple— y a los de Android —el de Google— lleva años dividiendo a los consumidores, que defienden su elección con vehemencia. Android e iOS son prácticamente equivalentes en lo relativo a las funciones que ofrecen, pero son muchos los que se plantean: ¿Realmente uno de ellos es objetivamente superior al otro?

¿Cuál es más fácil e intuitivo de utilizar?

El 9 de enero de 2007 Steve Jobs anunció uno de sus más esperados one more thing (una cosa más), expresión con la que solía dar pie a la presentación de un producto sorpresa en los eventos de Apple. Había nacido el iPhone original. Este dispositivo fue el primero en emplear una interfaz de usuario que revolucionaría por completo la industria de la telefonía: la eliminación del teclado físico y la incorporación de la pantalla multitáctil como única forma de relacionarse con el teléfono. Google tardó unos meses en reaccionar con el lanzamiento del HTC Dream y de Android 1.0, un modelo que marcó el inicio de una guerra descarnada que se mantiene hasta nuestros días.

Después de estos años en los que han podido probarse y analizarse los modelos de ambas compañías, ¿qué plataforma supera a la otra en lo relativo a la relación del usuario con su dispositivo? Lo cierto es que no hay una gran curva de aprendizaje al saltar de una a otra, puesto que ambas emplean la interfaz que universalizó el primer iPhone, pero la interpretación de esta forma de relacionarse es distinta en cada caso. Parece que sí hay acuerdo al considerar que iOS es un entorno más cerrado y Android, una plataforma más abierta: “Android juega con cierta ventaja al permitir que cada marca pueda desarrollar su propia interfaz completamente diferenciada de las del resto y añadir tantas opciones de personalización como desee”, explica Christian Collado, de Andro4all. “Ofrece al usuario un abanico de opciones mucho más amplio”, insiste.

En lo que respecta al rendimiento, “Android permite cambiar el launcher (lanzador, que sirve para personalizar las aplicaciones y los iconos, por ejemplo), lo que resulta una ventaja a nivel estético, pero una desventaja en el aspecto técnico, porque puede provocar algunos problemas de rendimiento cuando hay alguna app pesada que afecta al rendimiento del propio sistema y genera unos pequeños retrasos que en ocasiones se notan en dispositivos Android”, explica el locutor de podcast y formador Julio César Fernández.

¿Es realmente más seguro un iPhone?

Los ciberataques promovidos a través de programas maliciosos o de los engaños conocidos como phishing, en los que los delincuentes se hacen pasar por entidades o personas de confianza, se han disparado en los últimos meses, y la mala noticia es que esta tendencia no tiene visos de cambiar. Así las cosas, y considerando que el móvil es la puerta de entrada a cuentas corrientes, fotografías y demás información personal, conocer cuál es el estado de la seguridad de cada plataforma resulta fundamental. Apple lleva por bandera la seguridad y el respeto a la privacidad y, de hecho, son notorios sus enfrentamientos con las autoridades para salvaguardarlas. Ahora bien, ¿es realmente más seguro un iPhone que un Android de última generación?

“Android arrastra una mala fama en este terreno, pero la diferencia no es tan acusada en la actualidad”, explica Alexandra Guerrero, cofundadora de El Output. No obstante, aclara que iOS es más seguro “por la arquitectura del sistema”, aunque es algo que no percibe el usuario, ya que Android “está cada día más blindado”. Con todo, Apple juega con una ventaja clave en este terreno: gestiona hardware (soporte físico) y sistema operativo de forma simultánea. Esto resulta determinante en materia de seguridad: si se encuentra una vulnerabilidad en la plataforma, la actualización que la resuelve se distribuirá entre todos los iPhone del mundo en un tiempo récord. En Android, el parche para resolver el problema se aplicará con mayor dificultad entre los modelos que tengan las versiones requeridas del sistema operativo.

Collado advierte: “El principal problema de Android en este sentido está en la fragmentación: hay un gran número de dispositivos Android con versiones del sistema antiguas o con parches de seguridad desactualizados, más vulnerables a las brechas, que se han ido subsanando con cada actualización”. Aunque aclara que, al ser notablemente mayor el número de usuarios con Android en el mercado, “es normal que suelan reportarse más casos de amenazas dirigidas a la plataforma de Google que a la de Apple”. En cualquier caso, los expertos coinciden en que no hay una plataforma que sea 100 % segura.

“Cualquier sistema operativo es susceptible de ser atacado y comprometido”, advierte Fernández, quien, no obstante, incide en que “Apple realiza actualizaciones de seguridad tanto para iOS 15 como para iOS 12, dando cobertura a dispositivos con ocho años de vida o más, mientras que el compromiso de los fabricantes con los modelos de Android es menor, por lo que algunos no reciben actualizaciones de seguridad ni de sistema más allá de 24 o 36 meses”.

Con móviles de última generación, es casi una cuestión de preferencias

Elegir un ganador en esta ‘‘guerra’' es realmente complicado porque cada plataforma dispone de unas características específicas que gustan a un nicho de mercado específico. Apple ofrece a sus usuarios un ecosistema de dispositivos de enorme valor añadido, como los AirPods, el Apple Watch o el iPad. La compañía ha logrado, con el transcurso de los años, llevar su marca al terreno de los sentimientos y posicionarse como una referencia ‘aspiracional’, con lo que alcanza un índice de retención muy elevado entre los consumidores. Sin embargo, la libertad que ofrece Google en su sistema operativo permite que los fabricantes creen modelos mucho más sofisticados en términos de diseño y fuera del corsé de los californianos. Un buen ejemplo de esto lo encontramos en los distintos modelos plegables en el mercado, como los de Samsung, o los dispositivos con una pantalla secundaria en el exterior.

El grueso del público al que se dirige el iPhone no aprecia esa aparente falta de innovación como una desventaja, sino como un punto a favor, ya que no debe aprender prácticamente nada nuevo al cambiar de modelo. Desde el punto de vista de los desarrolladores, tampoco hay un ganador claro. Pedro Santos, desarrollador de Android de Todoist (el popular gestor de tareas), explica que ambas plataformas “han ido convergiendo en términos técnicos y de herramientas”, haciendo que su programación sea una cuestión de “preferencia personal”. Los modelos actuales de teléfono inteligente de ambos sistemas compiten de tú a tú en prácticamente todos los aspectos y debe ser el comprador quien valore la variedad de modelos, lo nutrido del ecosistema y, por descontado, el desembolso económico.

Fuente: El Pais.com

SUPERCOMPUTACIÓN. La Universidad de Granada pone en marcha un superordenador que realiza en 24 horas operaciones que requerían 25 años

 El ordenador ‘Albaicín’ permite la ejecución de modelos más precisos y complejos, así como simulaciones de mayor resolución

La investigación actual depende en gran medida de la capacidad de realizar procedimientos y simulaciones de cálculo intensivo que hace tiempo dejaron de poder hacerse en ordenadores normales. La ciencia requiere de supercomputadores que, en realidad, son potentes infraestructuras de computación en red con cientos de núcleos trabajando a la vez y realizando operaciones simultáneas a velocidad de vértigo. La Universidad de Granada (UGR) ha puesto en marcha el supercomputador bautizado como Albaicín, una bestia de 822 teraflops de rendimiento –un teraflop equivale a un millón de millones de operaciones por segundo– que según ha anunciado este martes su rectora, Pilar Aranda, está a disposición de más de 125 grupos de investigación y 500 científicos de la UGR y de las otras universidades públicas andaluzas.

El encendido de este nuevo supercomputador, que ha supuesto una inversión de algo más de 1,2 millones de euros, va a permitir a la comunidad científica no solo reducir significativamente el tiempo de espera de sus investigaciones, sino ampliar las líneas de investigación que hasta ahora, al requerir el proceso de datos de forma masiva, no se podían hacer en la universidad granadina. Así lo ha explicado la rectora: “Llegaremos a ámbitos a los que antes nos era imposible. Y no solo la UGR sino otras universidades andaluzas, porque queremos ser ejemplo de colaboración universitaria”. No es esta, sin embargo, la primera incursión de la UGR en la supercomputación. Según ha detallado Begoña del Pino Prieto, delegada de Universidad Digital y profesora de Arquitectura y Tecnología de Computadores, la institución puso originalmente en marcha su servicio de supercomputación hace 30 años.

De hecho, Albaicín es la tercera supercomputadora de la UGR y el avance tecnológico ha permitido un incremento de potencia significativo. La nueva máquina multiplica por 200 la velocidad de trabajo respecto a la primera, de 2007, y por 20 la capacidad de la segunda, de 2013. Jesús Rodríguez Puga, informático jefe del Servicio de Sistemas de Investigación y Supercomputación de la UGR, ha ejemplificado la capacidad de trabajo de Albaicín: “Los 9.520 núcleos son capaces de reducir a tan solo 24 horas procedimientos científicos de altísima complejidad que podrían llegar a durar 25 años”.

Blanca Biel, investigadora de Física Atómica Molecular y Nuclear de la UGR, ha explicado que su trabajo en nanotecnología, “que se basa, en gran parte, en simulaciones de materiales de escala atómica, requiere de cálculos muy complejos que solo pueden realizarse en máquinas con una gran potencia que hasta ahora tardaban tres y cuatro semanas en realizarse y que, con Albaicín, se podrán completar en menos de un día más o menos”.

Supercomputación y estrategia de futuro

Begoña del Pino ha apuntado que la supercomputación es un “elemento decisivo para impulsar la investigación, la innovación, la transferencia de alto nivel y la formación especializada, ejes estratégicos para la UGR”. Enrique Herrera, vicerrector de Investigación y Transferencia e investigador altamente citado en Ingeniería y Ciencia de computadores, ha contado que “no hay investigación de alto nivel sin infraestructuras de investigación que permitan incrementar la capacidad de computación y resolución de procedimientos y simulaciones complejas”.

Herrera opina que esta nueva infraestructura permitirá a la UGR afrontar los retos estratégicos que se han marcado y que, en este ámbito, son: “Convertir Granada y su universidad en sede de la Agencia Nacional Reguladora de Inteligencia Artificial, acoger el proyecto IFMIF-DONES [que busca una nueva fuente de energía para el futuro, inagotable y respetuosa con el medio ambiente] y poner en marcha el Centro de Excelencia en Inteligencia Artificial AILab Granada, un proyecto conjunto de UGR , INDRA y Google que busca llevar el abrir el uso de la inteligencia artificial al tejido empresarial”.

El vicerrector ha anunciado también que la puesta en marcha de Albaicín es un paso más en una estrategia en supercomputación que aspira a servir, no solo a grupos de investigación nacionales, sino también a “la trasferencia e innovación para dar soluciones de computación dedicada a problemas concretos de la sociedad”. “Con el tiempo”, ha concluido, “nos gustaría dar servicio de supercomputación también a las estrategias innovadoras que surjan en empresas o instituciones públicas que requieran de este tipo de supercomputadores”.

Fuente: El Pais.com

TELEFONIA. Google Pixel 6 y Pixel 6 Pro. Salto de calidad en imagen para convertirse en el rey de la fotografía

 El gigante tecnológico lanza en España dos móviles que estrenan diseño y su propio procesador

Conclusiones tras las pruebas realizadas al Pixel 6 Pro.


Se trata del móvil más potente de Google, cuyo precio parte de los 899 euros. Es bastante grande, puesto que mide 16,3 centímetros de alto, 7,5 de ancho y 8,9 milímetros de grosor, y pesa 210 gramos. El diseño de la parte trasera es muy llamativo: una gran franja horizontal negra que agrupa las cámaras sobresale notablemente y atraviesa el terminal en la parte superior. La pantalla es de 6,7 pulgadas y tiene ligeras curvaturas en sus laterales. Su tasa de refresco alcanza los 120 Hz —al igual que la de gran parte de los móviles de gama alta en el mercado—. Este parámetro hace referencia a la cantidad de veces que la pantalla se actualiza por segundo. Por lo tanto, cuanto más alto sea, más suaves son los movimientos entre pantallas. Aunque también se consume más batería. La experiencia al usar el terminal ha resultado fluida en todos los supuestos. Para competir con los buques insignia de fabricantes como Apple, Samsung u Oppo, Google ha mejorado el hardware de sus cámaras y ha hecho una fuerte apuesta por la fotografía computacional. El sensor principal, de 50 megapíxeles, tiene un estabilizador óptico de imagen y captura hasta un 150% más de luz que su antecesor —el del Pixel 5—. El teléfono más ambicioso de Google incorpora, además, un ultra gran angular totalmente nuevo de 12 megapíxeles y un teleobjetivo de 48 megapíxeles con un zoom óptico de cuatro aumentos. La cámara frontal es de 11,1 megapíxeles.

Cuando hay luz, todas las fotografías tienen, en general, un gran nivel de detalle, colores intensos y un buen rango dinámico. Normalmente, las cámaras de los móviles suelen sufrir más en condiciones de baja luminosidad, pero desde hace algunos años una de las prioridades de Google es potenciar las cámaras en este tipo de ambientes. Y lo ha hecho bastante bien. De noche, las capturas con el sensor principal mantienen un buen nivel de detalle y apenas tienen ruido. Como suele ser habitual, con el gran angular se pierde un poco de calidad, pero los resultados siguen siendo buenos.

Borrar a personas de las fotos

Una de las herramientas más curiosas —y probablemente soñada por muchos instagramers— de la cámara de los nuevos Pixel es el borrador mágico. Con él, es posible hacer desaparecer como por arte de magia a cualquier persona u objeto que estropee una foto. En general, funciona bastante bien. Al utilizar la herramienta, el móvil reconoce a los protagonistas de la imagen y sugiere borrar a las personas que pasean a lo lejos. El usuario también puede escoger manualmente lo que desea eliminar.

En el apartado fotográfico, también es destacable el modo movimiento, que incluye dos opciones para aportar dinamismo a las fotos. La primera, llamada toma de acción, permite hacer fotos de una persona, un animal o un vehículo mientras se mueve y hacer que destaque sobre un fondo borroso. La segunda, bautizada como exposición larga, está pensada para captar el movimiento. Aunque este último modo puede resultar interesante para hacer capturas artísticas o fotografiar cascadas o el ajetreo de una ciudad, precisa de algo de práctica por parte del usuario para conseguir buenos resultados.

Las cámaras incorporan también una tecnología denominada tono real. “Desde hace décadas, las cámaras se han diseñado para fotografiar pieles claras y este sesgo se ha infiltrado en muchos algoritmos y productos visuales digitales modernos”, afirman desde la compañía, situada en Mountain View. En teoría, los nuevos móviles de Google pueden recrear cualquier tono de piel de forma más fidedigna.

El Pixel 6 Pro estrena procesador: el Tensor Flow, que es el primer chip desarrollado por la compañía. Además, cuenta con 12 GB de RAM y 128, 256 o 512 GB de almacenamiento. En el día a día, el rendimiento ha sido el esperado de un móvil de gama alta. No se ha producido ningún tipo de retardo o lag al ejecutar las aplicaciones. La batería es de 5.000 mAh y cuenta con carga rápida de 30W. Con un uso normal del móvil, normalmente alcanza el día completo, pero con un uso muy intensivo, puede quedarse algo corta.

Google Pixel 6, el hermano pequeño a un precio más asequible

El Google Pixel 6 Pro no llega solo; le acompaña su hermano pequeño, el Pixel 6, que parte de un precio de 649 euros. Ambos terminales comparten procesador y diseño, aunque el Pixel 6 es algo más pequeño. Su pantalla es de 6,4 pulgadas y tiene una tasa de refresco de 90 Hz —frente a la de 6,7 pulgadas y 120 Hz del Pixel 6 Pro—. En el apartado fotográfico, el Pixel 6 también es un poco menos ambicioso. Aunque tiene una cámara principal de 50 megapíxeles y un gran angular de 12 megapíxeles, carece de teleobjetivo. Su cámara frontal es de ocho megapíxeles. El móvil también es compatible con las redes 5G y está equipado con el procesador Tensor Flow. Además, tiene 8 GB de RAM, 128 o 256 GB de almacenamiento y una batería de 4.614 mAh.

Fuente: El Pais.com

FUSIÓN NUCLEAR. Europa marca récord absoluto de energía producida por este sistema

 El último experimento del reactor JET, en Reino Unido, consiguió generar 59 megajulios durante 5 segundos, la mayor energía jamás alcanzada con un reactor de fusión. Este paso nos acerca a conseguir la energía masiva, limpia e inagotable de las estrellas aquí, en la Tierra

Sin duda, la fusión es la energía ‘de moda’: los últimos experimentos en China, Corea y, más recientemente, en Estados Unidos, han puesto en los titulares de todo el mundo los esfuerzos más punteros de los científicos para recrear la energía del Sol aquí, en la Tierra.

Ahora, investigadores europeos (incluidos varios laboratorios de fusión españoles) han conseguido un nuevo hito en esta ‘carrera’: establecer con el reactor experimental Joint European Torus (JET) el récord de energía de fusión, generando 59 megajulios durante 5 segundos.

Hacer realidad una fuente masiva, limpia, segura e inagotable, es el objetivo

Como dato importante, a partir de dos baterías de litio de teléfono móvil y un litro de agua podríamos generar energía para una persona durante toda su vida.

En el interior de las estrellas, millones de toneladas de núcleos de hidrógeno chocan entre sí a tremendas temperaturas y presiones, uniéndose para crear un elemento más pesado y poco contaminante, el helio, y neutrones de alta energía. Es así como nuestra estrella genera de forma natural ingentes cantidades de luz y calor

En los futuros reactores de fusión para provocar esta se utilizarán como combustible isótopos del hidrógeno, deuterio y tritio. Actualmente, el deuterio se puede conseguir del agua del mar. Pero con el tritio es un poco más complicado: se puede originar a partir del litio, que es un elemento radiactivo (si bien, de baja activación). En el futuro, la reacción de fusión provocará que se genere ‘in situ’ y de forma segura en el interior de los reactores -sería físicamente imposible que ocurriera un episodio similar al de Chernóbil o Fukushima en una planta de fusión, puesto que un fallo provocaría, que la reacción se extinguiría por sí sola-. Pero por ahora, casi todos los experimentos hasta la fecha, incluidos los que se llevan a cabo en los famosos ‘Soles artificiales’ chinos, solo operan con deuterio. Pero no todos.

«El JET es el único que puede operar con deuterio y tritio a la vez», explica a Elena de la Luna, investigadora del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (Ciemat) y jefa de grupo de la campaña experimental en las instalaciones del JET, ubicadas en Culham, cerca de Oxford (Reino Unido). «Pero este último es difícil de manipular, y por ello tiene que pasar por muchos controles de seguridad». Y eso lleva tiempo: el último experimento en las instalaciones con estos dos isótopos combinados tuvo lugar en 1997. Entonces se consiguió llegar hasta los 21,7 megajulios durante cinco segundos. «Además, después de aquellos experimentos, el JET se embarcó en una campaña de mejoras, incluido la instalación en la primera pared de materiales que se utilizarán en ITER y a ello le siguió una fase experimental donde tuvimos que aprender a utilizar el JET después de todos los cambios introducidos».

Una ‘rosquilla’ que atesora el plasma ardiente

Las mejoras de los últimos años estaban encaminadas a que el JET fuese una réplica lo más parecida posible al Reactor Termonuclear Experimental Internacional (ITER), un proyecto internacional (con participación de China, la Unión Europea, Japón, Corea del Sur, Rusia, India y Estados Unidos) que tiene como objetivo demostrar que la energía de fusión puede ser una realidad y el paso previo para crear una planta de fusión comercial que envíe toda esta energía a la red eléctrica de nuestros hogares. ITER se está construyendo en Cadarache, una localidad al sur de Francia, y está previsto que empiece los experimentos con deuterio y tritio en 2035. Y los números que promete son apabullantes: está previsto que en las primeras pruebas alcance los 500 segundos (algo más de 8 minutos) de trabajo a alta potencia y los 1.500 (25 minutos) a media potencia, en ambos casos con temperaturas cercanas a los 150 millones de grados (10 veces la temperatura del centro del Sol) y con ganancia energética (es decir, que la energía generada sea mayor que la requerida para poner la reacción en funcionamiento, un hito que aún no se ha conseguido).

«El JET es un ITER en pequeño -señala De la Luna-, a escala diez uno». Ambos son de tipo tokamak, un diseño soviético caracterizado por ser una especie de ‘rosquilla’ metálica en cuyo interior se produce el ansiado plasma -un gas ionizado donde se produce la reacción de fusión- que se confina gracias a la acción de unos ‘superimanes’ que crean un enorme campo magnético, alcanzando las altas temperaturas que se producen en el interior del Sol. Pero, aparte de ser más pequeña, JET cuenta con tecnología más limitada. «Es una instalación con bobinas de cobre instaladas en los años ochenta y que se tienen que refrigerar, por lo que la duración del plasma con alta potencia de calentamiento está limitado a cinco segundos».

De ahí que la reacción durante el experimento, realizado a finales del año pasado, ‘solo’ se mantuviera durante ese pequeño lapso. «En realidad, en términos de estudio de la física, ese tiempo nos permite estudiar el plasma casi de forma estacionaria», señala De la Luna. Casi como si la reacción, que todavía no llegamos a comprender del todo, se parase en el tiempo. Esos cinco segundos permitirán explorar cómo funciona la fusión en la tierra en condiciones hasta ahora imposibles en los laboratorios y que abrirán la puerta no solo a mejoras en el ITER, sino también en nuestra comprensión del mundo. Entonces, ¿JET ha llegado a su límite? «Aún existen muchas incógnitas que revelar para ITER. Y mientras sigue la construcción de ITER, seguro que se nos ocurren nuevas preguntas que pueden ser contestadas con experimentos en JET. Aún queda mucha investigación por hacer con este dispositivo», señala De la Luna.

DIFERENCIAS CON OTROS EXPERIMENTO DE FUSION

‘Soles Artificiales’ Chinos

China ha invertido mucho en energía de fusión en los últimos años. Su ‘joya de la corona’ es el tokamak superconductor avanzado experimental (EAST), que consiguió sostener el plasma durante 1.056 segundos (17 minutos) a una temperatura de 70 millones de grados Celsius. Aunque estos datos puedan parecer mucho más interesantes que los del JET, la proeza tiene ‘truco’: en el EAST solo se utilizó deuterio, por lo que no se generaron niveles elevados de energía de fusión.

Láseres Estadounidenses apuntando a un diminuto punto

Hace apenas dos semanas, la revista ‘ Nature’ publicaba las conclusiones del experimento del Laboratorio Nacional Lawrence Livermore (California), en la Instalación Nacional de Ignición (NIF), que conseguía alcanzar los 0,17 megajulios de energía (una cantidad que se incrementó en pruebas posteriores, alcanzando los 1,3 megajulios). Aparte de la evidente diferencia de potencia entre lo conseguido por el NIF y el JET, ambos registran otras distinciones: mientras el modelo europeo es de tipo tokamak y utiliza los superimanes para crear campos magnéticos que confinen el plasma (y que sería más fácil de aplicar en futuros modelos comerciales), el estadounidense se basa en el confinamiento inercial, apuntando varios potentes láser a un punto microscópico (muy útil para la investigación básica, pero con menos recorrido para aplicarse en reactores conectados a la red).

Fuente: abc.es

Ultimátum de META a la UE. Nuevo episodio de la larga batalla por el control de los datos

 La compañía de Mark Zuckerberg, que lleva años litigando con Bruselas para que no le ponga trabas en la transferencia de datos a EE UU, se plantea llevarse Facebook e Instagram de Europa. Si lo hiciera, su negocio se vendría abajo

El fundador de Facebook, Mark Zuckerberg, confesó una vez a un antiguo colaborador suyo que tiene tres grandes temores en la vida: que le hackeen los sistemas, que sus empleados sufran daños físicos y que los legisladores hagan pedazos su red social. Este último miedo no es descabellado. Quizás porque el lema fundacional de Facebook, Move fast and break things (muévete rápido y rompe cosas), se tomó al pie de la letra. Así lo consideran al menos tanto el regulador de EE UU como varios gobiernos estatales del país, que abrieron hace dos años investigaciones contra la compañía por perjudicar a sus usuarios y competidores. También lo cree la UE, con quien lleva años litigando a cuenta de la exigencia comunitaria de ciertas garantías de privacidad en el tratamiento de los datos de sus ciudadanos.

La amenaza velada de Meta de abandonar el Viejo Continente, lanzada esta semana en un documento remitido a la SEC, el regulador de los mercados en EE UU, se enmarca en esta última batalla. Ni siquiera es la primera vez que Zuckerberg recurre a este dramático ultimátum: lo hizo ya en 2020, cuando el Tribunal de Justicia de la Unión Europea (TJUE) resolvió que el mecanismo de transferencia de datos digitales entre Europa y EE UU no era válido. Todos los datos recopilados por las plataformas de Meta se mandan a los servidores de EE UU para almacenarlos y procesarlos. El negocio de la compañía, de hecho, consiste en transformar la información que recoge de sus usuarios en pistas relevantes de cara a los anunciantes para que puedan personalizar su publicidad.

El nuevo órdago pretende influir en otra decisión judicial que está al caer: la autoridad de protección de datos irlandesa, país en el que tiene Meta su sede europea, debe decidir si el marco que se ha usado desde 2020 hasta hoy para la transferencia transatlántica de datos (las Cláusulas Contractuales Estándar, CCE) cumple o no con la normativa comunitaria. En caso negativo, Meta podría seguir enviando datos a EE UU, pero debería establecer mecanismos adicionales que garanticen la seguridad de esos datos. Es decir: se encarecería notablemente ese trasvase.

“Cuando tienes un negocio basado en un flujo constante de la información entre sus distintas compañías afiliadas y además a escala mundial, cualquier añadido en la transferencia de datos les dificulta el día a día”, señala Alejandra Matas, directora del área New Law de la división jurídica de PwC Tax. Según esta abogada, otras compañías como Amazon o Google, que se enfrentan a la misma situación, ya trabajan en ello. “Están viendo si en algunos casos es posible alojar los datos en Europa para ahorrarse el problema o viendo qué garantías adicionales pueden incluir en los contratos”.

Meta no atraviesa su mejor momento. La semana pasada se supo que, por primera vez en la historia, Facebook cayó en número de usuarios diarios: pasó de 1.930 millones a 1.929. La cifra sigue siendo enorme, inalcanzable para sus competidoras, pero los analistas ya hablan de que la red social estrella de Mark Zuckerberg puede haber tocado techo. La compañía cayó un 26% en Bolsa el día en que se hicieron públicas esas cifras, lo que debido a su mastodóntico tamaño supuso unas pérdidas de 251.000 millones de dólares. Teniendo en cuenta que los ingresos de Meta se basan en mantener una amplia base de usuarios de los que poder procesar datos relevantes para los anunciantes, renunciar a Europa significaría recortar voluntariamente una parte importante de su negocio.

De ahí que pocos le den credibilidad al anuncio de una eventual de retirada de la UE. “El problema es que simplemente no respetan la ley. Estoy seguro de que si Meta se va otros ocuparán rápidamente su espacio con un producto legal. Esto parece una amenaza ridícula lanzada por una multinacional increíblemente arrogante”, comenta a EL PAÍS el jurista austriaco Max Schrems. Este joven abogado no es alguien cualquiera en esta historia. Fue él quien prendió la chispa que puso en marcha la maquinaria jurídica comunitaria que ha tensado las cuerdas a Facebook (ahora Meta).

La autopista transatlántica de datos

En EE UU, a diferencia de en la UE, no hay ninguna ley federal que regule la gestión de los datos privados de las personas. Eso no solo significa que las empresas pueden intercambiarlos, comerciar con ellos y explotarlos a su antojo, sino que las agencias gubernamentales (como la CIA, el FBI o la NSA) pueden intervenirlos cuando quieran. La norma que ordena esas cuestiones en Europa es desde 2018 el Reglamento General de Protección de Datos (RGPD), pero antes que esta hubo otras. Uno de los principios fundamentales del RGPD es que el usuario debe saber para qué se usan sus datos y dar consentimiento de lo que se vaya a hacer con ellos.

Desde principios de siglo, el país norteamericano y la UE se basaron en el acuerdo Safe Harbor (Puerto Seguro) para articular el tratamiento adecuado en suelo estadounidense de los datos de ciudadanos europeos. Schrems consiguió en 2015 tras una serie de demandas interpuestas precisamente contra Facebook que el TJUE congelara ese acuerdo al considerar que si las agencias de seguridad de EE UU podían acceder a todos los datos que estuvieran en su territorio, incluyendo los de ciudadanos europeos que se almacenan en servidores americanos, estos no tenían las mismas garantías que en Europa. La sentencia se conoció como Schrems I.

Como respuesta, la Comisión Europea aprobó el acuerdo Privacy Shield (Escudo de Privacidad), que trataba de permitir con nuevas salvaguardas el intercambio transatlántico de datos. Tras ser recurrido de nuevo, el TJUE lo declaró inválido en 2020 (Schrems II). Los datos de los europeos deberían permanecer en suelo europeo para que se le apliquen las normativas comunitarias de protección de datos.

En diciembre del año pasado, la asociación NOYB (acrónimo de None Of Your Business, No es asunto tuyo), fundada y dirigida por Schrems, difundió unos documentos internos de Facebook en los que los abogados de la compañía dan a entender que no se consideran en la obligación de mantener en servidores europeos los datos privados de sus usuarios de la UE. Es decir, consideran que las dos sentencias del TJUE no les afectan, a pesar de que en ambos casos fueron la respuesta a demandas contra Facebook.

Qué puede pasar ahora

En agosto de 2020, Meta recibió una decisión preliminar de la autoridad de protección de datos irlandesa (IDPC) según la cual las transferencias de datos realizadas entre Facebook Irlanda (la matriz europea de la compañía) y la sede central de Menlo Park no cumplían todas las garantías del RGPD. “Creemos que la decisión final se tomará en la primera mitad de 2022″, señala la compañía en el documento remitido al regulador estadounidense. “Si no se adopta un nuevo marco de transferencia de datos (...) no estaremos capacitados para ofrecer nuestros productos más importantes en Europa, incluyendo Facebook e Instagram”, concluye el aviso. “No tenemos ningún deseo ni planeamos retirarnos de Europa”, se apresuró a matizar ayer un portavoz, “pero la simple realidad es que Meta depende de la transferencia de datos entre la UE y EE UU para operar sus servicios”.

No se puede decir que haya cundido el pánico en Europa. “Llevo cuatro años sin Facebook ni Twitter y la vida ha sido fantástica”, comentó a unos periodistas el ministro alemán de Economía, Robert Habeck, en unas declaraciones recogidas por Bloomberg tras coincidir en un evento en París con su homólogo francés, Bruno Le Maire. “Puedo confirmar que viviríamos muy bien sin Facebook”, añadió este último. “Los gigantes digitales deben entender que Europa resistirá y reafirmará su soberanía”. La comisaria europea de Competencia, Margrethe Vestager, ha hecho hoy unas declaraciones en el mismo sentido. “Estoy en Instagram. Si deja de funcionar ganaré 10 o 20 minutos al día”, ha dicho a Bloomberg TV.

La UE prepara de hecho dos normativas con las que materializar ese control. Se trata de la Ley de Servicios Digitales, que fija la responsabilidad de las plataformas en caso de que se publiquen contenidos ilegales, y la Ley de Mercados Digitales, diseñada para facilitar la libre competencia en las plataformas. Ambas están pendientes de ser discutidas y aprobadas por el Parlamento Europeo.

Fuente: El Pais.com