19 de abril de 2019

GRAN HERMANO (5.0). Algoritmos y 600.000 cámaras para “carnet buen ciudadano chino”

Ø  600.000 cámaras IA, 'bigdata', algoritmos... Son los pilares del plan de 'crédito social' que prepara China para puntuar a sus ciudadanos en 2020.
Ø  Ya hay cámaras que identifican 200 personas por minuto y llaman a la policía si ven a un criminal. El Amazon chino pone 'nota' a sus 500 millones de clientes y les da trato distinto...
Ø  ¿Qué pasaría si estos sistemas se fusionan en un sistema de 'crédito social' como pretende China? Las ONG ya alertan de un plan de control sin precedentes
"Queridos pasajeros, aquellos que viajen sin billete, que se comporten desordenadamente o que fumen en lugares públicos serán castigados de acuerdo a las reglas y su comportamiento quedará registrado en el sistema de créditos e información individual. Para evitar cualquier registro negativo en su crédito personal siga las normas y cumpla las órdenes en el tren y la estación".
Este fragmento es una grabación real de un tren en Shanghai que muestra la punta del iceberg del sistema de crédito social puesto en marcha por el Partido Comunista chino. Real como la vida misma, y que no corresponde a ninguna obra de ficción y por ello mucho más perturbador.
El sistema de créditos sociales chino, que ya se encuentra en funcionamiento, otorga una puntuación a cada uno de sus ciudadanos en función de sus hábitos cívicos, su estilo de vida, las páginas web por las que navega, de lo que compra en internet y de otras variables como sus infracciones de tráfico.
Una puntuación que marca la posición de los ciudadanos en la escala social del país de modo que, aquellos con un crédito alto, tendrán derecho a un trato preferente por parte de la Administración.
Un documento público del Partido Comunista en el que se explica el proyecto sostiene que "Mantener la confianza es glorioso y romper la confianza es una desgracia". Este quebrantamiento de la confianza implica una serie de castigos que, más allá del papel, ya se están produciendo. Por ejemplo, a 12 millones de chinos ya se les ha prohibido comprar billetes domésticos de avión y tren.
El sistema crédito social de China es posible gracias a la combinación e integración de varias tecnologías como el Big Data, el reconocimiento facial y la monitorización de internet en un entorno cuyas libertades no son comparables a los de una democracia occidental y ayudados por más de 600.000 cámaras de vigilancia con inteligencia artificial.
Pese a que los castigos y represalias son conocidas, el funcionamiento del algoritmo que determina la posición de un individuo en la escala social es incierto.
Gran parte de los datos que otorgan la puntuación de cada ciudadano en el sistema de crédito social provienen de los historiales de internet de los chinos, aunque también se tienen en cuenta factores económicos -como retrasos a la hora de pagar las facturas- o sanciones administrativas y/o penales que castigan comportamientos incívicos.
El sistema también tiene en cuenta un componente moral, y con un carácter más aleatorio, a la hora de asignar el valor crediticio de cada ciudadano. Las compras frívolas, jugar a videojuegos, publicar fake news e, incluso, determinados comportamientos, que no son constitutivos de delito, en las redes sociales pueden tener un impacto negativo en la puntuación de cada ciudadano, según explica Foreign Policy.
En este ámbito, uno de los posibles castigos a los que se pueden enfrentar los ciudadanos con una baja puntuación es una merma en la calidad de su conexión a Internet.
Sin embargo, la lista de castigos es larga y la presencia de un individuo con una baja puntuación puede afectar a otros de su entorno social, pese a que estos gocen de un valor mayor en el sistema de créditos.
Esto le sucedió a un estudiante de universitario que vio su admisión revocada debido a que su padre tenía una baja puntuación en la escala de crédito social. Un caso recogido incluso por los medios estatales chinos que citan otros ejemplos de jóvenes a los que se les impidió acceder a instituciones educativas por la mala puntuación de sus padres.
Los medios de comunicación, bajo control público y censura, juegan un papel importante a la hora de generar una política de miedo y represalias en esta línea. El citado documento del Gobierno chino explica así su papel.
"Reforzar la propaganda relativa a la lista de personas perseguidas por romper la confianza y castigadas en su crédito, dar rienda suelta al papel de los medios de comunicación en la propaganda, la supervisión y la orientación de la opinión pública. Utilice los periódicos, la televisión, los medios online, etc., para hacer pública la información relativa a las personas sujetas a persecución por romper la confianza, el castigo que reciben, etc., crear presión en la opinión pública y ampliar la influencia y la disuasión del sistema de listas de nombres para personas sujetas a la persecución por romper la confianza".
Entre los castigos más severos fruto de una baja calificación en esta escala se encuentra la prohibición de viajar al extranjero, de comprar una vivienda, de tener una tarjeta de crédito, perder la tutela de tu perro o, incluso, de acceder a un buen empleo en cualquier empresa o institución que tenga relaciones con el sector público nacional o que ejerza su actividad en ámbitos relacionados la manipulación de potencialmente tóxicas y de alimentos o de ostentar cualquier cargo de responsabilidad en ámbitos como la minería, la industria química o la producción de petardos y fuegos artificiales.
Las personas con una "confianza" baja también se enfrentan a problemas a la hora de conseguir empleos en el sector privado. Un comunicado del gobierno anima a las empresas a consultar las listas negras antes de contratar a nuevos empleados. Unas listas negras que en algunos casos se encuentran publicadas en Internet pero que, en el caso de algunas localidades y provincias, también existen en un formato físico y se publican en tablones de anuncios en los que, además del nombre, aparece una fotografía de aquellos ciudadanos que "han roto la confianza".
EDITORIAL
Llegado a este punto, quiero recordar que los gobiernos totalitarios, siempre muy  relacionados con el control de la población, existen, han existido y existirán tanto por la izquierda como por la derecha.
Y ahora, que no me salga nadie diciendo de los comunistas chinos, con la que está cayendo precisamente en Europa con la extrema derecha, que si les dejamos, lo de China no sería nada comparado con lo que aquí ocurriría, lo que ya ocurrió, o con lo  que está ocurriendo, por ejemplo en los aeropuertos  o en las comunicaciones, ¿solo por la seguridad nacional?. 
 Y para quien aún le queden dudas al respecto, que se fije en lo que está pasando al otro lado del charco, que seguro que las derechas españolas estarán tomando buena nota de todo ello, para implementarlo en el momento de  alcanzar el poder.
Fuente: Expansion.com y El Mundo.es

GOOGLE. Descubre que todos los chips son vulnerables a Spectre y Meltdown

Los nuevos ataques, conocidos como Spectre y Meltdown, llevan estudiándose desde principios de 2018. Pero no hemos empezado a ser conscientes de su gravedad real hasta ahora.
El sorprendente descubrimiento de Google es que estos ataques se aprovechan de un error básico del funcionamiento de los procesadores de información. Y debido a esto, es posible que los expertos en ciberseguridad nunca puedan proteger estos dispositivos.
El equipo de Google revela que la amenaza afecta a todos los fabricantes de chips, incluidos Intel, ARM, AMD, MIPS, IBM y Oracle. "Esta clase de errores son más profundos y masivos que cualquier otro error de seguridad conocido, pues afecta a miles de millones de CPU de producción de todas las clases de dispositivos", alerta McIlroy.
En el pasado, el malware solía aprovecharse de códigos mal diseñados y de los errores que contenían. Estos errores ayudaban a los hackers a interrumpir las operaciones o acceder a información confidencial. Por tanto, es importante corregir estos errores con parches de software antes de que puedan ser explotados.
Pero cuando el error está en la base del diseño del ordenador, la protección de los parches de software resulta bastante pobre. El problema consiste en que la naturaleza misma de la computación permite que la información se filtre a través de los mecanismos llamados canales laterales.
Un ejemplo de canal lateral son las luces parpadeantes de un módem, router o incluso un PC. Varios investigadores de seguridad han señalado que el parpadeo se correlaciona con la transferencia de datos, así que a un hacker le basta con monitorizar dichos parpadeos. De hecho, varias investigaciones han demostrado ataques similares con una sorprendente variedad de canales laterales, que incluyen el consumo de energía, los micrófonos y las cámaras de alta resolución.
Esta nueva amenaza es más perniciosa porque se produce en la interfaz entre el hardware y el software, conocida como la arquitectura de la máquina. En este nivel, un procesador trata todos los lenguajes de programación de la misma manera. Ejecuta comandos uno tras otro sin tener en cuenta qué programa los solicitó.
Los informáticos siempre han asumido que estos comandos se pueden separar para garantizar la confidencialidad. La idea es que un software avanzado debería poder ordenar los comandos y mantenerlos separados.
Pero el hallazgo clave del equipo de Google es que esta suposición es incorrecta. Ningún procesador puede distinguir un buen comando de uno malicioso. Entonces, si un comando solicita el envío de información a un área de la memoria a la que se puede acceder fácilmente más tarde, la máquina obedece.
Es fácil imaginar que esto se podría evitar con un software capaz de separar los buenos comandos de los malos. Pero el equipo de Google demuestra que este enfoque solo aumenta la complejidad del desafío al tiempo que añade un nuevo conjunto de posibles canales laterales.
Para mostrar la ubicuidad de la amenaza, el equipo de Google construyó un "dispositivo de lectura universal". Se trata del mejor espía capaz de leer toda la memoria direccionable en un procesador, desconocido para el usuario. Aunque no es para nada perfecto y tiende a cometer errores, no hay manera de evitar que funcione correctamente cuando logra hacerlo.
McIlroy y sus colegas crearon cuatro variantes de este dispositivo. El responsable detalla: "Desarrollamos pruebas de concepto en C ++, JavaScript y WebAssembly para todas las vulnerabilidades conocidas". Y descubrieron que estos dispositivos leen información filtrada de hasta 2,5 kilobytes por segundo.
La variante 4 del dispositivo de lectura universal resultó particularmente preocupante. McIlroy y su equipo aseguran que no pudieron encontrar ninguna forma de combatirla o reducir su amenaza. McIlroy afirma: "Creemos que la variante 4 no se puede mitigar de manera efectiva en el software".
Sus intentos de combatir los ataques tuvieron un impacto significativo en el rendimiento computacional. Por ejemplo, una forma de mitigación para la primera variante del dispositivo de lectura universal provocó una desaceleración de 2,8X, según midió un programa de evaluación comparativa de Java llamado Octane.
Durante el último año, Intel ha rediseñado sus chips para intentar mitigar las amenazas más graves de los ataques Spectre y Meltdown. Pero se dieron cuenta de que los nuevos diseños hacían caer el rendimiento de hasta un 14 %. Y es poco probable que estas nuevas versiones sean a prueba de fallos.
Una de las cosas que más preocupa a Google es la amenaza al comercio electrónico. No es difícil imaginar un ataque que revele las claves criptográficas utilizadas para asegurar las transacciones, lo que permitiría robos a gran escala. Así que la compañía ya ha lanzado versiones de Chrome con las primeras líneas de defensa. Los lanzamientos 64 a 67 evitan ataques en el navegador a través de JavaScript.
Pero la amenaza va mucho más allá. Muchos de los problemas se producen debido a la compleja arquitectura de dispositivos basados en la propiedad intelectual, que está cuidadosamente protegida.
Esta complejidad es en sí misma parte del problema.
Los diseños se basan en modelos abstractos que se han vuelto más complejos a medida que los fabricantes persiguen una computación más rápida. McIlroy y sus colegas muestran que estos modelos abstractos siempre tienen canales laterales fuera del modelo. El responsable detalla: "Hemos descubierto que un código no confiable puede construir un dispositivo de lectura universal para leer toda la memoria en el mismo espacio de direcciones mediante los canales laterales. Esto pone en riesgo los datos de la memoria, incluso los datos 'en reposo' que no están involucrados en las operaciones y que antes se consideraban seguros frente a los ataques de canal lateral".
No obstante, hay una pequeña buena noticia. Hasta ahora no hay ataques conocidos que exploten Spectre o Meltdown. Por el momento, la amenaza se limita a los laboratorios de los investigadores de ciberseguridad como McIlroy y sus colegas.
Pero eso provoca una situación incómoda para los fabricantes de chips y expertos en seguridad. No es difícil imaginar que los hackers, incluidos aquellos financiados por gobiernos, hayan empezado a crear formas de explotar esta vulnerabilidad. Como concluyen McIlroy y sus compañeros, este es un problema que "parece estar destinado a perseguirnos por mucho tiempo".
Fuente: MIT Technology Review

Fake news, propaganda, redes sociales y marketing político

A punto de empezar la última semana de la campaña oficial para las elecciones generales 2019, las redes sociales ya están en el epicentro del debate
Cuando Barack Obama se convirtió en presidente de Estados Unidos, uno de los temas recurrentes que protagonizaban los artículos y los análisis de su campaña eran las redes sociales. Obama se había rodeado de un equipo joven, que sabía cómo funcionaban las cosas en los social media y los había empleado para conectar con sus votantes.
El primero candidato y luego presidente estaba muy presente en las diferentes redes sociales y empleaba todas sus herramientas. Uno de sus primeros mensajes había sido, de hecho, un vídeo en YouTube. Era su primer mensaje oficial y logró muchísimo eco. Estaba al alcance de todo el mundo a un solo clic de distancia y, sobre todo, estaba al alcance de los más jóvenes.
Un analista apuntaba, en unas jornadas que analizaban las claves de la 'marca Obama' en Madrid un tiempo después, que el cambio había implicado una especie de reinvención de la estrategia política y de cómo se hacía marketing político. Señalaba: "los partidos han perdido el monopolio de las campañas gracias a Internet, ya que cualquier ciudadano puede influir en el curso de la campaña desde su ordenador; el candidato que mejor domine el lenguaje audiovisual parte con ventaja; y la política tiene un componente netamente emocional, que ha sido la base de la victoria de Barack Obama".
Lo cierto es que, después del boom de la campaña de Barack Obama, los partidos políticos en general se lanzaron a la conquista del éxito viral y a la búsqueda de su base potencial en las redes sociales. Sin embargo, lo que en la era Obama se veía como una manera de descentralizar el mensaje, hacerse mucho menos rígido, conectar con los jóvenes e incluso ser mucho más transparentes ha acabado estando muy lejos de todo ello. De la era de la cercanía y de la transparencia se ha pasado a la era de las fake news.
De la transparencia a las fake news
En cierto modo, el marketing político siguió en redes sociales el mismo camino que siguió para las empresas y las marcas. Si en un primer momento parecía la era de las grandes oportunidades y un espacio positivo y beneficioso, poco después fue como si se hubiese abierto la caja de Pandora.
Las redes sociales empezaron a mostrar un lado mucho menos positivo y también unos efectos mucho más perversos. Se empezó a hablar de burbuja social y de cómo seguimos solo a quienes piensan como nosotros, lo que hace que se refuerce mucho más lo que se cree, pero también de fake news, manipulación y, sobre todo, uso de trolls y de campañas de injerencia. En una de las últimas tramas de la serie The Good Fight, muy pegada a la actualidad, abordaban justamente el modo en el que funcionaban las fábricas de fake news rusas.
La actuación de los trolls rusos es una de las que más se analiza y de las que más titulares ha protagonizado sobre cómo las fake news (interesadas) han impactado en diferentes campañas políticas. Sean trolls rusos o no quienes estén detrás de las campañas, los expertos sí han apuntado a que las redes sociales de una manera o de otra han impactado en los resultados finales de las votaciones.
Las elecciones en Estados Unidos o Brasil o el referendum del Brexit son algunas de las campañas más recientes que los expertos creen que han estado contaminadas, posiblemente, por las fake news, los efectos de las cámaras de eco y la desinformación.
Ahora que llegan las elecciones (por partida más que doble, ya que a las elecciones generales del 28 de abril seguirán las europeas, las municipales y, en algunas comunidades, las autonómicas) el impacto que todos estos problemas pueden tener en las elecciones y en sus resultados vuelve a convertirse en tema de portada y de preocupación.
¿Está el marketing político en España preparado para los nuevos riesgos de la era de las redes sociales?
Las medidas de Facebook
"Lo haremos lo mejor que podamos", reconocía ante representantes de algunos medios Richard Allan, vicepresidente de soluciones de políticas global de Facebook, como recoge Público, presentando y analizando los movimientos que van a poner en marcha de cara a las elecciones. Facebook quiere, como recopilan en el análisis del medio, romper las cadenas de desinformación añadiendo más datos que las frenen, eliminar las cuentas falsas que entran en el debate político y añadir más control en los anuncios. Reconocen, eso sí, que no van a ser capaces de evitar por completo el "abuso".
Entre las medidas que pondrán en marcha (o que ya han puesto) está la creación de una biblioteca de anuncios para aumentar la transparencia (y que ya permite identificar las primeras campañas) o la eliminación de toda publicidad que no tenga un pagador claro. Facebook ha dado un plazo a los partidos políticos y a sus asociados para identificarse como anunciantes claros ante la plataforma y eliminará, a partir del comienzo oficial de la campaña, toda publicidad que no esté asociada a esos perfiles.
Para las elecciones europeas, lanzará informes semanales de transparencia, pero no lo hará a tiempo para las elecciones generales.
A principios de marzo, Facebook ya se había reunido con representantes de los diferentes partidos políticos, como entonces apuntaba El Confidencial, a quien se lo habían confirmado fuentes cercanas, para hablar de bulos, privacidad y leyes. "Fue una reunión extraña. Nos llamaron ellos para, en teoría, explicarnos cómo trabajan y evitar que se propaguen noticias falsas y bulos, pero al final no ofrecieron ninguna solución ni concretaron nada", le decían desde un partido político al medio. "Daba la sensación de que estaban preocupados y perdidos, que aún no saben ni qué hacer de cara a las elecciones aquí", añadía esa misma fuente. (Facebook confirmaría después los contactos a otros medios).
Lo que no se puede seguir
Pero la cuestión no es solo de lo que los partidos hacen o de lo que los anuncios dicen, ya que muchos bulos, visiones interesadas y desinformación circula por el conocido como dark social (los entornos cerrados que no se pueden seguir, como es el caso de Whatsapp, que se ha convertido en el gran nido de los bulos políticos) o por nuevos formatos que no están claramente vinculados con los partidos políticos, como los grupos de Facebook.
Estos grupos son mucho más intensos a la hora compartir contenidos entre ellos y de servir aquellos que son polarizantes. "La intensa vida política proporciona una estimulación competitiva muy fuerte", explicaba a El País Gonzalo Adán, psicólogo y director del Instituto Balear de Asuntos sociales. El periódico había tenido a uno de sus periodistas 48 horas en los grupos de los diferentes partidos políticos. Sus conclusiones apuntaban a memes, alto engagement y no pocas noticias falsas.
Fuente: Puro MarKeting.com

NOTRE DAME. La reconstrucción de la mítica catedral cuenta con la ayuda de un milagro virtual.

El historiador Andrew Tallon reconstruyó virtualmente la catedral, creando un mapa a partir de mil millones de lásers, con un margen de error de 0,5 centímetros gracias a una nueva fórmula que combina los datos de un escáner y 50 fotos en 360º,
Notre Dame cuenta con una réplica exacta que se encuentra intacta. Un modelado en tres dimensiones realizado por Andrew Tallon, un doctor en historia formando en la Sorbona de París que creó su propio método para mapear catedrales y otros edificios emblemáticos, llegando incluso a descubrir algunos aspectos singulares sobre el templo que resultaban desconocidos hasta la fecha.
Tallon, que falleció prematuramente a los 49 años de edad en Nueva York, se describía a sí mismo como un «obseso» de Notre-Dame. Una fijación por el templo galo que en su juventud le llevó a asistir a todas las clases disponibles de arquitectura medieval durante sus primeros estudios universitarios -que eran sobre música- en Princeton.
Combinando sus conocimientos técnicos e históricos, Tallon pasó más de cinco días consecutivos trabajando en mapear los exteriores y el interior de la catedral de Notre Dame desde todos los ángulos posibles. Para ello, utilizó un escáner láser -que realiza las mediciones- y una cámara para hacer fotografías esféricas.
El medidor láser de Tallon, tiene un funcionamiento similar a una cámara: se coloca sobre un trípode, se apunta hacia la dirección deseada y, al activarse, realiza un barrido sobre la superficie. El escáner recoge la distancia entre cada punto que ha marcado y el aparato. De este modo, cada medición se convierte en un punto de color que, que junto a otros millones, contribuyen a formar una imagen tridimensional de la catedral. «Si lo has hecho bien, el margen de error es inferior a los 0,5 centímetros», aseguraba Tallon en una entrevista poco antes de morir de cáncer.
Tallon no fue el primero en intentar mapear una catedral un láser. Los primeros en intentarlo fueron dos investigadores de Columbia, Peter Allen y Stephen Murray, que emplearon una técnica similar en la catedral de Beuvais al norte del Francia. Sin embargo, pese a que consiguieron hacer sus mediciones de forma correcta, no fueron capaces de trasladar los datos a un modelo tridimensional.
MILES DE MILLONES DE LÁSERS SOBRE UNA FOTO EN 360 GRADOS
Para superar este escollo, Tallon realizó fotografías panorámicas con forma de esfera desde cada uno de los 50 puntos en los que colocó al láser para hacer los barridos. De este modo, ambos aparatos (la cámara y el escáner) capturaban el mismo espacio en tres dimensiones. Una vez terminadas las mediciones, Tallon combinaba ambas técnicas de forma que cada pixel de la foto coincidiese con los puntos de lectura del escáner. En total, el escáner midió más de mil millones de puntos en la catedral que fueron trasladados a las fotografías.
El resultado obtenido fue una serie de imágenes, que combinadas entre sí dieron lugar al modelo tridimensional más exacto de Notre Dame que jamás se elaborado, que además de a su futura reconstrucción, contribuyó al campo de la historia del arte con singulares revelaciones.
Tallon demostró gracias a sus mapas con láser que las columnas y los pasillos de la parte este de la catedral no se encuentran perfectamente alineados porque los constructores medievales decidieron construir esa parte del templo aprovechando los cimientos y parte de la estructura del edificio que antes se encontraba en el lugar de Notre Dame, en lugar de demolerlos y poner nuevos cimientos.
El atajo de mantener los cimientos, que Tallon calificaba de «chapuza total», podría haber tenido catastróficas consecuencias para la estructura del templo ya que, durante su construcción, los muros construidos sobre los cimientos antiguos se encontraban inclinados hacia el norte, llegando a provocar un desnivel un algunos puntos de 30 centímetros respecto a la vertical, y los constructores se vieron obligados a darse un respiro durante varios años (Tallon barajaba una pausa de varias décadas en base a un cambio de estilo arquitectónico), hasta que los albañiles medievales fueron capaces de continuar con la construcción del lado oeste que, pese a sus deficiencias, ha logrado sobrevivir sin daños estructurales al fuego.
Fuente: El Mundo.es

SAMSUNG. Renueva su gama Galaxy A para frenar el avance de Xiaomi

Samsung ha anunciado tres nuevos teléfonos de la gama A, que ha absorbido la gama baja de la empresa que antes ocupaban los teléfonos de la gama J.
Samsung ha presentado hoy en Milán sus nuevos teléfonos Galaxy A, la gama media de la compañía que se renueva y a la vez se come a la gama baja, la familia J, para iniciar una nueva estrategia con la que plantar cara a la competencia.
Un total de tres nuevos teléfonos entre los que se encuentran modelos de gama media baja y otros de gama media alta y con los que Samsung ha dejado claro que a la compañía no solo le importan los terminales de 1.000 euros (como el Galaxy Note, S o el plegable Galaxy Fold ). Y es normal, pues donde se la juega realmente Samsung es en la gama media y baja, donde más smartphones vende.
Para que os orientéis, los nuevos Galaxy A van desde el A10 al A80, y según suben de cifra mejoran las prestaciones. En Milán, la coreana ha dado a conocer tres nuevos integrantes, el A20e, A40 y el A80, que se suman a los ya anunciados A10, A50 y A70, creando la gama más completa de Samsung en este segmento.
"Queremos que los usuarios tengan terminales con prestaciones básicas, un buen diseño y sobre todo a muy buen precio. Pero lo importante es que detrás haya una marca de confianza como Samsung", explica Jesús Martín, responsable de tecnología en Samsung España al ser preguntado sobre si el refuerzo de esta gama es una respuesta a la ofensiva de Xiaomi.
GALAXY A80, EL MÓVIL CON LA CÁMARA REVERSIBLE
Sin duda, el teléfono estrella de la presentación ha sido el A80, el tope de gama. Samsung se ha estrujado el coco para idear un sistema de cámara delantera que no quita espacio de pantalla. ¿Cómo? Dando la vuelta a las lentes traseras para que sean también las delanteras. Vamos a explicarlo mejor.
El Galaxy A80 cuenta con la primera cámara reversible de Samsung. Al activar la cámara selfie, la parte trasera del móvil se despliega hacia arriba y las tres lentes posteriores emergen automáticamente y giran para convertirse en las delanteras. De esta forma, las tres cámaras (una de 48 Mpx, una cámara de profundidad 3D y una lente gran angular de 123 grados) funcionan en ambos sentidos.
Como viene siendo habitual, Samsung ha aplicado inteligencia a sus lentes en funciones como el optimizador de escenas, que puede reconocer y mejorar hasta 30 escenas diferentes, o la detección de errores, que identifica automáticamente los problemas técnicos antes de disparar.
Esta tecnología rotatoria para emplear la misma cámara por delante que por detrás en realidad tiene un único objetivo, que la pantalla de 6,7 pulgadas (FHD+ Super AMOLED) ocupe prácticamente toda la parte delantera del terminal. El resultado es bastante bueno, apurando bien los marcos superior e inferior y laterales en lo que Samsung dice que es su primer panel 'new Infinity'. En la pantalla también se ha integrado el lector de huella dactilar, pero no es ultrasónico, la tecnología que Samsung ha aplicado a sus Galaxy S10, por lo que no funciona muy rápido.
Respecto a la potencia, el A80 funciona con el Qualcomm Snapdragon 710 con 8Gb de RAM y 128 de almacenamiento, unas cifras que, sobre el papel, prometen bastante y hacen que el Galaxy A80 se acerque mucho a la familia S, la gama alta de Samsung junto con Note.
La batería también cumple, con 3.700 mAh y carga rápida de 25W, Samsung ha acertado con la autonomía, que además funciona con inteligencia artificial que aprende la rutina diaria y los patrones de uso de cada aplicación para optimizar el consumo de energía.
El diseño parece ser una baza importante para la compañía coreana en la renovación de la familia A, por lo que en todos los modelos presentados se ha destacado el color y un estilo que quiere ser Premium. En el A80, Samsung ha optado por los colores Gold, Silver y Black. La versión Gold incluye elementos en rosa, mientras que la opción Silver combina con características azules, y ambos lucen diferentes según el reflejo de la luz.
Eso sí, aunque ha desvelado la fecha, el 29 de mayo, aún no se sabe a qué precio saldrá al mercado.
GALAXY A20E Y A40
El Galaxy A20e se encuentra entre los terminales de gama media baja. Cuenta con pantalla de 5.8' infinita con cuerpo de plástico, doble cámara trasera y una batería de 3,000mAH con carga rápida de 15W.
Por su parte, el Galaxy A40 presume de pantalla infinita Infinity-U de 5,9" Full HD+ Super AMOLED, doble cámara trasera (con un gran angular de hasta 123° y un optimizador de escenas inteligente) y una cámara frontal de 25.
ADIÓS A LOS GALAXY J
El lanzamiento de esta gran familia de teléfonos entra dentro de una estrategia más compleja que está llevando a cabo la compañía para frenar la caída de ventas de smartphones. Dentro de ésta, esta semana la compañía coreana ha anunciado el final de la familia Galaxy J, donde se encontraban los terminales más baratos y también algunos de los más vendidos.
Ahora, todos los teléfonos J desaparecerán tal y como los conocemos y serán absorbidos por los Galaxy A, en un intento de Samsung de simplificar aún más su catálogo y quedarse sólo con las familias que mejor aceptación tienen entre los usuarios.
Fuente: El Mundo.es

CHINA. Los trabajadores de las tecnológicas no quieren trabajar 72 horas a la semana

Programadores, ingenieros e informáticos de 150 empresas tecnológicas chinas denuncian que se les obliga a trabajar 12 horas al día, 6 días a la semana sin cobrar horas extraordinarias
Trabajar 12 horas al día, seis días por semana y acabar en la Unidad de Cuidados Intensivos en un hospital. Esta es la denuncia que miles de ingenieros y programadores de empresas tecnológicas chinas han intentado colocar en el ojo del huracán del debate público en el gigante asiático. Un horario que en occidente sería calificado de explotación laboral y que el CEO de Aliexpress, Jack Ma, ha calificado como "una bendición" ya que, en su opinión, el crecimiento de la economía china ha disparado el número de "vagos" en su país.
Un movimiento prácticamente sin precedentes en una cultura muy centrada en el trabajo y el esfuerzo en la que, por ejemplo, los estudiantes de secundaria llegan a estudiar maratonianas jornadas de 13 horas al día con la esperanza de poder acceder a una buena educación superior.
Además, se trata de una práctica especialmente grave si se tienen en cuenta que, algunas de estas empresas, tienen sus sedes y fábricas organizadas en forma de pequeñas ciudades que están separadas incluso yo verjas y seguridad privada del resto de la urbe. Estos complejos -Huawei tiene uno en Shenzhen y Lenovo otro en Wuhan- cuentan con viviendas, comercios, centros de ocio y espacios de recreo pensadas para que los empleados vivan y trabajen en ese lugar en las que además del empleador, las empresas son los arrendatarios de los trabajadores. De este modo, si un empleado es despedido, también pierde su lugar de residencia.
Lejos de tratarse de un caso aislado maginficado por los medios de comunicación, se trata de un movimiento bautizado como 996.icu que afecta a empresas de todo el país. Los dos primeros dígitos de su nombre corresponden a las horas de entrada y salida del trabajo (9 am y 9pm), el 6 hace referencia al número de días en semana que deben trabajar y las siglas corresponden a Intensive Care Unit, Unidad de Cuidados Intensivos en Inglés.
Los trabajadores han empleado la plataforma Github de programadores para intercambiar y dar conocer las experiencias que viven en sus propias carnes miles de empleados de las más de 150 empresas tecnológicas que se han visto involucradas en este escándalo.
Huawei, Alibaba, TikTok... estos son los nombres de algunas de las empresas que se han visto salpicadas por las denuncias de trabajadores que han subido a GitHub, emails con sus jefes, pantallazos y toda clase de pruebas buscando dejar en el evidencia las prácticas abusivas de sus empresas.
Las draconianas condiciones de trabajo a las que se ven sometidos los empleados, lejos de gozar de mala prensa en el país asiático, en ocasiones son empleadas como reclamo por parte de las empresas dentro de su estrategia de comunicación y relaciones públicas dentro de China.
Por ejemplo, a principios de este año, Youzan, una empresa con sede en Hangzhou que se dedica al e-commerce, anunció que su empresa adoptaría un calendario de trabajo "996" sobre la que su CEO, Bai Ya, se pronunció en estos términos: "Esta será definitivamente una decisión apropiada cuando miremos atrás dentro de unos años".
Por otro lado, el mes pasado, la empresa JD.com anunció que se había sumado a la política de recursos humanos "995", "995" en el caso de algunos departamentos. "Nuestra cultura es la de la devoción de todo corazón para cumplir los objetivos de trabajo", aseguró el departamento de prensa de la compañía tras anunciar el cambio en la política de recursos humanos.
Sin embargo, pese a que estos anuncios puedan parecer recientes, los empleados del movimiento 996 afirman en su página web -también disponible en castellano- que "estos horarios de trabajo llevan siendo durante mucho tiempo una práctica 'secreta' habitual en muchas compañías chinas".
Jack Ma, el CEO de Alibaba/Aliexpress, la mayor empresa de e-commerce del mundo, se ha pronunciado en contra de este movimiento y a favor de las jornadas de 12 horas de trabajo al día durante 6 días en semana calificándolas como una "bendición" ya que Ma piensa que se trata de la receta para detener "la pérdida de vitalidad e ímpetu" de la economía china.
Fuente: Expansion.com

XIAOMI. Lanza un candado por 26 euros que se abre con tu huella dactilar

El candado inteligente de la empresa china también se vende en una versión de mayores dimensiones con un precio de 29 euros.
Tras reventar el mercado de los teléfonos móviles, ahora Xioami va a por los cerrajeros. La empresa low cost de tecnología china ha lanzado al mercado un candado inteligente por 26 euros que se abre con huella dactilar.
Este nuevo aparato se ha puesto a la venta a través de una de las submarcas de la compañía china, Youpin, que en su web muestra el candado, que ha sido llamado Areox, y que se encuentra protegido por un cuerpo de metal antirrobo e impermeable y una barra de bloqueo de acero.
El dispositivo destaca especialmente por la incorporación de un lector de huellas dactilares, con el que la detección de huella tarda 0,5 segundos en abrir el candado, con una tasa de error del 0,001 por ciento, según ha informado la compañía en un comunicado.
El cuerpo del candado está hecho de acero inoxidable resistente a la corrosión y es capaz de resistir hasta catorce toneladas. Además está cubierto por una protección IP 65 que certifica sus resistencia contra el polvo y el agua, permitiendo sumergirlo durante 48 horas tanto en agua dulce como en agua salada.
La barra de bloqueo es de PVC, y el sistema de apertura es bidireccional; al desbloquear los dos extremos de esta barra se encajan y se desbloquean para que se abra. Además, soporta temperaturas mínimas de menos 25 grados y máximas de 55 grados.
El dispositivo electrónico cuenta con una batería de 206 mAh que, según informa la compañía, tiene una duración de doce meses y se carga a través de una conexión USB tipo C. El Areox cuenta con un recordatorio automático de batería baja que emite una alarma cuando esta está por debajo del 20 por ciento. En el caso de que se quede sin batería, se podrá abrir con una llave estándar de emergencia.
El candado de Xiaomi permite registrar hasta nueve huellas dactilares distintas para familia y amigos que puedan ser reconocidos por el dispositivo.
Este nuevo invento de la compañía china se encuentra disponible en dos tamaños, 22,48 y 30 centímetros. Su versión más pequeña pesa 1,2 kilos, mide 22,48 centímetros y cuesta 26 euros. Mientras tanto, la versión grande saldrá a la venta por 29 euros, medirá 30 centímetros y pesa 1,36 kilos.
Fuente:Expansion.com

FACEBOOK. Guardó "millones" de contraseñas de cuentas de Instagram sin encriptar

Facebook ha ampliado la información relativa a su problema reciente por el que almacenó sin encriptar las contraseñas de cientos de millones de usuarios de su red social homónima, y ha asegurado que también quedaron expuestos "millones" de inicios de sesión de usuarios de la red social Instagram.
El pasado mes de marzo, a raíz de la publicación en Krebs on Security, Facebook reconoció haber almacenado en sus servidores internos las contraseñas de inicio de sesión de cientos de millones de usuarios de Facebook en texto plano, sin encriptar.
La compañía habló también de "decenas de miles de usuarios de Instagram" afectados, aunque aseguró que no tenía constancia de que esta información sensible hubiera sido utilizada para cometer abusos.
Ahora, la compañía ha actualizado su información sobre esta incidencia y ha asegurado haber descubierto en una nueva investigación "inicios de sesión adicionales con contraseñas de Instagram almacenados en un formato legible".
Facebook ha estimado que el problema ha afectado a "millones de usuarios de Instagram", y ha anunciado que informará a los propietarios de las cuentas implicadas.
Al igual que sucedió con las contraseñas de Facebook en marzo, la compañía ha asegurado que las claves de Instagram almacenadas "no fueron abusadas de manera interna ni se accedió a ellas de forma inapropiada".
Fuente: Europa Press

FACEBOOK. Obtuvo sin permiso contactos de email de 1,5 millones de usuarios desde 2016

Facebook ha reconocido haber "cargado de forma no intencionada" y sin permiso los contactos de correo electrónico de 1,5 millones de nuevos usuarios de su red social homónima desde mayo del año 2016, aunque asegura no haberlos compartido y que serán eliminados.
El origen de estos contactos de correo electrónico procede de los mecanismos de verificación de cuentas utilizados por Facebook hasta el pasado mes de marzo y dados a conocer recientemente, en los que pedía a algunos de sus usuarios que introdujeran las claves de sus cuentas de email asociadas para comprobar su identidad en el acceso.
A causa de estos mecanismos, Facebook ha reconocido a Reuters haber "cargado de forma no intencionada" los contactos de correo electrónico de algunos de los usuarios que introdujeron su contraseña como verificación, a pesar de no haber accedido a ello, advirtiendo de ello con una notificación.
Desde Facebook estiman que "los contactos de correo electrónico de hasta 1,5 millones de personas podrían haberse cargado", según explica un portavoz de la compañía a Reuters. Este fenónemo tuvo lugar desde mayo de 2016 hasta el pasado mes de marzo, cuando la verificación por contraseña fue retirada.
La compañía estadounidense ha defendido que "estos contactos no se compartieron con nadie y vamos a eliminarlos", y ha añadido también que los usuarios afectados por el error serán notificados.
Fuente: Europa Press

FACEBOOK. Discrimina en función de la raza, el género y la religión

El Departamento de Vivienda y Urbanismo de EE. UU. ha demandado a la red social tras descubrir que su algoritmo de publicidad ofrece un acceso desigualitario a los anuncios de vivienda y empleo. Por ejemplo, los trabajos relacionados con secretaría se muestran mayoritariamente a mujeres
Y ese sesgo ha provocado que el Departamento de Vivienda y Desarrollo Urbano de EE. UU. haya demandado al gigante tecnológico por permitir a los anunciantes dirigir sus anuncios en función de la raza, el género y la religión, precisamente el tipo de cosas que la ley de EE. UU. prohíbe hacer. La compañía ha respondido anunciando que dejará de permitirlo.
Pero hay nuevas pruebas de que el algoritmo de Facebook, que decide automáticamente a quién muestra un anuncio, hace la misma discriminación con los anuncios que muestra a sus más de 2.000 millones de usuarios en función de su información demográfica.
Un equipo de la Universidad Northeastern (EE. UU.) liderado por los investigadores Muhammad Ali y Piotr Sapiezynski emitió una serie de anuncios idénticos con ligeras variaciones en el presupuesto disponible, el título, el texto o la imagen. Descubrieron que esos sutiles ajustes tenían un impacto importante en la audiencia a la que llegaba cada anuncio, especialmente cuando se trataba de anuncios de empleo o bienes inmuebles.
Los anuncios de búsqueda de profesionales de educación infantil y secretaría, por ejemplo, se mostraron principalmente a mujeres, mientras que las publicaciones para empleo de conserje y taxista se mostraron en mayor proporción a personas de grupos minoritarios. Los anuncios sobre la venta de las viviendas también aparecieron más a usuarios blancos, mientras que los anuncios de alquileres fueron mostrados más a las minorías.
Como respuesta a los resultados, un portavoz de la empresa ha dicho lo siguiente en un comunicado: "Hemos hecho cambios importantes en nuestras herramientas de segmentación de publicidad y sabemos que esto es solo un primer paso. Hemos estado analizando nuestro sistema de publicación de anuncios y hemos involucrado en este mismo tema a líderes de la industria, profesores y expertos en derechos civiles, y ​​estamos explorando más cambios".
En cierto modo, la noticia no debería sorprendernos: el sesgo algorítmico de recomendación es un problema que se conoce desde hace muchos años. En 2013, por ejemplo, la profesora de Ciencias Políticas y Tecnología de la Universidad de Harvard (EE. UU.) Latanya Sweeney publicó un artículo que mostraba la discriminación racial implícita del algoritmo de publicación de anuncios de Google. El problema se remonta a la base del funcionamiento de estos algoritmos. Todos ellos se basan en  el aprendizaje automático, una técnica especializada en encontrar patrones en cantidades masivas de datos y aplicarlos para tomar decisiones. Hay muchas formas de introducir sesgos en este proceso, pero las dos más evidentes en el caso de Facebook están relacionadas con la definición del problema y la recogida de los datos.
El sesgo se produce durante la definición del problema cuando el objetivo de un modelo de aprendizaje automático no está alineado con la necesidad de evitar la discriminación. La herramienta de publicidad de Facebook permite a los anunciantes elegir entre tres objetivos de optimización: la cantidad de visitas que obtiene un anuncio, la cantidad de clics y de interacción generada, y la cantidad de ventas obtenidas. Pero esos objetivos comerciales no tienen nada que ver con, por ejemplo, mantener un acceso igualitario a la vivienda. Como resultado, si el algoritmo descubre que puede generar más interacciones al mostrar casas a la venta a un número superior de usuarios blancos, terminá discriminando a los usuarios negros.
El sesgo durante la recogida de los datos se produce cuando los datos de entrenamiento replican los prejuicios existentes. La herramienta de publicidad de Facebook basa sus decisiones de optimización en las preferencias históricas de las personas. Si una proporción mayor de personas de grupos minoritarios ha demostrado tener un interés mayor en casas de alquiler en el pasado, el modelo de aprendizaje automático habría identificado ese patrón y lo aplicaría hasta el fin de los días. Una vez más, el sistema avanzará ciegamente por el camino del empleo y la discriminación en la vivienda, sin que nadie le haya dado esa orden explícitamente.
Aunque estos comportamientos del aprendizaje automático se llevan estudiando desde hace bastante tiempo, el nuevo estudio ofrece una visión más directa del alcance de su impacto en el acceso a la vivienda y las oportunidades de empleo. "¡Estos hallazgos son muy polémicos!", alertó el director del Centro de Ética, Sociedad e Informática de la Universidad de Michigan (EE.UU.), Christian Sandvig, en declaraciones a The Economist. El experto añadió: "El artículo nos asegura que si el [...] big data se usa de esta manera, nunca nos dará un mundo mejor. De hecho, es probable que lo estén empeorando al acelerar los problemas globales que hacen que las cosas sean injustas".
La buena noticia es que hay formas de abordar este problema, pero no será fácil. Muchos investigadores de IA ya están buscando soluciones técnicas para el sesgo del aprendizaje automático para crear modelos más justos de publicidad online. Un artículo reciente de la Universidad de Yale (EE. UU.) y el Instituto Indio de Tecnología, por ejemplo, sugiere que podría ser posible restringir los algoritmos para minimizar el comportamiento discriminatorio, aunque a un pequeño coste para los ingresos por publicidad. Los responsables políticos deberán meterse en este barro si las plataformas empiecen a invertir en esas soluciones, especialmente si esto consigue mejorar sus resultados finales.
Fuente: MIT Technology Review

IA y más datos de pacientes para arreglar la falta de nuevos fármacos

Desarrollar nuevos medicamentos es cada vez más caro, pero la inteligencia artificial combinada con más información de los pacientes podría solucionarlo. Varios expertos piden más flexibilidad para que los enfermos tiendan a ceder sus datos, como sucede con los órganos para trasplantes
¿Ha oído hablar de la Ley de Eroom? En la industria farmacéutica es al mismo tiempo una regla y una broma. Básicamente establece que, a pesar de las mejoras en la ciencia y en la tecnología, el coste de desarrollar nuevos fármacos es cada vez mayor, no menor.
El nombre hace referencia a la Ley de Moore, el famoso paradigma del crecimiento exponencial, pero al revés. De hecho, según la CEO de Insitro, Daphne Koller, el coste de llevar un nuevo medicamento al mercado ha aumentado de los 177 millones de euros de hace 30 años a los 2.200 millones de euros actuales.
Hablando en la reciente conferencia EmTech Digital de MIT Technology Review, Koller explicó cómo los investigadores y los científicos más destacados están intentado utilizar los algoritmos de inteligencia artificial (IA) para revertir esa tendencia. La experta afirmó: "Es un problema de predicción. Y la predicción es algo que al aprendizaje automático se le da estupendamente. Entonces, ¿el aprendizaje automático podría ayudar a reducir los costes?"
Aunque estos costes por descubrimiento han aumentado debido a una variedad de factores, incluida la normativa, Koller agregó que Insitro esperaba tener los sistemas y los datos listos para realizar sus primeros descubrimientos antes de 2021.
No obstante, advirtió que el aprendizaje automático no resolvería todos los problemas del descubrimiento de nuevos medicamentos, especialmente si los algoritmos trabajan datos incorrectos o persiguen objetivos equivocados. Mencionó el fracaso de muchos medicamentos dirigidos al tratamiento del alzhéimer, de los cuales la mayoría se desarrolló bajo la idea de que la enfermedad está causada por la acumulación de una proteína llamada beta-amiloide (después de que Roche haya suspendido dos ensayos más a principios de este año, existe un consenso de que la acumulación de beta-amiloide se correlaciona con el Alzheimer en vez de causarlo).
"El aprendizaje automático es una espada de doble filo, y cuanto más potente se vuelve, más fácil es caer en esas brechas", explicó. Koller cree que para evitar estos riesgos hacen falta mejores datos, como los que se ven en los campos de IA distintos de la atención médica. "Este tipo de conjuntos de datos ni siquiera existen en biología", aseguró.
Esto se debe en gran parte a las intensas protecciones de privacidad que rodean los datos médicos de la gente. Pero Koller cree que esas medidas están bloqueando innecesariamente la innovación, y propone una solución para que las cosas vayan más rápido. La experta sentencia: "Ni siquiera podemos pedir [a los pacientes] que elijan compartir sus datos con las organizaciones que intentan crear mejores tratamientos. Si los datos de las personas se compartieran por defecto mientras se protege su privacidad, tendríamos muchos más datos".
Y añadió: "Algunos países de Europa han creado un sistema en el que la donación de órganos es una opción de exclusión voluntaria en vez de una opción de aceptación voluntaria, y resulta se ha cuadruplicado el nivel de donaciones de órganos sin limitar el control que las personas tienen sobre sus propios cuerpos".
Las nuevas técnicas de IA no solo se están implementando en el descubrimiento de medicamentos. La inteligencia artificial también está teniendo un impacto significativo en la forma de inventar nuevos compuestos y materiales químicos. La CEO de Kebotix, Jill Becker, una start-up que descubre nuevos materiales, lanzada públicamente a finales de 2018, explicó en la conferencia que está invirtiendo fuertemente en técnicas de aprendizaje automático para identificar nuevos productos químicos y materiales. Y afirmó que su empresa se está alejando bastante de los productos farmacéuticos por la sombra de la Ley de Eroom y, en concreto, por la normativa reguladora.
La CEO concluyó: "Esperamos crear 100 moléculas a la semana; un centenar de moléculas de primera categoría. Hay dos tipos de químicos: los que disfrutan haciendo medicamentos y a los que les gusta que las cosas avancen. Yo soy de los segundos. No tengo ningún interés en esperar a la FDA (La Administración de Medicamentos y Alimentos​​ de EE.UU.). No tengo paciencia."
Fuente: MIT Technology Review

Una IA híbrida capaz de ver y razonar supera a sus predecesoras

Al combinar el aprendizaje profundo con el razonamiento simbólico, esta inteligencia artificial depende de muchos menos datos etiquetados y tarda menos en comprender nuevos entornos. Este nuevo enfoque, con un enorme potencial, es el que más se asemeja al proceso de aprendizaje humano
En las décadas que han pasado desde que nació la inteligencia artificial (IA), la investigación se ha dividido en dos líneas principales. Los "simbolistas", que han intentado construir máquinas inteligentes mediante la codificación de reglas lógicas y representaciones del mundo. Y los "conexionistas", que se han centrado en crear redes neuronales artificiales, inspiradas en el cerebro humano, para aprender cómo es el mundo. Históricamente, ambos grupos no se han llevado bien.
Pero un nuevo trabajo del MIT, IBM y DeepMind (todos en EE. UU.) demuestra el poder de combinar ambos enfoques, lo que podría ofrecer un camino a seguir en la investigación. El equipo, liderado por el profesor en el Centro de Cerebros, Mentes y Máquinas del MIT Josh Tenenbaum, creó un programa informático, el aprendiz de conceptos neuro-simbólicos (NS-CL) que aprende a partir de una versión simplificada del mundo como lo haría un niño: mirando a su alrededor y hablando.
El sistema consta de varias piezas. Tiene una red neuronal entrenada con una serie de escenas compuestas por una pequeña cantidad de objetos. Otra red neuronal entrenada en una serie de texto con preguntas y respuestas sobre una escena, por ejemplo: "P: ¿De qué color es la esfera?" "R: Roja". Esta red aprende a mapear las preguntas en lenguaje natural en un programa simple que se puede ejecutar en una escena para ofrecer respuestas.
El sistema NS-CL también está programado para comprender los conceptos simbólicos de un texto como los "objetos", los "atributos del objeto" y la "relación espacial". Ese conocimiento ayuda a NS-CL a responder a nuevas preguntas sobre una escena diferente, un tipo de tarea que resulta mucho más desafiante si se usa solo el enfoque conexionista. Así, el sistema reconoce los conceptos en las nuevas preguntas y puede relacionarlos visualmente con la escena anterior.
"Se trata de un enfoque fascinante. El reconocimiento de patrones neuronales permite que el sistema vea, mientras que los programas simbólicos hacen que el sistema razone. Al combinarlos, el enfoque va más allá de lo que pueden hacer los sistemas actuales de aprendizaje profundo", opina el profesor asistente en la Universidad de Nueva York (EE.UU.) Brenden Lake.
En otras palabras, este sistema híbrido aborda las limitaciones principales de ambos enfoques combinándolos. Supera los problemas de escalabilidad del simbolismo, que históricamente ha tenido dificultades para codificar la complejidad del conocimiento humano de manera eficiente. Pero también aborda uno de los problemas más comunes con las redes neuronales: la necesidad de enormes cantidades de datos.
Es posible entrenar a única red neuronal para responder a preguntas sobre una escena al incluir millones de ejemplos como datos de entrenamiento. Pero un niño no requiere una cantidad tanta información para comprender un objeto nuevo o cómo se relaciona con otros objetos. Además, una red entrenada de esa manera no tiene una comprensión real de los conceptos involucrados, es solo un vasto ejercicio de combinación de patrones. Por lo tanto, un sistema de este tipo sería propenso a cometer errores muy tontos ante nuevos escenarios. Este es un problema común con las redes neuronales actuales y destaca deficiencias muy fáciles de detectar.
Los puristas del conexionismo pueden objetar el hecho de que el sistema requiere algún conocimiento para ser codificado. Pero este trabajo resulta importante porque nos acerca más a la creación de una forma de inteligencia que se parece más a la nuestra. Los científicos cognitivos creen que la mente humana sigue algunos pasos similares, y que esto respalda la flexibilidad del aprendizaje humano.
A nivel práctico, este nuevo enfoque también podría descubrir nuevas aplicaciones de IA, ya que requiere muchos menos datos de entrenamiento. Los robots, por ejemplo, podrían aprender sobre la marcha, en vez de dedicar mucho tiempo a entrenar sobre cada entorno en el que se encuentran.
El científico que dirige el laboratorio de IA de MIT-IBM Watson David Cox afirma: "Es realmente apasionante porque nos ayudará a superar la dependencia de enormes cantidades de datos etiquetados". Los investigadores responsables ya están desarrollando una versión que funciona con fotografías de escenas reales. Es algo que podría resultar valioso para muchas aplicaciones prácticas de la visión artificial.
Fuente: MIT Technology Review