10 de abril de 2021

FAKE NEWS DETECTION. Detectando noticias falsas: “Menos pensamiento crítico y más saber qué estamos mirando”

 El experto en alfabetización digital Michael Caulfield diseña un método en cuatro pasos para identificar fuentes fiables usado por más de cien universidades

Michael Caulfield (Boston, de 51 años), experto en el nuevo campo de la alfabetización digital en la Washington State University (EE UU), empezó a fijarse en qué estaba ocurriendo. El problema no eran tanto las mentiras que circulaban, sino en qué se fijaba la gente. De repente un bien escaso como la información había pasado a ser casi infinito. Ya no había que “prestar atención” para entender algo sino que millones de páginas web, vídeos o infografías querían “llamar la atención”. La mentira y la exageración eran solo dos caminos para reclamar nuestro interés. 

Caulfield se puso a buscar un método, que con los años lo ha ideado basado en cuatro conceptos que trata de cambiar el modo en que los jóvenes buscan información en internet y que se enseña en más de cien universidades y docenas de institutos norteamericanos. Siendo el principal problema apostarlo todo al el pensamiento crítico.

1. No empieces con el pensamiento crítico

Caulfield empieza por desandar una tradición que se imponía hasta ahora. “No sirve el pensamiento crítico tradicional que enseñamos”, dice. “Pedimos a los estudiantes que cojan un documento o una foto o unos datos y les decimos que el camino más directo a la verdad es mirarlo con mucha atención, que se sumerjan en él”, añade.

Pero no. No es que eso esté mal por sí mismo. Es que es insuficiente: “Primero tienes que saber qué estás mirando”. Una vez alguien ha captado tu atención con algo, hacer el esfuerzo de analizarlo es darle ventaja. Una página racista o antivacunas aspira a que dudes de lo que has oído hasta entonces. Su eficacia reside sobre todo en que el lector no sepa que esa web, que parece seria, es en realidad obra de un colectivo nazi o promotor de la homeopatía.

2. Cribar, un método en cuatro pasos

Caulfield diseñó un método para evitar emplear el pensamiento crítico en páginas poco fiables. Lo llamó SIFT, por sus siglas en inglés, una palabra que también significa “cribar” en español.

  • Para de leer.
  • Investiga la fuente.
  • Busca una cobertura más fiable.
  • Traza el contexto original, sobre todo en el caso de fotos, vídeos o citas.

El método se basa en un recurso muy sencillo: antes de leer la página hacia abajo, en vertical, abre otra pestaña e investiga la fuente, en horizontal. En español ha sido traducido en parte por la plataforma de verificación de información Verificat. Ese concepto se llama “lectura lateral” y lo ideó Sam Wineburg, profesor en la Universidad de Stanford, y sobre el que Caulfield se basó para crear su método.

En febrero Wineburg y un grupo de profesores publicaron un artículo científico con un experimento de lectura lateral. Antes de explicarles nada, pidieron a un grupo de 87 jóvenes que identificaran como aceptable o no la credibilidad de una página. Solo 3 de ellos abrieron otra pestaña para comprobar la financiación o el currículum de sus autores. El resto intentó desentrañar la respuesta analizando la página, con el tradicional pensamiento crítico. Los métodos eran casi aleatorios, sin ningún fundamento: ¿es un dominio .com o .org? ¿Tiene muchos links? ¿Tiene muchos anuncios? ¿Qué dicen en “sobre nosotros”?

Después de cuatro sesiones sobre lectura lateral, 67 de los 87 buscaron información fuera de esa página. Con el primer método, solo dos de los tres que hicieron lectura lateral acertaron acerca de la dudosa credibilidad con razones fundamentadas. Los otros 84 se centraron “exclusivamente en características que eran irrelevantes o podían ser manipuladas” por los autores. Tras las sesiones, 36 de los jóvenes encontraron la información sobre la dudosa financiación de la página.

3. Las dudas llevan al cinismo

El objetivo del método de Caulfied es centrar las preguntas y reducir así el tiempo necesario para obtener algo parecido a una respuesta. “La gente recibe tantos puntos de vista opuestos que para saber si algo es verdad o mentira deben mirarlo en profundidad, analizar los datos, descargar incluso una hoja de Excel”, explica. “Sienten que descubrir la verdad será un camino arduo, con lo que levantan las manos y dicen quién sabe”, y de ahí al cinismo.

“El riesgo del cinismo es creer que nadie dice la verdad, que todos mienten igual”, añade Caulfield. Su objetivo por tanto es eliminar una parte de ese cinismo.

Con la información ocurre igual. Ya no es un vendedor, sino miles de fotos, mensajes, tuits, vídeos. “Todo el mundo trata de atraerte pero tú debes alejarte y volver a la pregunta que te estabas haciendo al principio. Y decirte: ¿en un mundo ideal quién podría contestarme? Así, igual evitas acabar, 18 clics después, en un pozo donde se afirma que un grupo de reptilianos dirige el mundo”, añade.

4. La verdad no está en crisis, sino la reputación

El método de Caulfield no es para proteger a los medios. Al contrario. Es para ponerlos en su lugar, como la menos mala de las soluciones en algunos casos. Cuando hablamos de desinformación o noticias sesgadas, “lo que se pierde en la conversación es la reputación relativa”.  La cuestión es si lees una artículo en el periódico, ¿es más probable que tengas una visión rigurosa de lo que está ocurriendo que si lo investigas por tu cuenta en la misma cantidad de tiempo?”, dice.

Esa es, según Caulfield, la pregunta que debería hacerse un consumidor de información: cuál es la mejor elección para tener un resumen rápido de la situación, porque por ejemplo un periodista de salud lleva 10 años en el sector, entiende las cuestiones, sabe quiénes son los expertos, les pregunta, hace un resumen y lo publica, lo más probable es que esté mas cerca de la  verdad que si el tío Fred cuelga dicha información en Facebook. Eso no implica que el periodista de salud acierte siempre. Debemos mirar estas cosas teniendo en cuentas las alternativas y no solo en cómo es una fuente en particular”, dice.

No se trata solo de pensar en noticias falsas vinculadas a partidos políticos, que también, sino a encontrar respuestas razonables a preguntas sobre nutrición, clima, vacunas o enfermedades.

5. Los jóvenes no saben más

Otra conclusión obtenida por Caulfield es el mito de las habilidades digitales de los jóvenes: existen, pero no como creemos. “Puede defenderse que una parte de ellos son algo más hábiles para algunas cosas, pero cuando les pones a mirar en el mundo real noticias sesgadas no lo hacen mejor que generaciones precedentes”, dice. Y tienen aún algún problema nuevo: no reconocen las cabeceras de los periódicos fiables. “Si les pides que nombre un periódico no dirán el New York Times”, añade.

El método de Caulfield se ha mostrado eficaz además en áreas tanto conservadoras como progresistas y ha llegado a la conclusión de que la gente que cuelga desinformación adrede es menos de la que creemos: “Sobrevaloramos la cantidad de gente así porque quienes más gritan en internet son los más comprometidos, los que postean en Facebook 15 veces al día. La impresión puede ser que haya montones de gente así pero no”, dice.

6. La vuelta del contexto

Internet ha eliminado el contexto de mucha información. Antes estaba claro de dónde salía: una enciclopedia, un telediario, un vecino. Cada cual le daba el peso que creía. Ahora la confusión es extraordinaria: un blog partidista puede parecerse a un medio tradicional, un diccionario sesgado copia a la Wikipedia o un post anti vacunas imita el lenguaje de un artículo científico.

Por nuestra formación histórica, damos peso a esa información que nos llega de manera aparentemente seria. Ya no es suficiente.

El método de Caulfield se centra en los usuarios. “Es mi trabajo”, dice. Pero las plataformas también tienen una responsabilidad. En el móvil es menos ágil abrir otra pestaña en el navegador y teclear una nueva búsqueda. “Hemos tratado de convencer a quienes elaboran esas aplicaciones para que faciliten el proceso. WhatsApp está experimentando con incorporar algunas herramientas en sus mensajes y quizá acaben ligados a enlaces”, dice.

Caulfield cree que la lucha contra la desinformación debe ser como la educación vial: el uso del intermitente o el reconocimiento de las señales no evita que empresas y autoridades no pongan de su parte. “Los fabricantes de coches incluye cinturones, airbags o detectores de colisiones y la gente que idea las carreteras busca la manera de proteger a peatones y ciclistas. Todos deben trabajar juntos”, dice. “No puedes resolver el problema solo pidiendo a la gente que sea mejor o cambiando de plataformas. Hay que hacer un ecosistema más seguro a la vez que enseñar mejores herramientas”, añade.

Fuente: El Pais.com

COMPUTACION. Nuevo supercomputador para predecir el tiempo y las futuras tormentas en España

 La Aemet estrenará a finales de mayo un supercomputador que permitirá multiplicar por 10 la potencia de cálculo del actual.

El meteorólogo británico Lewis Fry Richardson tardó seis semanas en hacer la primera predicción del tiempo con cálculos numéricos (sin computadores). El nuevo supercomputador que acaba de adquirir la Agencia Estatal de Meteorología (Aemet) es capaz de hacerlo él solito en apenas una hora.

Actual supercomputador "Nimbus" que data del 2014


Lo han bautizado Cirrus, la nube más alta del firmamento y que en latín significa mechón de pelo. “La idea era mantener un tipo de nube, ya que sustituye a Nimbus ―una nube gris oscura de altura media que produce precipitación―. Todos los nombres candidatos eran de nubes, pero desde el principio era el preferido”, explica Raúl Hilara, coordinador de Telemática de Aemet. La operación se ha hecho mediante un leasing a cinco años sin opción a compra por 8,62 millones de euros firmado con Caixabank Equipment Finance S.A.U., quien presentó a concurso una propuesta basada en la tecnología de Atos IT Solutions and Services. Hubo otras cinco propuestas.

¿Para qué va a servir?

“Reforzará y ampliará las capacidades de Aemet en predicción, especialmente la de fenómenos meteorológicos adversos y el oleaje, permitirá hacer proyecciones climáticas de alta resolución para el estudio del cambio climático, aumentará la colaboración con organismos internacionales y optimizará los grandes volúmenes de información disponibles”, detalla el organismo. Para empezar, seguirá haciendo todo lo que hace el aparato actual, pero en menor tiempo: ejecutar el modelo determinista Harmonie, el de composición de la atmósfera Mocage y el de oleaje Wam. Y se irán “incorporando nuevos sistemas de predicción como el gSREPS para predecir fenómenos adversos y/o extremos como gotas frías en el Mediterráneo, cuya frecuencia e intensidad se ve incrementada a causa del cambio climático”, precisa su responsable.

Además, permitirá hacer “predicciones con mayor antelación, más precisas y detalladas en menos tiempo” y mejorar la resolución, es decir, las dimensiones en kilómetros de los fenómenos que es capaz de reproducir. Así, se logrará llegar a 2,5 kilómetros de resolución para la Península y Baleares y a 1,3 para Canarias. También se incorporará un sistema de nowcasting o predicción a muy corto plazo con partes a solo 12 horas vista y actualizaciones horarias, y se mejorará la escala para hacer los pronósticos más locales. “Ya no será el tiempo de Madrid, sino el de tu barrio de Madrid”, precisa Hilara.

Más precisión y detalle

Estos datos más precisos y con mayor resolución se traducirán en cambios en el sistema de avisos, que pueden hacerse a más largo plazo y pasar de tres a cinco días vista, y en nuevos formatos informativos. “En particular, se mejorarán las labores en la web para avanzar en la presentación georreferenciada de información meteorológica que ya se inició el año pasado”, indica Hilara, quien añade que se tratará de “integrar la observación y la predicción y nuevos canales de difusión de los avisos e información meteorológica basados en servicios de notificaciones”.

La costosa inversión, ¿saldrá rentable? “Aemet es un organismo de gasto, por lo que su rentabilidad no se puede expresar en términos económicos sino en sociales. Las mejoras ayudarán a sectores clave como la agricultura, la aeronáutica o el turismo; facilitarán las labores de otros organismos como Protección Civil; y permitirán la creación de oportunidades laborales”, asegura Hilara, a quien uno de los aspectos que más le ha sorprendido del nuevo aparato es el poco calor que genera gracias a las mejoras en acondicionamiento y refrigeración.

En el Top 500 mundial

Cirrus, que está en fase de montaje, ocupará nueve racks o estantes metálicos dentro de una habitación propia de 20,75 metros cuadrados en el Centro de Proceso de Datos de Aemet. Cuando esté operativo, a finales de mayo, se convertirá en el segundo megaordenador más potente de España tras el MareNostrum del Barcelona Supercomputing Center (BSC) y se stuará en el puesto 325 del Top 500 mundial, que lidera Japón. El Marenostrum está en el 42 del ranking. Respecto a los servicios meteorológicos europeos, colocará a España “tras Reino Unido, Alemania y Francia”.

La capacidad de estos gigantescos cerebros se mide con varios parámetros y en todos se logra “una mejora cuantitativa importante”. Uno de ellos es el almacenamiento, que será 16 veces mayor que el actual al pasar de 380 terabytes ―un tera equivale a ocho smartphones de 128 gigas― a 5,9 petabytes ―en un petabyte se pueden guardar 500.000 millones de páginas de un archivo de texto o 6,7 millones de discos de música en MP3―.

Otro es la capacidad de cómputo, que se expresa en flops (operaciones de punto flotante por segundo, las más complejas). “Ahora mismo, en la primera fase, serán 1.350 teraflops, que se incrementarán a 1.680 en la segunda, en 2023, frente a los 168 actuales, lo que supone un incremento de ocho veces al principio y 10 veces después”, detalla Hilara. Un PC puede hacer 100 millones de operaciones por segundo (y muchas de ellas simples). Un solo teraflop tiene una capacidad 10 millones de veces mayor.

El nuevo superordenador se ha dividido en dos clústeres, u ordenadores gigantes gemelos, que pueden trabajar en conjunto o por separado. Estos estarán equipados con 35.840 núcleos en la primera fase y 48.128 en la segunda. Hoy por hoy, se dispone de 7.778 núcleos, por lo que el incremento es “brutal”. “Un PC de casa solo tiene uno o dos núcleos”, pone en contexto Hilara. “En uno de los clústeres vamos a tener la cadena operativa, de modo que si falla el primero se puede usar el segundo, que también se usa para pruebas de nuevos modelos y proyectos de investigación”, explica el ingeniero de Telecomunicaciones.

¿Cual es su consumo? 

“El consumo energético es información considerada confidencial por el adjudicatario, al indicar características claves respecto a la competencia con otros fabricantes”, responde Hilara que, eso sí, asegura que la “eficiencia energética ha mejorado una barbaridad”. Solo puede apuntar que cada clúster tiene un consumo inferior a 210 kW, mientras que el consumo del modelo actual, que tiene un único clúster, está un poco por encima dicha cota. No obstante, este no fue el criterio que más pesó a la hora de elegir aparato, sino su rendimiento y rapidez.

Cirrus contará con cinco cuidadores de la propia agencia, a los que se sumará el servicio de soporte externo de la adjudicataria, mientras que sus beneficiarios directos serán los grupos de telemática, modelización y predicción de Aemet, unos 50 usuarios. “Al ser un equipamiento destinado específicamente a la producción, no forma parte de la Red Española de Supercomputación, destinada principalmente a investigación”, aclara Hilara, que apunta, no obstante, que está abierta la posibilidad de firmar convenios para su uso académico.

Fuente: El Pais.com

CORONAVIRUS. La presidenta en funciones de la Comunidad de Madrid falta a la verdad en las estadísticas de la Covid-19

 El retraso en el registro de los datos de coronavirus en la Comunidad de Madrid crea una falsa caída en el número de contagios. Días después se modifican y actualizan, llegando a triplicar las primeras cifras oficiales.

El 2 de septiembre, la Comunidad de Madrid sumó 1.104 nuevos contagios de coronavirus registrados en el día previo. Justo un mes después, el 2 de octubre, la región notificaba en sus registros diarios que el día 1 de septiembre hubo un total de 3.898 positivos. Pero las cifras no paran de subir y, en el último registro compartido por la Comunidad, el del pasado 13 de octubre, la cifra aún ascendía a los 3.892 casos para esa misma fecha, es decir, el dato real de los contagiados en la Comunidad de Madrid el 2 de septiembre es más del triple del inicialmente comunicado. Pero esto nunca se llegó a saber.

Este es solo un ejemplo que demuestra cómo las cifras reales de casos de COVID-19 registrados en un día llegan a triplicarse semanas después, una vez se actualizan y modifican. Los dos son datos oficiales de la Comunidad de Madrid, y pertenecen a los mismos días, con la salvedad de que han sido notificados en fechas diferentes.

Esto ocurre porque el número de positivos que nos dan cada jornada no es el definitivo y pronto queda desactualizado. Miramos más ejemplos: el caso más extremo sucedió el 15 de septiembre. Ahí se dio un dato inicial de 1.501 contagios que este 13 de septiembre se corrigieron hasta los 5.647. La diferencia entre los 1.501 del primer día y estos 5.647 que han reconocido como último dato --más de 5.500 casos más-- es lo que Salvador Illa, ministro de Sanidad, llama retrasos.

Hay casos escandalosos: por ejemplo, en los últimos datos que han hecho públicos, la Comunidad de Madrid ha reconocido un positivo del 28 de febrero. ¿Hay alguna posibilidad de que una PCR que se hizo en febrero haya tardado siete meses y medio en dar resultado?

No piensen que es algo aislado, la Comunidad de Madrid a finales del año pasado o inicios de éste, ha añadido 33 casos más al mes de marzo, al mes de abril, le han sumado 50 contagios más, y al de mayo, 57, pero todos estos meses corresponden al 2020. Y eso solo en el informe más reciente.

La Comunidad de Madrid utiliza el concepto retrovisor covid, ¿Y en que consiste dicho concepto ? 

El índice más utilizado para determinar el avance de la pandemia en un país o región es la Incidencia Acumulada a 14 días (IA 14), que se basa en el número de contagios por cada 100.000 habitantes, pero si se produce un retraso de al menos 15 días, el contagio desaparece de la incidencia a 14 días, como es lógico y solo aparece en el número total de casos producidos durante toda la pandemia.

A mi modo de ver, la Comunidad de Madrid, sirviéndose del concepto retrovisor covid, desde el 1 de septiembre hasta el momento, la incidencia a 14 días ha dejado de registrar, 24.051 casos positivos por covid-19, según el programa de TV “la sextaclave” , lo cual, lógicamente, les permite bajar la IA14  a su antojo.

Así que, la jefa del Ejecutivo madrileño falta a la verdad, cuando dice que no manipula la estadística de los casos de la pandemia en la Comunidad de Madrid y que son ciertos y se ajustan a la realidad todos los datos que publica la Consejería de Sanidad, de los cuales, es la responsable final.

Fuente: Lasexta