Una semana de experimento y millones de comentarios, en
su mayoría negativos, han sido las consecuencias de un estudio llevado a cabo
por varios ingenieros de Facebook. La mayor red social del mundo tomó 689.000 perfiles,
sin aviso o consentimiento, para analizar su comportamiento alterando el
algoritmo que selecciona las noticias que se ven de los amigos. Un grupo veía
noticias positivas, el otro, negativas. La red social pide disculpas por manipularlos para reconocer sus emociones
La indignación ha surgido al conocerse la publicación del
estudio en la web de la Academia Nacional de Ciencias de Estados Unidos. Para
la prueba se tomaron, exclusivamente, perfiles que escriben en inglés. El
rechazo a comentar o interaccionar con los contenidos de tinte negativo,
demasiado emotivos o cercanos a la tristeza, era mucho más alto. En ocasiones
hasta un 90% de lo habitual. El estudio concluye que sí, que el ánimo de los
comentarios de los contactos de Facebook invita a seguir en la deriva negativa
o positiva, según el grupo que les tocase, al cabo de una semana.
Este tipo de experimentos basados en interacción son
muy comunes en ciertas webs y, sobre todo, en comercio electrónico, pero sin
tener el cuenta el tinte del contenido. Se denomina A/B testing a mostrar una
presentación (ya sea la distribución de la página o el estilo de los iconos)
diferente bajo una misma web para poder estudiar si se emplea más tiempo en la
misma, se hace más clic... pero nunca usando el tono del contenido como un
componente más.
En un primer momento Facebook se limitó a decir que los
posts, actualizaciones de estado, se podían consultar de manera habitual, sin
matizar que la selección de una u otra opción (noticia positiva o negativa) con
un fin experimental era dónde residía la ruptura de confianza con sus
suscriptores. A última hora del domingo, a través del perfil de Adam Kramer,
coautor del estudio y analista de datos dentro de la firma, se daba una
explicación algo más concreta: “Nos importa el impacto emocional de Facebook en
las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era
importante investigar si ver contenido positivo de los amigos les hacía seguir
dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no
visitar Facebook. En la explicación asegura que solo afectó al 0,04% de los
usuarios, uno por cada 2.500 perfiles, durante una semana a comienzos de 2012.
La red social ha contestado al diario británico The Guardian que su intención
era mejorar el servicio para mostrar contenido más relevante y que crease una
mayor cercanía con la audiencia.
En lo que no parecen reparar dentro de la web de Mark
Zuckerberg es que el malestar se crea en el momento en que se rompe lo
establecido, un algoritmo similar para todos, y se experimenta con las
sensaciones de sus usuarios. Tampoco matiza que el conocimiento adquirido a
partir de este experimento se pueda aplicar a la publicidad contratada en su
interior.
En todo caso, queda la sensación de que gracias a la
publicación del estudio se ha conocido este experimento, pero cualquiera podría
ser objeto de muchos otros por parte de los analistas de datos de Facebook sin
necesidad de avisar. Según sus términos de uso, de manera explícita, al tener
un perfil se da permiso a acceder para “operaciones internas, resolución de
problemas, análisis de datos, experimentos, investigación y mejoras en el
servicio”.
Fuente: El Pais.com