Facebook es criticado por manipular el algoritmo del News Feed para un estudio

Facebook ha manipulado el algoritmo para el News Feed de casi 700.000 usuarios. El motivo ha sido la realización de un estudio sobre el “contagio emocional”. Ningún usuario sabía que estaba recibiendo mensajes controlados por la red social.

Las actualizaciones que aparecen en el News Feed son filtradas por Facebook. El usuario sólo ve la actividad de aquellos usuarios que, según entiende el algoritmo de la red social, son potencialmente más interesantes.

Sin embargo, Facebook ha recibido muchas críticas en los últimos días por manipular manualmente dicho algoritmo. El motivo era la realización de un estudio para comprobar si existe el contagio emocional en Internet.

Un grupo de ingenieros de la red social escogió a unos 689.000 usuarios y, durante una semana, a algunos de ellos les mostraron actualizaciones de sus amigos con mensajes mayormente positivos. A otros sólo se les mostraron mensajes con connotaciones negativas.

El resultado es que sí: existe el contagio de las emociones en Internet. Aquellos que veían mensajes positivos fueron más propensos a hacer publicaciones optimistas en Facebook y lo mismo sucedió a la inversa.

Las críticas han llegado para Facebook por alterar de esta forma lo que ven y dejan de ver los usuarios de la red social. Incluso la psicóloga encargada de editar el estudio ha dudado de su ética profesional.

Y es que Facebook cuenta con una cláusula en los términos de uso (esos que nadie lee...) en la que queda contemplado el uso de los datos del usuario para este tipo de experimentos. La cuestión es que ninguno de los participantes en el estudio fue avisado de que su News Feed estaba siendo manipulado.