Una semana de experimento y millones de comentarios, en su
mayoría negativos, han sido las consecuencias de un estudio llevado a
cabo por varios ingenieros de Facebook.
La mayor red social del mundo
tomó 689.000 perfiles, sin aviso o consentimiento, para analizar su
comportamiento alterando el algoritmo que selecciona las noticias que se
ven de los amigos.
Un grupo veía noticias positivas, el otro,
negativas.
La indignación ha surgido
al conocerse la publicación del estudio en la web de la Academia
Nacional de Ciencias de Estados Unidos.
Para la prueba se tomaron,
exclusivamente, perfiles que escriben en inglés. El rechazo a comentar o
interaccionar con los contenidos de tinte negativo, demasiado emotivos o
cercanos a la tristeza, era mucho más alto.
En ocasiones hasta un 90%
de lo habitual. El estudio concluye que sí, que el ánimo de los
comentarios de los contactos de Facebook invita a seguir en la deriva
negativa o positiva, según el grupo que les tocase, al cabo de una
semana.
Nos importa el impacto emocional de Facebook en las personas que lo usanAdam Kramer, coautor del estudio
Este tipo de experimentos basados en interacción son muy
comunes en ciertas webs y, sobre todo, en comercio electrónico, pero sin
tener el cuenta el tinte del contenido
. Se denomina A/B testing
a mostrar una presentación (ya sea la distribución de la página o el
estilo de los iconos) diferente bajo una misma web para poder estudiar
si se emplea más tiempo en la misma, se hace más clic... pero nunca
usando el tono del contenido como un componente más.
En un primer momento Facebook se limitó a decir que los
posts, actualizaciones de estado, se podían consultar de manera
habitual, sin matizar que la selección de una u otra opción (noticia
positiva o negativa) con un fin experimental era dónde residía la
ruptura de confianza con sus suscriptores.
A última hora del domingo, a
través del perfil de Adam Kramer,
coautor del estudio y analista de datos dentro de la firma, se daba una
explicación algo más concreta:
“Nos importa el impacto emocional de
Facebook en las personas que lo usan, por eso hemos hecho el estudio.
Sentíamos que era importante investigar si ver contenido positivo de los
amigos les hacía seguir dentro o si, el hecho de que lo que se contaba
era negativo, les invitaba a no visitar Facebook.
No queríamos enfadar a
nadie”.
En la explicación asegura que solo afectó al 0,04% de los
usuarios, uno por cada 2.500 perfiles, durante una semana a comienzos de
2012. La red social ha contestado al diario británico The Guardian que su intención era mejorar el servicio para mostrar contenido más relevante y que crease una mayor cercanía con la audiencia.
En lo que no parecen reparar dentro de la web de Mark
Zuckerberg es que el malestar se crea en el momento en que se rompe lo
establecido, un algoritmo similar para todos, y se experimenta con las
sensaciones de sus usuarios.
Tampoco matiza que el conocimiento
adquirido a partir de este experimento se pueda aplicar a la publicidad
contratada en su interior.
En todo caso, queda la sensación de que gracias a la publicación del
estudio se ha conocido este experimento, pero cualquiera podría ser
objeto de muchos otros por parte de los analistas de datos de Facebook
sin necesidad de avisar.Según sus términos de uso, de manera explícita, al tener un perfil se da permiso a acceder para “operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio”.