Actualidad

Facebook responde por experimento en el que manipuló secretamente a usuarios

5fm7sfqml5fylbrm4vb5av2qni.jpg publimetro.pe

“Comunicamos muy mal lo relativo a este tema”, dijo Sandberg en Nueva Delhi, adonde viajó para presentar un libro y entrevistarse con empresarios y dirigentes políticos.

PUBLICIDAD

“En Facebook, nos tomamos la privacidad muy en serio”, agregó, negándose a realizar otras declaraciones a los periodistas sobre este tema.

Facebook manipuló las informaciones de unos 700.000 usuarios anglófonos sin su permiso para un estudio sobre el “contagio emocional” de los grupos, suscitando preocupación en los internautas.

Científicos investigaron si el número de mensajes positivos o negativos leídos por los miembros de Facebook tenía influencia sobre lo que publican.

Durante una semana, del 11 al 18 de enero de 2012, la empresa y los investigadores modificaron en secreto el sistema de algoritmos de la red para manipular los contenidos.

El estudio, que había pasado desapercibido en los grandes medios de comunicación, dio lugar a numerosas críticas contra Facebook, tras la difusión de artículos al respecto el sábado 28 de junio en la publicación en línea Slate y en los portales internet de las revistas The Atlantic y Forbes.

Algunos internautas expresaron su “profunda pena” y describieron el método utilizado como “alarmante” o “demoníaco”.

PUBLICIDAD

El miércoles, las autoridades británicas anunciaron que interrogarán a los responsables de Facebook por este experimento.

“Esto fue parte de una investigación realizada por compañías que estaban probando diferentes productos, eso es todo. Fue poco difundida”, aseguró Sandberg. “Y por esa comunicación pedimos disculpas, nunca quisimos disgustarlos”.

Sin embargo, aseguró que este tipo de estudios se hacen todo el tiempo. “Nos tomamos la privacidad y seguridad en Facebook muy en serio, porque eso es algo que permite a la gente compartir” opiniones y emociones, dijo Sandberg.

El escándalo se centró a partir de un experimento en 2012 (de una semana) en el que científicos permitieron un algoritmo para determinar si la reducción del número de noticias positivas o negativa de los usuarios podría impulsarlos para publicar un contenido más positivo o negativo.

La investigación, publicada en la edición de marzo de las Actas de la Academia Nacional de Ciencias, provocó examen de conciencia y preguntas entre los investigadores y especialistas en ética sobre la capacidad de la red social para modificar las emociones de sus usuarios.

PUBLICIDAD

Tags

Lo Último