La red social va a enviar mensajes a aquellos usuarios que interactúen con contenidos que pueden resultar perjudiciales para el cuidado de la salud. Y los pondrá en contacto con el apartado de versiones desmentidas por la OMS.
Estos mensajes aparecerán en el apartado de noticias de la red social y los usuarios que hayan dado a la opción de “me gusta”, hayan comentado o compartido este tipo de informaciones empezarán a recibir estas alertas en las próximas semanas, adelantó la compañía.
Facebook ya eliminó y lo seguirá haciendo este tipo de contenidos que, precisamente por contener afirmaciones que pueden resultar dañinas para la salud de las personas, vulneran las normas de comportamiento de la comunidad de usuarios de esta red, y dirigirá estos nuevos mensajes a los que interactúen con ellos.
Consejos como beber lavandina como cura para el coronavirus o teorías como que el distanciamiento físico es ineficaz para prevenir la propagación de la enfermedad, son algunos de los ejemplos sobre los posteos borrados.
Desde el avance de la pandemia de coronavirus, Facebook procura conectar a la gente con información precisa de los expertos en salud y para evitar la propagación, por sus aplicaciones, de los posteos dañinos para las personas, explicó Guy Rosen, vicepresidente para Integridad de Facebook, en una nota replicada hoy por la agencia EFE.
Rosen detalla que la red social dirigió a más de 2.000 millones de personas a fuentes de la OMS y autoridades sanitarias a través de su Centro de Información sobre Covid-19, y más de 350 millones de personas han pinchado en ventanas emergentes (pop-ups) en Facebook e Instagram para obtener más información de la pandemia.
Conectar a la gente con información creíble es solo la mitad del desafío”
GUY ROSEN, VICEPRESIDENTE PARA INTEGRIDAD DE FACEBOOK
“Conectar a la gente con información creíble es solo la mitad del desafío”, apunta Rosen, quien indica que para la compañía “también es vital” detener la desinformación por un lado y el contenido perjudicial para la salud por otro, con acciones como la anunciada este jueves.
Por eso, sostiene, trabajan con más de 60 organizaciones de verificación que revisan y califican el contenido en más de 50 idiomas, y está en marcha un programa de subvenciones para este tipo de organizaciones.
En cuanto a los contenidos falsos, Facebook asegura que, cuando estos son calificados como tal se reduce su distribución, y se muestran etiquetas de advertencia.
En un posteo realizado en la red social, el fundador de Facebook, Mark Zuckerberg, reafirmó que una de sus principales prioridades es asegurarse de que los usuarios vean información precisa y autorizada en todas las aplicaciones de la compañía: “Espero que todos se mantengan seguros, saludables e informados”, aseveró.