Por primera vez, y bajo fuerte presi??n, Facebook revel?? datos internos sobre la dimensi??n y naturaleza de los abusos que ocurren en la red social.
Seg??n esa informaci??n publicada, el contenido violento se ha incrementado dram??ticamente y los discursos de odio siguen aumentando, pero parece que ahora hay un control m??s estricto sobre la propaganda terrorista.
Faltan algunas estad??sticas clave, como la frecuencia con la que Facebook elimina algo por equivocaci??n o deja algo que deber??a ser borrado, o la cantidad total de abusos publicados en la red.
En este ??ltimo caso, la raz??n de no publicarlo es sencilla: Facebook simplemente no lo sabe. Pero la red social ofrece estimaciones que ayudan a hacerse una idea de lo que est?? pasando.
Repunte de violencia
Los datos publicados se refieren a dos periodos de tres meses: el primer trimestre de 2018 y el ??ltimo de 2017.
Facebook dividi?? el contenido en varias categor??as:
- violencia gr??fica
- desnudez de adultos y contenido sexual
- spam
- incitaci??n al odio
- cuentas falsas
Respecto a lo ??ltimo, la compa????a calcula que entre el 3% y el 4% de todos sus usuarios activos son falsos, y dice que ha retirado 583 millones de cuentas falsas entre enero y marzo.
Las cifras indican que la violencia gr??fica aument?? enormemente: un 183% m??sentre cada periodo de tiempo incluido en el informe.
Facebook elimin?? 3,4 millones de piezas, la mayor??a de las cuales -el 86%- fueron detectadas por su sistema automatizado.
La automatizaci??n tambi??n jug?? un rol muy importante en la detecci??n de contenido sexual, spam y, sobre todo, terrorismo.
De las 1,9 millones de piezas de contenido extremista eliminadas entre enero y marzo, Facebook dice que detect?? un 99,5% antes de que hubieran tenido la oportunidad de circular.
Se espera que estos datos sean acogidos con agrado por los gobiernos, particularmente en Estados Unidos y Reino Unido, quienes pidieron a la red social que dejara de difundir material por parte de grupos como el autodenominado Estado Isl??mico.
“Est??n dando los pasos adecuados para definir claramente qu?? es y qu?? no es un discurso protegido en su plataforma”, le dijo a la BBC Brandie Nonnecke, del Centro para la Investigaci??n de la Tecnolog??a de la Informaci??n en el Inter??s de la Sociedad de la Universidad de California, en Estados Unidos.
Pero advirti??: “Facebook tiene en sus manos mucho trabajo por delante”.
- La agotadora rutina de los moderadores de Facebook que deben ver publicaciones de contenido violento
“Salir gritando del armario”
La complejidad de ese trabajo se evidencia a la hora de considerar los discursos de odio, una categor??a mucho m??s dif??cil de controlar a trav??s de la automatizaci??n.
De las 2,5 millones de piezas de contenido que se consider?? que incitaban al odio y fueron abordadas, los sistemas autom??ticos de Facebook detectaron tan solo el 38%. El resto fueron identificadas por personas a trav??s de la funci??n de denuncias de la red social.
La tarea de decidir lo que debe permanecer en la red social y lo que debe ser borrado fue dif??cil, y la compa????a reconoce que su razonamiento no siempre fue el correcto.
“Hay matices, hay contextos que la tecnolog??a todav??a no puede resolver”, explic?? Alex Schultz, director de an??lisis de datos de la empresa.
“As?? que en esos casos nos apoyamos mucho en nuestro equipo de revisi??n, que toma la decisi??n final sobre lo que debe hacerse”.
Como ejemplo, Schultz dijo que hay palabras que se consideran insultos si se pronuncian para emitir un ataque homof??bico, pero adquieren otro significado cuando son usadas por personas homosexuales.
Por lo tanto, borrar todas las publicaciones con un t??rmino en concreto ser??a una elecci??n equivocada.
“??Pero c??mo puedes saber si soy gay cuando est??s revisando mi perfil?”, pregunt?? ret??ricamente el director de an??lisis.
“Yo lo puse en la parte superior de mi perfil: sal?? gritando del armario, soy abiertamente gay”.
“Pero no todo el mundo lo es y no tenemos manera de saberlo. Es un problema muy complejo”.
Muestras preocupantes
En un intento de descubrir lo que se le pudo haber pasado por alto, la red social llev?? a cabo un muestreo aleatorio.
Escogi?? 10.000 publicaciones de Facebook y tom?? nota de la frecuencia con la que hab??an sido violadas sus pol??ticas.
Los resultados fueron preocupantes.
Seg??n las muestras, hasta 27 publicaciones de cada 10.000 conten??an alg??n tipo de violencia gr??fica. Teniendo en cuenta que 1.500 millones de personas usan el servicio cada d??a, eso podr??a traducirse en decenas de millones de publicaciones violentas que no se comprueban cada d??a.
La misma t??cnica permiti?? calcular que entre siete y nueve posts de cada 10.000 inclu??an desnudos de adultos o contenido sexual.
La cantidad de material relacionado con el terrorismo fue demasiado peque??a usando este proceso, dijo Schultz. Y en cuando a los discursos de odio, la compa????a carec??a de “datos confiables”.
“Actualmente, no podemos medir cu??n prevalecientes fueron las violaciones a los discursos de odio en Facebook porque cuando les pedimos a nuestros representantes que lo comprobaran, result?? que era muy dif??cil precisar qu?? era una incitaci??n al odio”.
“Cometemos errores y estamos tratando de hacerlo mejor y tomar medidas”.
“Es muy dif??cil”
Pero Dottie Lux, una organizadora de eventos en San Francisco, EE.UU., que hace campa??a en contra de los fallos de Facebook a la hora de incluir a grupos minoritarios, considera que la complejidad de la tarea no es una excusa v??lida.
“Se me est?? acabando la simpat??a cuando escucho ‘Esto es muy dif??cil’, porque realmente no es algo nuevo“, sostiene en declaraciones a la BBC.
“Encuentran tiempo para lanzar aplicaciones de citas, para adjuntar mi cuenta bancaria… pero no para averiguar qui??nes son sus usuarios”.
Lux, que se describe a s?? misma como una “lesbiana jud??a con una perspectiva jud??a gay” dijo que confiar en las denuncias de usuarios de Facebook sobre los discursos de odio es b??sicamente un error porque tambi??n se puede utilizar para silenciar a los dem??s.
“Le dan a personas con malas intenciones la posibilidad de actuar maliciosamente”.
Ej??rcito de moderadores
Facebook cuenta con una red de m??s de 17.000 moderadores, pero la empresa es especialmente discreta a la hora de decir qui??nes son.
La firma asegura que trata de cerciorarse de que quienes trabajan en Estados Unidos tengan una buena comprensi??n de la cultura local y de incidentes en otros pa??ses.
Pero Lux siente que la compa????a necesita ser m??s abierta.
“Si contratas personas que no existen en determinados c??rculos sociales, diferentes culturas, no va a ser efectivo”.
“Solo seguir?? perpetuando el mismo problema”, lamenta.
Desde la popular red social, por su parte, aseguran que est??n en un proceso de aprendizaje.
“A medida que crecemos y mejoramos, a medida que aprendemos cu??l es la forma correcta de hacerlo, perfeccionaremos la metodolog??a”, explic?? a la BBC el director de gesti??n de producto de Facebook, Guy Rosen.
“Estaremos abiertos a los cambios y a c??mo estamos haciendo las cosas”.
Gracias por calificar! Ahora puedes decirle al mundo como se siente a traves de los medios sociales.
Compartir en Twitter
y en Facebook.
Lo que acabo de ver es..
- Raro
- Asqueroso
- Divertido
- Interesante
- Emotivo
- Increible