Grupos de Facebook
Facebook
20 Nov 2020 06:30 AM

Facebook dice que eliminó el 95 % de los discursos de odio

compañía retiró por este motivo 22,1 millones de mensajes en Facebook y 6,5 millones en Instagram
Cristian
Cristian
Serrano

La red social Facebook presentó este jueves su último informe sobre el cumplimiento de las normas comunitarias en la plataforma, en el que aseguró que el 95 % de los discursos de odio son eliminados de forma proactiva sin necesidad de que los usuarios los denuncien.

La empresa de Menlo Park (California, EE.UU.) explicó que hace tres años, en 2017, la inteligencia artificial únicamente le servía para detectar de forma proactiva el 23,6 % de los mensajes de odio, de manera que el resto solo eran retirados cuando algún usuario denunciaba estos contenidos y por tanto aumentaba su exposición.

Lea acá: Apple pagará 113 millones de dólares por haber ralentizado iPhones viejos

Sin embargo, entre julio y septiembre de este año, de las decenas de millones de contenidos de odio eliminados en Facebook e Instagram (de su propiedad), el 95 % fueron suprimidos de forma proactiva al ser detectados por sistemas de inteligencia artificial, reduciendo así significativamente su tiempo de exposición.

En concreto, la compañía retiró por este motivo 22,1 millones de mensajes en Facebook durante esos tres meses (una cantidad similar a la del trimestre anterior) y 6,5 millones en Instagram (el doble que en el trimestre precedente).

Mire también: ¿Cómo aprovechar el día sin IVA y Black Friday de forma segura?

Cabe destacar que el período contenido en el informe de este jueves incluye parte de la campaña presidencial estadounidense, pero no la recta final (octubre) ni la jornada electoral en sí o los varios días que duró el escrutinio de los votos en noviembre.

La compañía que dirige Mark Zuckerberg añadió por primera vez en el informe datos sobre la "prevalencia" de los mensajes de odio, es decir, el porcentaje de veces que los internautas ven contenidos que violan las normas comunitarias de la plataforma.

Para cuantificar esta variable, la empresa toma una muestra aleatoria de contenidos visibles en Facebook (es decir, que no han sido retirados) y analiza cuáles de ellos son mensajes de odio (que atentan contra grupos de personas por su raza, sexo, cultura, creencias religiosas, orientación sexual, etc).

Consulte también: ¿Cómo funciona el servicio que incorpora cuentas bancarias con Google Pay?

Según este método, la prevalencia de contenidos de odio entre julio y septiembre fue de entre el 0,10 y el 0,11 %, lo que supone que de cada 10.000 veces que un usuario vio contenidos en Facebook, diez u once de ellos contenían mensajes de odio.

En una llamada telefónica con un grupo de periodistas -entre ellos, Efe- para responder a preguntas sobre el informe, el vicepresidente de Integridad de Facebook, Guy Rosen, defendió la decisión de la empresa de hacer regresar a la oficina a sus moderadores de contenido, pese a la pandemia de covid-19.

Rosen salió al paso de la carta publicada por 200 de estos moderadores que pedían seguir trabajando desde casa para evitar riesgos de contagio, y explicó que la razón por la que se les pide que vuelvan a la oficina es porque hay materiales muy sensibles que no pueden revisarse desde el hogar. 

Durante el tercer trimestre de 2020, en Facebook se tomó acción sobre:

  • 22,1 millones de piezas de discurso de odio, de las cuales cerca de 95% fueron identificadas proactivamente.
  • 19,2 millones de piezas de contenido violento y gráfico (en comparación a las 15 millones registradas en el segundo trimestre).
  • 12,4 millones de piezas con contenido de explotación sexual y desnudez infantil (en comparación a las 9,5 millones registradas en el segundo trimestre).
  • 3,5 millones de piezas de contenidos de bullying y hostigamiento (en comparación a las 2,4 millones registradas en el segundo trimestre).

Durante el tercer trimestre en Instagram, se tomó acción sobre:

  • 6,5 millones de piezas de contenido de discurso de odio (en comparación a las 3,2 millones registradas en el segundo trimestre), de las cuales cerca del 95% se identificaron de forma proactiva (en comparación al 85% del segundo trimestre). 
  • 4,1 millones de piezas de contenido violento y gráfico (en comparación a las 3,1 millones registradas en el segundo trimestre). 
  • 1 millón de piezas de contenido de explotación sexual y desnudez infantil (en comparación a las 481.000 registradas en el segundo trimestre).
  • 2,6 millones de contenidos de acoso e intimidación (en comparación a los 2,3 millones registrados en el segundo trimestre).
  • 1,3 millones de piezas de contenidos de suicidio y auto-lesión (en comparación a las 277.400 registradas en el segundo trimestre).
Fuente
EFE y Servicio Integrado Digital