Facebook
La sed social Facebook.
AFP
24 Abr 2018 08:14 AM

Facebook permitirá a sus usuarios apelar frente a publicaciones borradas

Monika Bickert, vicepresidenta de Global Product Management, publicó las condiciones bajo las cuales se podrá hacer.
La
Fm

Facebook dijo el martes que otorgará a los usuarios el derecho de apelar las decisiones de la red social de eliminar fotos, videos o publicaciones escritas que violen los estándares de la comunidad.

Los planes para lanzar un proceso de apelaciones a nivel mundial en los próximos meses se produjeron cuando Facebook brindó por primera vez una mirada a los estándares internos utilizados para decidir qué publicaciones van demasiado lejos en términos de discurso de odio o amenazas.

"Esto es parte de un esfuerzo por ser más claros acerca de dónde marcamos la línea en los contenidos", dijo a AFP el gerente de políticas públicas de Facebook para contenidos, Siobhan Cummiskey"Y por primera vez, les damos el derecho de apelar nuestras decisiones sobre publicaciones individuales para que puedan solicitar una segunda opinión cuando crean que hemos cometido un error", sostuvo.

La decisión de involucrar más a los usuarios de Facebook en los estándares para eliminar contenidos surge en momentos que la red social busca evitar críticas en un abanico de frentes, incluyendo el manejo de datos de las personas, la difusión de "noticias falsas" y polémica sobre si la política ha afectado las decisiones de eliminación de contenidos.

La empresa con sede en California ya permite a las personas apelar la eliminación de perfiles o páginas. El proceso de apelación que se confeccionará durante el próximo año extenderá ese derecho a las publicaciones individuales, según Cummiskey.

El nuevo proceso de apelación se centrará primero en la eliminación de publicaciones por nudismo, sexo, discurso de odio o violencia gráfica.

Las notificaciones enviadas con respecto a las publicaciones eliminadas incluirán botones en los que se puede hacer clic para activar las apelaciones, que serán manejadas por un miembro del equipo de Facebook. Si bien se usa software para ayudar a encontrar contenido que viola los estándares en la red social, serán personas las que manejarán las apelaciones y el objetivo es hacer las revisiones en el día.

"En el trascurso del año, brindaremos a las personas la posibilidad de apelar a nuestras decisiones. Como primer paso, hoy habilitamos la posibilidad de apelar a las publicaciones que fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gráfica", señaló Monika Bickert, vicepresidenta de Global Product Management.

"Si hemos cometido un error, el contenido será restaurado y notificaremos a la persona que solicitó la apelación. Estamos trabajando para extender este proceso, incluyendo otros tipos de infracciones, brindando a las personas la oportunidad de proveer más contexto para que podamos tomar la decisión adecuada, y habilitando la opción de apelaciones no solo para el contenido que ha sido dado de baja, sino también para el contenido que fue reportado pero no fue removido de la plataforma. Creemos que el darle voz a las personas en este proceso es otro componente esencial para construir un sistema justo", agregó.

Este es el escrito completo de Monika Bickert, vicepresidenta de Global Product Management, respecto a los cambios de Facebook:

Una de las preguntas que nos hacen con más frecuencia es cómo decidimos el contenido que está permitido en Facebook. Estas decisiones están entre las más importantes que tomamos porque son fundamentales para garantizar que Facebook sea a la vez un lugar seguro y un lugar para compartir con libertad diferentes puntos de vista. Durante años, hemos tenido Normas Comunitarias que explican qué se mantiene en la plataforma y qué se elimina. Hoy vamos un paso más allá y publicamos las pautas internas que usamos para cumplir esas normas. Y, por primera vez, le damos a las personas el derecho de apelar nuestras decisiones sobre publicaciones individuales; de ese modo, podrás solicitar una segunda opinión cuando creas que hemos cometido un error.

Decidimos publicar estas pautas internas por dos razones. En primer lugar, las pautas ayudarán a las personas a entender dónde trazamos la línea en estas cuestiones. En segundo lugar, proporcionar estos detalles hace que sea más fácil para todos, incluidos los expertos en diferentes campos, darnos su opinión para que podamos mejorar las pautas y las decisiones que tomamos.

El proceso de desarrollo de políticas

El equipo de políticas de contenido en Facebook es el responsable de desarrollar nuestras Normas Comunitarias. Contamos con miembros del equipo en 11 oficinas alrededor del mundo, incluyendo a expertos en temas como discurso de odio, seguridad infantil y terrorismo. Muchos de nosotros hemos trabajado en asuntos de expresión y seguridad mucho antes de ingresar a Facebook. Durante mis años como fiscal, trabajé con una variedad de temas, desde seguridad infantil hasta terrorismo, y entre otros miembros del equipo contamos con: un ex consejero de crisis por violación, un académico que pasó su carrera estudiando organizaciones de odio, un abogado de derechos humanos y un maestro. Cada semana, nuestro equipo se nutre de los aportes de expertos y organizaciones fuera de Facebook para comprender mejor las diferentes perspectivas sobre seguridad y expresión, así como el impacto de nuestras políticas en diferentes comunidades a nivel mundial.

Basados en estas devoluciones, así como en los cambios en las normas sociales y en el lenguaje, nuestras normas evolucionan con el tiempo. Lo que no ha cambiado, y no cambiará, son los principios subyacentes de seguridad, voz y equidad en los que se basan estas normas. Para iniciar conversaciones y entablar conexiones, las personas necesitan saber que están a salvo. Facebook también debe ser un lugar donde las personas puedan expresar sus opiniones libremente, incluso si algunas personas pueden considerar que esas opiniones son objetables. Esto puede ser desafiante dada la naturaleza global de nuestro servicio, por lo que la equidad es un principio sumamente importante: nuestro objetivo es aplicar estas normas de manera consistente y justa a todas las comunidades y culturas. Resumimos estos principios explícitamente en el preámbulo de los estándares, y los materializamos compartiendo la razón de ser de cada política individual.

Aplicación de políticas

Nuestras políticas son tan buenas como la fuerza y precisión de nuestra aplicación, y nuestra aplicación no es perfecta.

Nuestro desafío es identificar potenciales violaciones a nuestras normas para poder analizarlas. La tecnología es una aliada aquí. Usamos una combinación de inteligencia artificial y de reportes de las personas para identificar publicaciones, fotos u otro contenido que posiblemente viole nuestras Normas Comunitarias. Estos reportes son revisados por nuestro equipo de Operaciones Comunitarias, que trabaja 24/7 en más de 40 idiomas diferentes. Hoy en día, tenemos 7,500 revisores de contenido - más del 40% de personas que el año pasado.

Otro desafío es la aplicación correcta de nuestras políticas en el contenido que ha sido reportado. En algunos casos, nos equivocamos porque nuestras políticas no son lo suficientemente claras para nuestros revisores; cuando éste es el caso, trabajamos para resolver esos casos. En la mayoría de las ocasiones, sin embargo, cometemos errores porque los procesos involucran a personas, y las personas somos falibles.

Apelaciones

Debemos hacer más. Por ello, en el trascurso del año, brindaremos a las personas la posibilidad de apelar a nuestras decisiones. Como primer paso, hoy habilitamos la posibilidad de apelar a las publicaciones que fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gráfica.

Así es como funciona el proceso:

Si tu foto, vídeo o publicación ha sido eliminado por violar nuestras Normas Comunitarias, se te dará la opción de solicitar una revisión.

Las apelaciones son revisadas por nuestro equipo de operaciones comunitarias (siempre por una persona) en el plazo de 24 horas.

Si hemos cometido un error, el contenido será restaurado y notificaremos a la persona que solicitó la apelación.

Estamos trabajando para extender este proceso, incluyendo otros tipos de infracciones, brindando a las personas la oportunidad de proveer más contexto para que podamos tomar la decisión adecuada, y habilitando la opción de apelaciones no solo para el contenido que ha sido dado de baja, sino también para el contenido que fue reportado pero no fue removido de la plataforma. Creemos que el darle voz a las personas en este proceso es otro componente esencial para construir un sistema justo.

Participación Comunitaria y Comentarios

Nuestros esfuerzos para explicar, desarrollar y redefinir nuestras Normas Comunitarias dependen de la participación y aportes de personas de todo el mundo. En mayo, lanzaremos Facebook Forums: Community Standars, una serie de eventos públicos en Alemania, Francia, Reino Unido, India, Singapur y Estados Unidos, entre otros países, en donde conversaremos directamente con nuestra comunidad. Compartiremos más detalles de estas iniciativas próximamente.

Como nuestro CEO Mark Zuckerberg dijo a principios de año: “no podremos prevenir todos los errores o abusos, pero cometemos demasiados errores en la aplicación de nuestras políticas y en la prevención del abuso de nuestras herramientas”. La publicación de las guías internas de aplicación, así como también la expansión de nuestro proceso de apelación, creará un camino para mejorar. Son asuntos complejos y en lo sucesivo, queremos mejorar nuestros procesos.