Andina

Facebook incrementa detección automática de mensajes de odio

La prevalencia (contenido infractor visto por los usuarios) ha disminuido positivamente en lo que va del año.

Un reciente informe difundido por Facebook revela que el número de visualizaciones de contenidos con discurso de odio ha disminuido en la red social, algo que atribuyen a la mejora de los algoritmos y tecnología que emplean. Foto: AFP

Un reciente informe difundido por Facebook revela que el número de visualizaciones de contenidos con discurso de odio ha disminuido en la red social, algo que atribuyen a la mejora de los algoritmos y tecnología que emplean. Foto: AFP

10:57 | Lima, oct. 26.

Cuando la red social comenzó a compartir sus métricas sobre discurso de odio, solo 23.6% del contenido que se eliminó fue detectado proactivamente por los sistemas y algoritmos, pues la mayoría del contenido erradicado fue detectado por los propios usuarios. Ahora, este número se ha incrementado hasta llegar al 97%, según el reciente "Informe de Cumplimiento de las Normas Comunitarias".

Facebook reveló que la prevalencia del discurso de odio en la plataforma es de cerca de 0.05% del contenido visto, o cerca de cinco vistas de cada 10,000, una disminución de casi 50% en los últimos tres trimestres. La red social considera que la implementación de nuevas herramientas tecnológicas y funciones han contribuido a este decrecimiento en las cifras.

"La prevalencia nos dice la cantidad de contenido infractor que la gente ve debido a que no lo detectamos. Es la forma más objetiva en la que evaluamos nuestro progreso, ya que muestra el panorama más completo. Mostramos la prevalencia en nuestro Informe de Cumplimiento de nuestras Normas Comunitarias cada trimestre y la describimos en nuestro Centro de Transparencia", menciona el informe.

¿Cómo se usa la tecnología para detectar faltas a las normas de comunidad?

En ese sentido, la red social indicó que se emplea la tecnología para reducir la prevalencia del contenido de odio en diversas formas: detección previa, supervisión y eliminación, en caso viole las políticas y términos de uso. Además, señaló que esto ayuda a reducir la distribución del contenido posiblemente infractor.

En 2016, por ejemplo, la moderación de contenido dependía principalmente de los reportes de usuarios, revela la compañía. Ahora, la tecnología permite identificar proactivamente contenido infractor antes de que las personas lo reporten


Facebook se defiende acusaciones

Tras las recientes controversias por la forma en cómo funcionan los algoritmos y funciones tecnológicas de Facebook, la red social afirmó que éstas son usadas para mejorar la convivencia de los usuarios dentro de la red social, pues "no quieren ver contenido de odio en sus plataformas", según el comunicado.

"Los datos tomados de documentos filtrados están siendo usados para afirmar que la tecnología que usamos para combatir el discurso de odio es inadecuada y que deliberadamente interpretamos erróneamente nuestro progreso. Esto no es cierto. Estos documentos demuestran cómo trabajamos: identificamos problemas, pensamos en soluciones y luego nos concentramos en arreglarlos", sostienen.

Asimismo, Facebook puntualizó que "la prevalencia es la métrica más importante a utilizar porque muestra cuánto discurso de odio se ve realmente en Facebook". Por ello, invitó a no fijarse únicamente en la cantidad de contenido eliminado, pues la consideran una manera incorrecta de medir las acciones contra el discurso de odio.

Otras de las medidas abarca la disminución de la distribución del contenido que, si bien no es plenamente detectable como discurso de odio, sí parece asemejarse a este. Por esta razón, aunque no se elimina, si se evita recomendar Grupos, Páginas o personas que comúnmente publican contenido que probablemente violan las políticas de la red social.

"Tenemos umbrales altos para la eliminación automática de contenido. Si no los tuviéramos, correríamos el riesgo de cometer más errores sobre el contenido que parece un discurso de odio pero no lo es, dañando a las personas que buscamos proteger, como quienes están compartiendo sus experiencias con el discurso de odio o lo están condenando", anotó Facebook. 

Revisa más noticias sobre ciencia, la tecnología y la innovación en la Agencia Andina.

Más en Andina: (FIN) NDP / IVM

Publicado: 24/10/2021
Loading...