YouTube ha revelado el alcance de su problema de video, con un total de 8.3 millones de videos eliminados del sitio en octubre a diciembre del año pasado..

De estos videos, unos 6,6 millones de estos fueron marcados por un algoritmo. El resto fue recogido por ojos humanos que suponemos que necesitan un poco de blanqueo ahora mismo.

El informe de transparencia de cumplimiento de las Normas de la comunidad de YouTube destaca lo que hace Google para asegurarse de que YouTube sea un lugar más seguro para visitar. Pero también revela la gran controversia que podría tener el sitio si no contara con estas medidas, medidas que muchos aún piensan que no van lo suficientemente lejos como para detener el flujo de imágenes odiosas o abusivas..

El informe indica que de los videos eliminados, el 75% nunca fue visto por el público. Dale la vuelta a esto, sin embargo, y significa que un cuarto fue.

Es el público que está haciendo gran parte del trabajo que debería hacer YouTube, actuando como moderadores del sitio al marcar el contenido cuando sea necesario. Actualmente, el 30% de lo que está marcado es "contenido sexual", mientras que el 26% está etiquetado como "spam o engañoso". El contenido "odioso o abusivo" se registra en un 15%, con un contenido "violento o repulsivo" que representa el 13% de los videos marcados.

bandera roja

En el informe, YouTube explica un poco más acerca de su programa Trusted Flagger, que está disponible para las agencias gubernamentales y otras instituciones. Esto, para YouTube, es un programa prioritario, pero los videos pasan por los mismos controles que si un usuario regular hubiera marcado un video, solo tienen prioridad..

“El programa Trusted Flagger fue desarrollado para permitir a los usuarios altamente eficaces alertarnos sobre el contenido que infringe nuestras Normas de la comunidad a través de una herramienta de informes masivos.,” dice el informe.

“Las personas con altos índices de precisión de señalización, ONG y agencias gubernamentales participan en este programa, que brinda capacitación para hacer cumplir las Normas de la comunidad de YouTube..”

Sin embargo, la mayoría de las verificaciones de video las realiza AI, algo que es poco probable que cambie dada la gran cantidad de contenido que se marca, aunque se dice que YouTube está reclutando a miles de personas para ayudar en este trabajo.

“YouTube desarrolló sistemas automatizados que ayudan en la detección de contenido que puede violar nuestras políticas. Estos sistemas automatizados se centran en las formas más graves de abuso, como la explotación infantil y el extremismo violento.,” lee el informe.

“Una vez que el contenido potencialmente problemático es marcado por nuestros sistemas automatizados, la revisión humana de ese contenido verifica que el contenido realmente viola nuestras políticas y permite que el contenido se use para capacitar a nuestras máquinas para una mejor cobertura en el futuro.

“Por ejemplo, con respecto a los sistemas automatizados que detectan contenido extremista, nuestros equipos han revisado manualmente más de dos millones de videos para proporcionar grandes volúmenes de ejemplos de capacitación, que mejoran la tecnología de marcado de aprendizaje automático..”

Continúa señalando que, en 2017, los sistemas automatizados ayudaron a identificar contenido extremista más violento para revisión humana y sus avances en el aprendizaje automático hicieron que casi el 70% del contenido de extremismo violento se eliminara en ocho horas, y la mitad en dos horas. . Está utilizando lo que aprendió de esto para lidiar con otro contenido problemático..

Cuando se trata de marcar este tipo de videos, India encabeza la lista del país con el contenido más marcado, con Estados Unidos en el segundo lugar: el Reino Unido es el sexto..

Si desea ver cómo funciona el sistema de marcado de YouTube de una forma extrañamente linda, diríjase al siguiente video..

  • Los niños de YouTube no están bien y esto necesita cambiar, rápido.