Your address will show here +12 34 56 78

Tablet 2738232 1280

YouTube lleva varias semanas lidiando con la proliferación de vídeos inquietantes dirigidos a niños. Un contenido con el que admitía tener un problema. Las primeras medidas fueron el cierre de medio centenar de canales, la eliminación de miles de vídeos y la aplicación de cinco puntos para conseguir hacer de la plataforma un lugar más seguro para los niños. Lo que, en un principio, pretendía y pretende conseguir un espacio como YouTube Kids.

Dada la situación, la directora ejecutiva del servicio, Susan Wojcicki, ha querido dirigirse directamente a los usuarios a través de una publicación en el blog corporativo. En ella ha anunciado que durante el próximo año perseguirán el objetivo de logar que más de 10.000 moderadores humanos revisen las plataformas de Google, entre ellas YouTube, abordando el contenido que pueda violar sus políticas.

Pese a la automatización, los humanos siguen siendo necesarios

Según Wojcicki, «los revisores humanos siguen siendo esenciales para eliminar el contenido y entrenar a los sistemas de aprendizaje automático, ya que el juicio humano es fundamental para tomar decisiones contextualizadas». La CEO de YouTube asegura que desde junio sus equipos han revisado de forma manual casi dos millones de vídeos de temáticas extremistas violentas formando a su tecnología «para identificar vídeos similares en el futuro».

Este aprendizaje automático, al mismo tiempo, ha sido usado para echar una mano a los humanos que lo han entrenado asistiéndoles a la hora de «encontrar y cerrar cientos de cuentas y cientos de miles de comentarios» durante las últimas semanas. El sistema, desplegado a mediados de año, ha supuesto que los moderadores humanos eliminen casi cinco veces más vídeos que antes. «Hoy en día, el 98% de los vídeos que eliminamos por extremismo violento están marcados por nuestros algoritmos de aprendizaje automático», ha asegurado.

El aprendizaje automático y los equipos humanos incidirán todavía más en seguridad infantil y discursos de odio

Gracias al tándem formado por humanos y sistemas autónomos, y gracias sobre todo a estos últimos, según los datos que maneja Google el 70 % del contenido extremista violento se elimina dentro de las ocho horas posteriores a la carga y casi la mitad en dos horas. Los tiempos, dice, continúan mejorando.

Debido a los resultados positivos que han obtenido en este tipo de temáticas, este aprendizaje automático ha comenzado a entrenarse con otras áreas «de contenido desafiante», que incluye la seguridad de la infancia y los discursos de odio.

«He visto cómo [YouTube] ha ayudado a iluminar a mis hijos, dándoles una comprensión más grande y amplia de nuestro mundo y de los miles de millones que lo habitan», comentaba Wojcicki, «pero también he visto de cerca que puede haber otro lado, más preocupante, de la apertura de YouTube. He visto cómo algunos malos actores están explotando nuestra apertura para engañar, manipular, acosar o incluso hacer daño».

Dando la cara, Susan Wojcicki busca enfrentarse a esta polémica que les ha hecho perder anunciantes, atajar indirectamente otros preocupantes problemas y presentar el servicio de vídeos de Google como un lugar seguro en el que se batalla contra el contenido inapropiado. **La guerra continúa*.

En Genbeta | La gente ve cada vez más YouTube en su televisión: 100 millones de horas diarias

También te recomendamos


Más allá de apretar un botón: ¿sabes usar una batidora?


Reddit elimina grupos nazis y de extrema derecha tras actualizar sus reglas


YouTube tomará medidas para combatir la ola de vídeos pertubadores en YouTube Kids


La noticia

Tras lo ocurrido con YouTube Kids, Google pondrá a más de 10.000 personas a revisar contenido

fue publicada originalmente en

Genbeta

por
Toni Castillo

.

0