La batalla de YouTube para eliminar videos que violan las reglas de comunidad
YouTube está tratando de limpiar su plataforma una vez más. El lunes, la compañía propiedad de Google dijo que eliminó más de 8 millones de videos entre octubre y diciembre por violar las reglas de la comunidad. La mayoría de los videos eran spam o personas que intentaban cargar "contenido para adultos".
La información se incluyó en el primer informe trimestral de YouTube sobre cómo se están aplicando las pautas de la comunidad.
"Esta actualización periódica ayudará a mostrar el progreso que estamos logrando en la eliminación de contenido infractor de nuestra plataforma", dijo el sitio de intercambio de videos en una publicación de blog.
Según el informe, las computadoras detectan la mayoría de los videos que terminan siendo eliminados. El informe menciona que 6.7 millones de videos fueron marcados por primera vez para su revisión por las máquinas, no por los humanos. De ellos, el 76% fueron retirados antes de recibir cualquier opinión de los usuarios.
YouTube ha enfrentado quejas de críticos y anunciantes que dicen que la compañía tiene problemas para abordar contenido ofensivo en su sitio.
Lee: Facebook divulga las reglas con las que vigila las publicaciones
La semana pasada, una investigación de CNN encontró anuncios de más de 300 compañías y organizaciones que operaban en canales de YouTube promocionando a nacionalistas blancos, nazis, pedofilia, propaganda de Corea del Norte y otros contenidos controvertidos o extremistas. En el pasado, los anuncios aparecían en videos de ISIS y otros contenidos extremistas y de odio.
"Creo que es un problema subyacente con el modelo comercial de [YouTube]", dijo Nicole Perrin, analista senior de eMarketer, a CNN la semana pasada. "Durante años [ellos] alentaron a los creadores a poner esencialmente casi cualquier cosa en el sitio. Eso llevó a una explosión de contenido ".
YouTube tiene más de 1,000 millones de usuarios y esos usuarios miran 1,000 millones de horas de video todos los días, lo que hace que YouTube sea un lugar difícil para la policía.
Daniel Ives, jefe de investigación tecnológica de GBH Insights, dijo que el nuevo informe de la compañía sobre sus esfuerzos para eliminar videos problemáticos es un paso en la dirección correcta.
"YouTube y Google se enfrentan a presiones crecientes para intensificar su proyección y marcar esfuerzos en torno a contenido inapropiado", dijo.
"La transparencia es clave en este tema candente y estas publicaciones trimestrales en el blog son una señal de que Google se está enfocando agresivamente en esta área en los próximos años".
Lee: Twitter te dejará decidir qué información quieres compartir
Google se ha comprometido a contratar 10,000 empleados en toda la compañía para fines de este año para abordar el contenido "violador".
YouTube dijo el lunes que ha llenado la mayoría de los puestos adicionales necesarios para alcanzar su contribución a esa meta.
También agregó que añadirá más detalles a los informes trimestrales antes de fin de año, como información sobre comentarios, la velocidad de eliminación y las razones de eliminación de políticas.
YouTube también anunció un panel de "Historial de informes" donde los usuarios pueden verificar el estado de los videos que marcaron para su revisión.
El lunes, la empresa matriz de Google, Alphabet, dijo que las ganancias alcanzaron los 9,400 millones de dólares en los primeros tres meses de 2018, un gran aumento comparado con los 5,400 millones de dólares que reportó hace un año.