YouTube intenta limpiar el desorden que lo ha hecho rico

elfinanciero.com.mx

La directora ejecutiva de YouTube, Susan Wojcicki, estaba en una reunión en la sede de la firma en San Bruno, California, cuando escuchó el primer disparo. Algunos empleados corrieron a la salida, otros se atrincheraron.

Al día siguiente, 4 de abril, la policía de San Bruno dijo que la autora del tiroteo era Nasim Aghdam, de 39 años. Actuó sola, hirió a un puñado de transeúntes y luego se quitó la vida. Antes del ataque, Aghdam subía cientos de videos en YouTube; hablaba sobre veganismo, fisicoculturismo y derechos de los animales. Según la policía, estaba furiosa con YouTube porque la plataforma limitaba el alcance de su trabajo.

El incidente remató una pésima racha para YouTube, que ha saltado de una crisis a otra buscando contener las consecuencias de los impulsos más oscuros de su vasta y descentralizada comunidad creativa.

PewDiePie, comediante sueco y personalidad de YouTube, hizo una broma fuera de lugar sobre los nazis. El Times of London informó que muchas marcas financiaron involuntariamente a supremacistas blancos y extremistas islámicos al publicitarse junto a sus videos. Una serie de investigaciones mostraron que los algoritmos de la firma ofrecían videos grotescos a niños. Tras varios tiroteos masivos, teóricos de la conspiración inundaron la plataforma con videos que afirmaban falsamente que los activistas a favor del control de armas habían orquestado las masacres. Los papás de los niños asesinados en la primaria Sandy Hook presentaron una demanda por difamación contra Alex Jones, cuyo programa, InfoWars, tiene una presencia importante en YouTube.

Y está el caso de Logan Paul, un youtuber que en diciembre, mientras visitaba Japón, publicó un video que mostraba el cadáver de un suicida que halló en un bosque. Aunque se disculpó, días después publicó un video en el que electrocutaba a ratas muertas.

YouTube se ha jactado por años de que su actitud permisiva hacia los creadores de contenido era una cualidad, no un error. Fue pionera en una forma de entretenimiento masivo más democrático, diverso y auténtico que la televisión tradicional porque, decía, no había restricciones impuestas por productores, ejecutivos o reguladores.

Pero los incidentes se han vuelto difíciles de ignorar para sus mil 500 millones de usuarios mensuales. El año pasado, introdujo los cambios más radicales desde sus inicios, eliminó videos que consideraba inapropiados y le quitó publicidad a otros. Pero hasta la fecha, tanto el servicio de videos como su matriz, Google, han tenido problemas para articular de qué manera su plan mejorará las cosas.

Fue hasta hace poco que los ejecutivos de YouTube aceptaron explicar a Bloomberg Businessweek sus soluciones. Conversaciones con más de una docena de personas en YouTube (algunas pidieron no ser identificadas) revelan una empresa que aún lucha para alcanzar un equilibrio entre la libertad de expresión y la necesidad de la sociedad de protegerse.

“El mundo entero se ha vuelto menos estable y más polarizado”, dice Robert Kyncl, director de negocios de YouTube. “Debido a eso, es mayor nuestra responsabilidad”.

En entrevista en la sede de San Bruno, los ejecutivos a menudo recurrieron a una metáfora: YouTube es como una pequeña ciudad que creció tanto y tan rápido que sus sistemas municipales no han podido crecer a la par.

Pero esa infraestructura mínima fue una elección, señala Hunter Walk, quien dirigió el equipo de productos de YouTube de 2007 a 2011. Cuando los mercados se desplomaron en 2008, Google ajustó el presupuesto de YouTube y redujo el personal dedicado a la seguridad de la comunidad (aquellos que vigilan, por ejemplo, la sección de comentarios) para favorecer proyectos con un mejor potencial de ingresos. Mientras la supervisión disminuía, la cantidad de material publicado se multiplicó. En 2010, cada minuto se subían 24 horas de video (hoy, son unas 450 horas).

En 2010, la plataforma contrató al programador francés Guillaume Chaslot, quien comenzó a desarrollar algoritmos que pudieran emparejar mejor al usuario con videos que quisiera ver. Más tarde, los ingenieros de YouTube hallaron una fórmula simple y ganadora: cuando un usuario finalizaba un video, el sitio inmediatamente recomendaba otro sobre un tema similar. Chaslot dice que el equipo aprendió cómo aumentar la permanencia y alcanzar los objetivos publicitarios.

Con el tiempo, Chaslot detectó efectos adversos. La basura encontró su camino, si veías un video de un teórico de la conspiración, el algoritmo te propondría otro y otro y otro. “Entras a esa burbuja, pero no hay salida. Y a YouTube no le interesa encontrarla”, dice Chaslot, quien dejó la empresa en 2013 y ahora dirige AlgoTransparency.

A pesar del rápido crecimiento de YouTube los anunciantes tenían sus reservas y no generó muchos ingresos hasta 2010, cuando Robert Kyncl llegó de Netflix. En los años siguientes transformó la base de creadores amateur de una debilidad a una fortaleza. Los usuarios de YouTube ofrecían una reserva infinita de contenido sin costo, Kyncl se propuso identificar a los más populares y convertirlos en estrellas.

A diferencia de la televisión, donde casi todo está regulado, los youtubers pueden alcanzar influencia sin tener que reportar qué graban. Lo que exime a la empresa de responsabilidad por daños y perjuicios derivados de los videos que distribuye. Eso también deja a YouTube en una posición reactiva: cada vez que se desata una controversia, puede hacer poco más que tratar de apagar las llamas.

Suma que analistas de Morgan Stanley estiman que superarán los ingresos de YouTube.
En la larga cadena de fiascos, una cosa ha sido constante en YouTube, ha tenido problemas para explicar sus decisiones. Tardó varios días, por ejemplo, en sancionar el video japonés de Logan Paul. “Cuando la naturaleza del contenido es tan sensible y el video es popular, esperas que la compañía esté a la altura”, dice Aditi Rajvanshi, exempleado y quien ahora asesora a creadores de contenido.

Detrás de escena, los ejecutivos reconocieron que su megaciudad de precaria infraestructura necesitaba una presencia policial masiva. Wojcicki realizó una gira para escuchar y tranquilizar a los anunciantes; a fines de 2017 anunció que YouTube y Google designarían hasta 10 mil personas para frenar la propagación de contenido abusivo e información falsa (esas contrataciones representaron un aumento del 25 por ciento en la plantilla de moderadores). El sitio también prometió que un regulador humano revisaría cada video de su programa para anunciantes Google Preferred antes de adjuntarle un anuncio.

A semejanza de sus pares de Silicon Valley, los ejecutivos de YouTube siguen convencidos de que la solución a largo plazo no es el Homo Sapiens, sino la tecnología. Durante los primeros días de la plataforma, abundaban videos pirateados compartidos sin la autorización del titular de los derechos. Con el tiempo, YouTube creó un sistema automatizado para eliminar las violaciones de copyright. La idea es que algún día los humanos puedan entrenar a las máquinas para que detecten también la desinformación, la obscenidad y el abuso.

                                                         
Compartir

Editora. Copyright © Todos los derechos reservados Noticias Puerto Vallarta. De no existir previa autorización, queda expresamente prohibida la publicación, reproducción y cualquier otro tipo de uso de los contenidos de este sitio.