Youtube

Desde las elecciones en 2016, las compañías de social media están viendo como son escrutadas debido a la incapacidad para proteger la seguridad o la privacidad de sus usuarios. Esto sucede porqué, a menudo, es muy complicado manejar la protección de sus plataformas con el objetivo de no ser explotadas por servidores extranjeros, estafadores o teóricos de la conspiración.

Facebook ha ido encadenando escándalo tras escándalo y la compañía Youtube tampoco se ha librado de ello. Las últimas investigaciones han encontrado vínculos preocupantes entre los algoritmos de Youtube que determinan que hay bastante contenido extremista en línea. La compañía también ha sido duramente criticada por no monitorear el contenido infantil.

Una reciente investigación de Bloomberg advierte de que los ejecutivos y empleados de la compañía, han estado al tanto de estos problemas durante años. Sin embargo, han habido muchos intentos por parte de los empleados que tenían el fin de arreglar este problema, pero los ejecutivos no han permitido solucionarlos para no perder el compromiso del usuario.

Las puntuaciones de los usuarios en Youtube y Google intentaron alertar de ese contenido tóxico que ha proliferado en la plataforma. Se formularon varias propuestas para solucionar estas cuestiones y todas fueron denegadas por la compañía.

La compañía fijó uno de sus objetivos de negocio por encima de otros: «El compromiso». Este consiste en la medición de las visitas, el tiempo dedicado y las interacciones con los vídeos en línea. Las últimas conversaciones con trabajadores de la empresa revelan que no están dispuestos a actuar sobre estas alarmas internas para no perjudicar el compromiso del usuario con Youtube.

Sin embargo, Youtube está empezando a tomar algunas medidas restrictivas en cuanto al contenido. La compañía tomará medidas contra personas que difundan contenido falso y recientemente, anunció que eliminaría la monetización de los vídeos contra la vacunación. Según Micah Schaffer, que empezó a trabajar en Youtube en 2006, comentó acerca de los contenidos de vacunación: «Youtube nunca debería haber permitido que teorías de conspiración peligrosas se convirtieran en una parte tan dominante de la cultura de la plataforma. Es posible que estemos perdiendo parte de nuestros ingresos».

A partir de 2009, Google asumió un control más estricto de Youtube, y el objetivo de la compañía era que los usuarios pasaran más horas en línea viendo vídeos. Los creadores de contenido se dieron cuenta de que un escándalo podría cumplir este objetivo ya que hay estudios que demuestran que el contenido que hace enfadar al usuario es el que se convierte en más viral. Esto fue lo que empujó a los creadores de contenido a confeccionar deliberadamente material que no era verídico, pero cada intento fue censurado por la compañía.

Mientras tanto, Neal Molan, Director de Poductos en Youtube, afirmó que la compañía no tenía intención de dirigir a los usuarios hacia contenidos más extremos y que el contenido extremo no genera un mayor grado de compromiso o liderazgo por más tiempo en la plataforma.

Esta versión de los acontecimientos no cuadra en absoluto con el informe de Bloomberg. Mientras que los empleados intentaron alarmar a la compañía sobre lo que denominaron «mala viralidad», Youtube creó un nuevo sistema de pago por creadores que habría monetizado explícitamente el compromiso, lo cual agravó el problema. Los vídeos que se volvieron virales basados en contenidos escandalosos, se habían visto favorecidos en cuanto a las ganancias incluso más de los que ya lo son.

Los informes de Bloomberg son el ejemplo de como Silicon Valley mintió sobre la capacidad, la calidad y los objetivos de los algoritmos que implementa. Los esfuerzos por intentar mantener limpio el canal Youtube Kids, fueron rechazados en favor de los vídeos seleccionados algorítmicamente.

Esto llevó al desastre durante el año 2017, cuando los padres por fin se dieron cuenta del contenido que estaban consumiendo. Más recientemente, la compañía tuvo que censurar comentarios debido a que descubrieron a una red de pedofilia intentando delinquir con el contenido para menores.

La compañía ha empezado a resolver sus problemas. Una de sus estrategias ha sido la de promover buenas noticias que informan sobre teorías de conspiración, pero llegan tarde después de haber ignorado decididamente y durante años los problemas de la empresa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Publicar comentario