Susan Wojcicki, quien se ha desempeñado durante los últimos nueve años como directora ejecutiva de YouTube, dejará su cargo. En una carta enviada a los empleados, Wojcicki anunció que renunciará a su posición como CEO para enfocarse en su familia y otros proyectos personales. Tras su partida, la empresa será dirigida por Neal Mohan, quien actualmente es director de productos.
La decisión de Susan Wojcicki es importante si consideramos su impacto en la empresa. La actual CEO de YouTube estuvo desde el comienzo con Larry Page y Sergey Brin e incluso les rentó su cochera en Silicon Valley hace 25 años. Posteriormente, se unió a Google como la empleada número 16, donde impulsó el negocio de anuncios en línea en el popular buscador.
Wojcicki fue pieza clave en los productos que catapultaron a Google a convertirse en el monstruo que es hoy en día. Sus primeros años estuvieron ocupados en la creación del sistema de búsqueda de imágenes, videos y libros, así como también en tareas de gestión de marketing. Tal vez el aporte más significativo de su carrera es la creación de AdSense, el programa de anuncios de la tecnológica del cual se hizo cargo por casi 15 años.
La empleada número 16 también participó en la compra de DoubleClick y YouTube. Fue Susan Wojcicki quien sugirió a la empresa adquirir el popular servicio de videos mientras coordinaba esfuerzos en Google Video. Años más tarde tomaría las riendas de la plataforma, diseñando estrategias que generarían ganancias multimillonarias a Alphabet.
Susan Wojcicki confirmó que continuará apoyando al equipo en la etapa de transición, entrenando al personal y reuniéndose con creadores. Posteriormente, asumirá el papel de asesora de Google y Alphabet. "Y más allá de eso, seguiré presente, así que tendré la oportunidad de agradecer a las miles de personas de toda la empresa y del mundo con las que he trabajado y de las que he aprendido", dijo.
El YouTube de Susan Wojcicki estuvo cargado de polémicas
Si bien su tiempo como directora ejecutiva rindió frutos para Google, su gestión se ha visto envuelta en polémicas. YouTube ha sido acusada de hacer poco para frenar el contenido dañino en su plataforma. Videos con teorías conspirativas, radicalización o acoso son una constante cada día para el sistema de moderación.
Tal vez uno de los casos más preocupantes se dio en 2019, cuando un youtuber expuso un fallo preocupante en el algoritmo de recomendación. Matt Watson compartió en Reddit una serie de videos de menores con poca ropa. En ellos, los pedófilos tenían conversaciones indebidas o compartían enlaces a webs de pornografía infantil. Aunque la IA de Google identificó y borró algunos mensajes, muchos de ellos seguían publicados y los videos alcanzaron la sección de contenido recomendado.
Semanas antes, YouTube estuvo en el ojo del huracán por negarse a eliminar la cuenta de un youtuber acusado de pornografía infantil. La empresa argumentó que el contenido del canal no estaba asociado a los crímenes de los que se le acusaba. No obstante, la presión fue mayor y la empresa dio marcha atrás a su decisión inicial, cerrando la cuenta del pedófilo.
En una carta trimestral enviada a los creadores, Susan Wojcicki abordó los problemas con el contenido y explicó por qué YouTube permite que algunos videos se mantengan en la plataforma. La directora ejecutiva mencionó que vale la pena permitir videos con los que la empresa no está de acuerdo, ya que "escuchar una amplia gama de perspectivas nos convierte en una sociedad más fuerte e informada".
"Los videos problemáticos no superan el 1% en la plataforma"
Según Wojcicki, los videos problemáticos no superan el 1 por ciento del contenido que existe en YouTube. Pese a que es una fracción menor, lo cierto es que el impacto que generan es preocupante y le ha generado problemas legales a la empresa. Uno de los ejemplos más recientes es el caso González v. Google LLC, una demanda que ya se estudia en la Suprema Corte de Estados Unidos.
Los afectados acusan a Google de ser parcialmente responsable de la muerte de Nohemí González, una víctima de los atentados terroristas de París. Según sus familiares, el algoritmo de YouTube recomendó videos de reclutamiento para el ISIS, lo que derivó en que se llevaran a cabo los ataques en 2015. El caso fue atraído por la Suprema Corte y podría cambiar el futuro de los algoritmos de recomendación impulsados por inteligencia artificial.