InfoWeb

La inteligencia artificial no es inocente

Cómo el algoritmo de YouTube distorsiona la verdad

Un ex ingeniero de la empresa propiedad de Google revela cómo el sistema de recomendación de la web de videos online promueve clips facciosos y conspirativos.


Hay 1.500 millones de usuarios de YouTube en el mundo, que es más que el número de hogares que poseen televisores. Lo que ven los usuarios de Youtube es modelado por un algoritmo que clasifica miles de millones de videos para identificar solo 20 clips para recomendar ver después del que está  viendo ahora.

Si ha visto navegar a un niño por Youtube, sabrá que la principal fuerza impulsora para mantenerlo enganchado son esos videos que aparecen al costado del que está viendo y que le “recomienda” que seguir viendo.

Guillaume Chaslot es un ex empleado de Youtube que  tiene un doctorado en ciencias de la computación y trabajó en el algoritmo de recomendación de la empresa en 2010, y dice que el algoritmo  está  programando  para optimizar una métrica clave: mantener a los espectadores en el sitio el mayor tiempo posible para maximizar el “tiempo de reproducción”.

Los propios expertos de la compañía dicen que el algoritmo es el motor más importante para el  crecimiento que tuvo  YouTube. En una de las pocas explicaciones públicas sobre cómo funciona la fórmula, un documento académico  que esboza las profundas redes neuronales del algoritmo, elaborando un amplio conjunto de datos sobre los videos y las personas que los miran, los ingenieros de YouTube lo describen como uno de los de “mayor escala” y los sistemas de recomendación industrial más sofisticados que existen “.

Pero últimamente, este algoritmo se ha convertido en uno de los más controvertidos.  Expertos como Chaslot dicen que el algoritmo promueve teorías de conspiración sobre el tiroteo masivo en Las Vegas e incentiva, a través de recomendaciones, una subcultura creciente que apunta a niños para exponerlos a  contenido perturbador como caricaturas falsas en las que el personaje infantil británico Peppa Pig se come a su padre o bebe lavandina.

El algoritmo de recomendación de Youtube  ha puesto en la pantalla de los más pequeños videos lascivos y violentos aun cuando estaban en YouTube Kids, una aplicación dedicada para niños y que pretende protegerlos. Un creador de YouTube a quien se le prohibió generar ingresos publicitarios por sus videos extraños -que mostraban a sus hijos recibiendo vacunas contra la gripe, quitándose cerumen y llorando por las mascotas muertas- le dijo a un periodista  que solo había respondido a las demandas del algoritmo de Youtube. “Eso es lo que nos hizo famosos  y populares”, dijo. “Aprendimos a alimentarlo y hacer todo lo posible para complacer al algoritmo”.

Google la empresa propietaria de Youtube  ha respondido a estas controversias de una manera tradicional y no tecnológica: expandió su ejército de moderadores humanos, elimino los videos ofensivos de YouTube identificados por los periodistas y quito  la monetización de los canales que los crean. Pero ninguno de esos movimientos ha disminuido la creciente preocupación de que algo se haya torcido profundamente con la inteligencia artificial que impulsa a YouTube.

El algoritmo de recomendación de Youtube parece haber tomado vida propia y lo único que Google puede hacer es vigilarlo.

Pero si el algoritmo de recomendación de YouTube realmente ha evolucionado y tomado casi vida propia para promocionar contenido perturbador  y torcido, ¿cómo fue que sucedió esto?

Esta no es una pregunta  fácil de responder. Al igual que todas las grandes compañías tecnológicas, YouTube no nos permite ver los algoritmos que configuran nuestras vidas. Son fórmulas secretas, software propietario, y solo ingenieros selectos están encargados de trabajar en el algoritmo. Guillaume Chaslot  fue uno de esos ingenieros.

Durante los tres años que trabajó en Google, estuvo varios meses con un equipo de ingenieros de YouTube trabajando en el sistema de recomendaciones. La experiencia lo llevó a concluir que las prioridades que YouTube da a sus algoritmos están peligrosamente sesgadas.

“YouTube es algo que se parece a la realidad, pero está distorsionado para hacerte pasar más tiempo en línea”, dice. “El algoritmo de recomendación no está optimizando lo que es veraz, equilibrado o saludable”.

Chaslot fue despedido por Google en 2013, supuestamente por problemas de rendimiento. Él insiste en que fue despedido después de agitarse por el cambio dentro de la empresa, usando su tiempo personal para formar equipos con ingenieros de ideas afines para proponer cambios que puedan diversificar el contenido que la gente ve.

Estaba especialmente preocupado por las distorsiones que podrían derivarse de un enfoque simplista al mostrar a las personas videos que consideraban irresistibles, creando burbujas de filtros, por ejemplo, que solo mostraban a las personas contenido que refuerza su visión del mundo existente. Chaslot dijo que ninguno de sus arreglos propuestos fue asumido por sus gerentes. “Hay muchas maneras en que YouTube puede cambiar sus algoritmos para suprimir noticias falsas y mejorar la calidad y diversidad de videos que las personas ven”, dice. “Traté de cambiar YouTube desde adentro, pero no funcionó”.

La “Economía de la atención” y la “economía de los datos y gustos personales” ya han generado fortunas inigualables en las últimas décadas. Los algoritmos que calculan los gustos de las personas y utilizan sus datos para entregarle contenido y publicidad de acuerdo a su perfil son el motor de esas fortunas. No es de esperar que este conjunto de números datos he instrucciones hayan sido creados inocentemente.

Comentarios