Hot Posts

6/recent/ticker-posts

Ad Code

Fallas en el Algoritmo de Youtube

Tamaulipas.- Me encontré con una reveladora punta del iceberg que sacudirá próximamente al popular canal de videos. 

Se trata de Guillaume Chaslot, un ex-colaborador de YouTube que trabajó en el algoritmo que lanza recomendaciones en base a los intereses de los usuarios. 

Lamentablemente sobre estas novedosas "recomendaciones" resultantes del algoritmo , tenemos que decir que no han sido del agrado de las mayorías, a tal grado que  han causado problemas serios al sugerir misteriosamente a los usuarios, videos de teorías conspirativas, noticias falsas e incluso darle material a pedófilos.

Chaslot ha cuestionado estas recomendaciones de cambio de Youtube al considerarlas tóxicas (más puedes consultarlo aquí TheNextWeb).

Guillaume Chaslot, un ex-colaborador de YouTube 
Sobre esto, en una conferencia dictada por el programador , comentó que las recomendaciones de YouTube estaban diseñadas para volverse adicto a la plataforma.

“ No es intrínsecamente horrible que YouTube use inteligencia artificial para recomendarte un video, porque si la IA está bien sintonizada, puede ayudarte a obtener lo que deseas. Eso sería increíble. Pero el problema es que la IA no está diseñada para ayudarte a obtener lo que deseas, sino que está diseñada para hacerte adicto a YouTube. Las recomendaciones fueron diseñadas para hacerte perder tu tiempo.

El informático explicó que el tiempo de observación de un video es la métrica que utiliza el algoritmo para determinar cuáles son las recomendaciones que debe realizar. 

En ese sentido, aunque eso podría ser genial para una empresa que intenta vender anuncios publicitarios, Chaslot asegura que youtube no refleja necesariamente lo que el usuario quiere. 

De hecho, sostiene que por eso el contenido sensacionalista o el que está hecho para dividir opiniones es recomendado ampliamente, incluyendo a las teorías de conspiración como el terraplanismo o noticias falsas.


El contenido atractivo es recomendado, lo cual es malo.
Chaslot observó tambien que el contenido divisivo y sensacional a menudo se recomienda ampliamente: teorías de conspiración, noticias falsas, videos sin formato, por ejemplo. 

Básicamente, cuanto más cerca se mantiene el borde de lo que está permitido bajo la política de YouTube, más compromiso se consigue ( Vea la gráfica de arriba). 

Evidentemente Google no está de acuerdo.
Mark Zuckerberg
Sobre esta serie de agudos señalamientos, podemos citar lo que Mark Zuckerberg admitió el año pasado que el contenido límite era más atractivo

Google no quiso responder a las preguntas  sobre si lo mismo sucedía con YouTube, pero el portavoz de la compañía que los estudios mostraron que las personas realmente se involucraban más con contenido de calidad.

De acuerdo al creador de Facebook  existe un campo académico emergente sobre la equidad algorítmica en la intersección de la ética y la inteligencia artificial.  

Asegura que el objetivo es desarrollar un marco analítico riguroso y herramientas computacionales para garantizar que los cambios que hacemos se ajusten a una definición clara de imparcialidad

Por su parte Chaslot dice que esto es algo que las grandes empresas de tecnología tendrán que debatir entre sí, pero en base a su propia experiencia, está más inclinado a creer a Zuckerberg en este momento.

"Tenemos que darnos cuenta de que las recomendaciones de YouTube son tóxicas y pervierten las discusiones cívicas", dice Chaslot.

 "En este momento, el incentivo es crear este tipo de contenido límite que sea muy atractivo, pero no prohibido". 

Básicamente, cuanto más extravagante sea el contenido, mayor será la probabilidad de que la gente siga mirando, lo que a su vez hará que sea más probable ser recomendado por el algoritmo.

Comments

facebook