El dilema de los algoritmos de recomendación: ¿Tus gustos personalizados o las opiniones de la mayoría?
Empresas como las GAFA (Google, Apple, Facebook y Amazon), Spotify y Netflix, tratan de ofrecer novedades personalizadas a los usuarios mediante el uso de algoritmos. Dos investigadores españoles demuestran que incluso en esas personalizaciones el peso de las mayorías es muy importante.
Los algoritmos de recomendación son mecanismos clave en el engranaje del consumo digital. Si aciertan, logran que los usuarios pasen más y más tiempo en plataformas como YouTube, Amazon, Netflix, Spotify…, abriendo la puerta a más publicidad o más ventas directas. Pero, ¿cómo funcionan?
En teoría, gran parte del éxito de estos algoritmos depende de la personalización. Cada persona es un mundo, se dice, y por eso el algoritmo debe aprender de los gustos de cada uno de los usuarios para ofrecerle lo que realmente le interesa. Pero, por otro lado, el éxito mayoritario de una canción, película, vídeo… también es un indicio clave. ¿Hasta qué punto el peso de las mayorías debe anteponerse a la personalización de los algoritmos?
Pablo Castells y Rocío Cañamares son dos ingenieros informáticos que, desde la Universidad Autónoma de Madrid, han tratado de responder a esta pregunta con su estudio ‘¿Debería seguir a la masa? Un análisis probabilístico de la efectividad de la popularidad en sistemas de recomendación?’ (‘Should I follow the crowd? A probabilistic analysis of the effectiveness of popularity in recommender systems’). Su trabajo fue reconocido como el mejor ‘paper’ en SIGIR 2018, un congreso internacional y anual sobre tratamiento de la información que este julio se celebró en Michigan, Estados Unidos.
La personalización es, en principio, lo que más satisface al usuario, pero ¿hasta qué punto es imprescindible insistir en esa vía? “Si la mayoría funciona, ¿por qué suprimirla?”, se pregunta Castells, profesor titular de la Escuela Politécnica Superior de la Autónoma. Evidentemente, la recomendación busca la novedad, descubrir al usuario algo que no conoce, y lo mayoritario es por definición muy poco novedoso. Por tanto, un algoritmo que recomendase escuchar a Madonna y visitar en París la Torre Eiffel sería inútil.
"Existen ya trabajos pioneros en el mundo financiero, donde el concepto de ‘fairness’ está explícitamente codificado en la inteligencia artificial"
Al mismo tiempo, “los investigadores nos hemos dado cuenta de que las recomendaciones que suelen hacer los algoritmos supuestamente personalizados tienden a ser de gustos mayoritarios”, explica Castells.
“Hay un sesgo hacia lo popular en los algoritmos personalizados que aparentemente mejor funcionan”, dice el profesor, y su reconocida investigación concluye que la mayoría ‘recomienda’ con acierto cuando el algoritmo también tiene en cuenta el gusto previo del usuario.
Además, el algoritmo da en el clavo cuando ese ‘voto de la masa’ es el único factor que entra en la fórmula. Los fallos, las distorsiones, aparecen cuando el algoritmo también juega con terceros factores, como por ejemplo, una acción publicitaria, además de con la mayoría y el gusto previo del usuario.
No hay por lo tanto una conclusión categórica, pero charlando con Castells y Cañamares en un tranquilo despacho de la Universidad Autónoma (Madrid) sí queda claro que probablemente los gustos personales son menos decisivos de lo que a los usuarios les gusta creer. “No soy antropólogo”, explica Castells, “pero no hay que olvidar que las mayorías se forman por imitación, y la imitación es un mecanismo vital para la especie humana. En los primeros años de tu vida te dedicas a imitar lo que estás viendo, y gracias a eso absorbes milenios de civilización, aprendes un idioma y, en definitiva, sobrevives”.
El gran poder, y la gran responsabilidad, del algoritmo
La difusión de ‘fake news’ en las elecciones presidenciales estadounidenses de 2016, que ha puesto en el punto de mira a Facebook y su algoritmo, ha calentado el debate sobre el poder de los algoritmos. Sus ‘artesanos’ –ingenieros y científicos– crean unas fórmulas que buscan un objetivo empresarial: más clics, más usuarios, más tiempo en las plataformas.
El problema es que estas premisas pueden tener consecuencias peligrosas. Si el algoritmo de Facebook detecta clics en una ‘noticia’, por muy disparatada que sea, (como el Pizzagate, la falsa red de pederastia relacionada con Hillary Clinton con centro en una pizzería de Washington DC), ofrece más contenidos de este tipo, creando una burbuja de ‘fake news’. De la misma manera, YouTube tiende a ofrecer más y más contenidos extremos y radicales a los usuarios que ven vídeos violentos.
¿Es el algoritmo perverso? Al revés, afirma Cañamares: “Es muy inocente: ve que te gusta una cosa y te ofrece más y más de lo mismo, sin darle más vueltas. Ahí es donde debería entrar el ingeniero, para matizar”.
“La métrica que más interesa a la gente de empresa es el dólar, las ventas”, amplía Castells, “pero cada vez hay más consciencia de la necesidad de incluir el criterio de ‘fairness’”, que se puede traducir por justicia o ecuanimidad. Es decir, eliminar sesgos raciales, radicales o sexistas en las recomendaciones de algoritmos, o tratar de fomentar la diversidad de opiniones en temas polémicos.
De hecho, existen ya trabajos pioneros en el mundo financiero, donde el concepto de ‘fairness’ está explícitamente codificado en la inteligencia artificial diseñada; y por lo tanto es medible y auditable. Un ejemplo de ello es el trabajo 'Reinforcement Learning for Fair Dynamic Pricing', llevado a cabo por BBVA Data & Analytics. En este artículo, los científicos de datos de BBVA detallan cómo se realiza un proceso de asignación de precio dinámico (conocido como ‘dynamic pricing’) a través de un modelo de IA que incluye “principios de justicia basados en la equidad” para evitar la discriminación. En el trabajo, los científicos proponen una métrica destinada a analizar “cómo de justas” son las políticas de precio aplicadas en tiempo real e integrar estas medidas en el proceso de optimización. Por lo tanto, gracias al trabajo es posible controlar y auditar la justicia del algoritmo en cada instante.
Por tanto, los algoritmos son como una pócima con muchos ingredientes: el gusto de la mayoría, un puñado de personalización y nuevas consideraciones, como el criterio de ‘fairness’, para evitar distorsiones.
Castells compara el trabajo de desarrollar un algoritmo de recomendación con el de fabricar un prototipo de un coche con miles de tuercas que se van ajustando poco a poco, incluso en condiciones reales. “La empresa tecnológica que se llevará el gato al agua será la que tenga los ingenieros más brillantes detrás de sus algoritmos y al mismo tiempo se pueda permitir más trabajo de supervisión, de ajuste, de corrección”, pronostica.
BBVA Data & Analytics también realizó recientemente una pieza de divulgación centrada en explicar cómo funcionan los distintos sistemas de recomendación en las conocidas plataformas digitales y cuál podrá ser su posible extensión a otros sectores de actividad. El resultado fue ‘RecSys, una recomendación en la era del machine learning’, un trabajo en forma de ‘fábula moderna’ que explora la posibilidad de que los algoritmos encuentren entre los datos “conexiones inesperadas” para ofrecer a los usuarios recomendaciones basadas en “relaciones no lineales” que puedan recoger de forma más precisa la forma en la que las personas relacionan conceptos.