Innovación y tecnología para combatir los sesgos de la inteligencia artificial
Pese a sus beneficios, la inteligencia artificial (IA) también se enfrenta a desafíos, como la perpetuación de sesgos. Startups como la española Acuilae y la chilena Theodora están desarrollando tecnología para tratar de combatirlos. La concienciación de los creadores de algoritmos, de la sociedad y la regulación también serán fundamentales para avanzar hacia una IA más responsable.
Prejuicios de género, etnia o clase social. Son algunos de los sesgos que la inteligencia artificial (IA), también la generativa, puede reflejar y perpetuar. "Un sesgo es una falta de objetividad, y las personas, de manera inconsciente, muchas veces toman decisiones de esta forma", explica Idoia Salazar, presidenta y fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), organización creada para impulsar el uso ético de la IA. "En el mundo en que vivimos, donde nuestras acciones se convierten en datos que son recogidos por algoritmos, estos sesgos pueden visibilizarse e incluso exacerbarse en esta tecnología, que puede fomentar ciertos prejuicios discriminatorios".
Estos sesgos pueden traer consecuencias a las compañías. Así lo demuestra una encuesta elaborada por la plataforma de aprendizaje automático DataRobot a más de 300 empresas: más de un 36% de las compañías participantes reconocían haber identificado sesgos en los algoritmos de sus sistemas de IA, provocándoles pérdidas en sus beneficios, consumidores y empleados, así como daños en su reputación y la toma de acciones legales contra las compañías.
Además de reflejar los comportamientos de las personas, los sesgos de la IA pueden afectar en la otra dirección. Un estudio publicado en la revista Scientifics Reports demuestra que los prejuicios también pueden traspasarse de la máquina al humano. "Queríamos estudiar cómo las recomendaciones de la IA pueden orientar las decisiones humanas, ver si las personas pueden detectar errores, contradecirlos y comprobar la influencia de los sesgos a largo plazo", detallan Lucía Vicente y Helena Matute, psicólogas de la Universidad de Deusto (Bilbao) y autoras del estudio.
Para analizar este impacto, desarrollaron una serie de experimentos donde los participantes tenían que realizar diagnósticos médicos. Se dividieron en dos grupos: aquellos que contaban con asistencia de una IA sesgada y aquellos que no contaban con ningún tipo de asistencia. Al hacerlo, comprobaron que el grupo que utilizaba IA replicaba el error sistemático del algoritmo, mientras que aquellos que trabajaban sin ella resolvían el caso de manera correcta. Una vez finalizada la colaboración con el algoritmo, además, se descubrió que aquellas personas que habían tenido asistencia de la IA seguían reproduciendo el sesgo.
"La IA tiene una influencia muy grande en las decisiones humanas: cada vez estamos más acostumbrados a sus recomendaciones", sentencian.
Soluciones para impulsar una IA responsable
Estas investigadoras reivindican la importancia de la investigación de cara a combatir la discriminación de la IA, una apuesta que respalda Idoia Salazar: "Hay empresas que están desarrollando soluciones específicas para extraer sesgos y cuidar los datos de los que se alimenta el algoritmo".
En este marco se enmarca la española Acuilae, que ha desarrollado Ethyka, una plataforma que detecta expresiones, emociones, conversaciones y otro tipo de contenido inadecuado en los algoritmos y enseña a los sistemas para evitar que incorporen prejuicios. "Nuestra plataforma tiene el propósito de servir como filtro para los modelos de IA: queremos dar esa capa más humanista a todos los modelos que se están generando para reducir las alucinaciones, malas intenciones y posibles sesgos", resume Pedro Diezma, responsable de Innovación en Acuilae.
Otro ejemplo de startup que intenta combatir los sesgos de la IA es Theodora. Su cofundadora y CEO, María José Martabit, decidió fundar esta compañía tras comprobar cómo los sesgos y estereotipos impiden a las mujeres de Latinoamérica acceder a puestos de liderazgo. "Quise buscar una solución tecnológica y escalable para combatir estos problemas", apunta. Comenzó a trabajar en el desarrollo de un modelo de IA y, al hacerlo, se dio cuenta de que no existían 'datasets' (conjuntos de datos) para entrenar a la IA en materia de sesgos. "Ahí llegamos a la decisión de crear nuestros propios 'datasets' para alimentar nuestros modelos", apunta.
Gracias a estos 'datasets', Theodora ofrece a otras compañías y usuarios la posibilidad de detectar los sesgos de la IA en los textos y ofrecer una versión revisada y mejorada que no incurra en este tipo de prejuicios, acompañada de un informe con métricas e indicadores para medir los niveles de inclusión y diversidad. Además, la compañía también aplica su propia IA y modelos de 'machine learning' para detectar los sesgos alojados en los algoritmos y 'datasets'. "Podemos revisar si el sistema carece de sesgos y respeta los criterios de la IA responsable", asegura Martabit.
Casos como el de Acuilae o Theodora demuestran que la apuesta por la innovación tecnológica juega un papel clave a la hora de impulsar una IA libre de prejuicios. "Los sesgos de la inteligencia artificial se combaten con inteligencia artificial preparada para combatirlos", resume Diezma, de Acuilae.
La compañía de investigación y desarrollo de IA Anthropic, que ha demostrado que es posible evitar que los grandes modelos de lenguaje reproduzcan contenido inapropiado, o la compañía de IA Hugging Face, que ha desarrollado una herramienta que emplea la orientación semántica para que los usuarios pueden guiar la manera en la que la IA genera imágenes de personas, también avanzan esa línea. Pero para alcanzar este objetivo, aún queda camino por andar. Y en este recorrido, no solo será clave la investigación e innovación tecnológica.
Educación y legislación, los otros pilares para combatir los sesgos
Estados Unidos emitió recientemente una orden ejecutiva que establece un conjunto de normas y directrices para la IA, con el propósito de aumentar la transparencia y mejorar la seguridad y protección de esta tecnología donde se especifica que la discriminación algorítmica se reflejará a través del entrenamiento, la formación técnica y la coordinación institucional para detectar y perseguir las posibles violaciones de derechos.
Por su parte, la Unión Europea ha aprobado su reglamento de inteligencia artificial, cuyo objetivo es garantizar que los sistemas sean seguros, transparentes, respetuosos y no discriminatorios. Esta norma, que aún debe ser ratificada por el Parlamento Europeo y los Estados Miembros, entrará en vigor, previsiblemente, en 2026. Entre las medidas incluidas en esta norma, destaca la prohibición de que los algoritmos de alto riesgo (aquellos que puedan afectar a los derechos fundamentales) tomen decisiones de manera autónoma. Además, los algoritmos que se utilicen deben ser comprensibles, y las características o variables que influyen en las decisiones deben ser fácilmente identificables.
"Siempre que se trate de un algoritmo de alto riesgo, deberá haber una persona supervisando, lo que implica que se podrá aplicar un contexto que no tienen las máquinas", explica Idoia Salazar, quien está colaborando en el desarrollo de esta norma. De esta forma, el humano podrá evitar esa perpetuación de sesgos.
De cara a avanzar hacia esta IA responsable, Salazar destaca un nuevo vértice: la educación. "Es muy necesaria la educación de las personas a todos los niveles: hay que concienciar para comprender cómo estas tecnologías pueden impactar y afectar a su toma de decisiones", afirma. Una postura que también defiende Martabit, de Theodora: "La inteligencia artificial es un instrumento hecho por seres humanos, que son quienes dan las reglas del juego. Es importante educarlos para que comprendan que no se puede hacer cualquier cosa con ella".
De forma específica, los expertos consultados creen que los creadores de los propios algoritmos deben ser los primeros en tomar conciencia. "Tienen que empezar un proyecto de inteligencia artificial sabiendo que van a existir sesgos de origen. Hay que poner filtros y medidas para que el modelo sea adecuado", afirma Pedro Diezma, de Acuilae. "Hay un trabajo previo de las personas detrás de la inteligencia artificial: tienen que ver lo que los sesgos no les dejan ver y, después, habrá que crear tecnología para combatir estos prejuicios", coincide Martabits.
La IA es una de las tecnologías del momento, pero aún hay retos para que aporte los máximos beneficios tanto a las empresas como a la sociedad en su conjunto. La educación sobre cómo utilizarla, la regulación institucional y la innovación serán clave para combatir sus sesgos y garantizar que se utiliza de forma responsable.