Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Innovación 30 jul 2024

Equidad algorítmica, clave para crear una inteligencia artificial responsable

A medida que la inteligencia artificial se integra cada vez más en la sociedad y se utiliza para tomar decisiones que afectan a las personas, como en el ámbito laboral o en la justicia, surge el reto de los algoritmos sesgados, provocados generalmente por la existencia de prejuicios o distorsiones en los datos de entrenamiento. Para combatir los sesgos, ya existen propuestas que alertan sobre estos y que buscan mitigar su impacto negativo en la sociedad.

Foto de apertura generada con Midjourney (IA)

Más del 30% de las grandes empresas de la Unión Europea ya utilizan inteligencia artificial (IA), un fenómeno que refleja cómo la IA se ha integrado en diversos aspectos de la vida, desde la contratación de empleados hasta la venta de productos y la ciberseguridad. Sin embargo, detrás de los algoritmos, se esconde uno de los mayores retos de la IA: los sesgos. Encontrar mecanismos para mitigarlos y alcanzar la equidad algorítmica se ha convertido en una necesidad para construir modelos alineados con unos criterios humanos consensuados.

"La equidad algorítmica se refiere al diseño y desarrollo de sistemas de inteligencia artificial (IA) incuyendo aquellos de aprendizaje automático (ML) que operen de manera justa, equitativa y que no provoquen discriminación", explica Marco Creatura, científico de datos en BBVA AI Factory. "La preocupación principal es que estos sistemas no reproduzcan, refuercen ni amplifiquen los sesgos sociales existentes. La equidad en este contexto se define como la ausencia de sesgos, que en el campo de la toma de decisiones se define como cualquier prejuicio o favoritismo hacia un individuo o grupo basado en sus características inherentes o adquiridas", prosigue.

Además, los algoritmos de IA generativa presentan una complejidad mayor que los clásicos de 'machine learning', cuya salida es generalmente una puntuación o una probabilidad. "Los grandes modelos de lenguaje se entrenan con inmensas cantidades de datos en formato texto generalmente extraídos de internet, que no necesariamente han sido curados y que pueden contener estereotipos, representaciones sesgadas de la sociedad ('misrepresentations'), lenguaje excluyente, denigrante o despectivo con respecto a ciertos grupos sociales y grupos vulnerables. La complejidad radica en que el lenguaje es en sí mismo una tecnología que captura normas sociales y culturales", subraya Clara Higuera, científica de datos en BBVA AI Factory. La detección de sesgos en IA generativa es un campo nuevo, todavía en fase de exploración, que ya se está utilizando aspectos como la construcción de guardarraíles o herramientas para detectar esos mismos sesgos.

De hecho, según un estudio de la UNESCO, los modelos de lenguaje empleados por la IA generativa, pueden reproducir prejuicios de género, raciales y homófobos que colaboran a la desinformación.

Cómo se producen los sesgos, los grandes obstáculos de la equidad algorítmica

Los sesgos son diversos y pueden manifestarse en diferentes etapas, tal y como se apunta en un artículo de MIT Technology Review:

  1. La definición del problema. Los desarrolladores comienzan estableciendo el objetivo del algoritmo que están desarrollando. Esto implica convertir en métricas aspectos tan difusos como la ‘eficacia’, un concepto difuso y subjetivo abierto a interpretaciones que no siempre son imparciales. Por ejemplo, si el algoritmo de una plataforma de contenidos de ‘streaming’ busca maximizar el tiempo de visualización de los espectadores, esto podría derivar en recomendaciones que refuercen sus intereses previos en lugar de diversificar sus experiencias con otros contenidos.
  2. Durante la recogida de datos. Existen dos posibles razones para este fenómeno: o los datos recopilados no son representativos de la realidad o reflejan prejuicios ya existentes. Por ejemplo, si un algoritmo recibe más fotos de caras de piel clara que de piel oscura, el reconocimiento facial será menos preciso en el segundo caso. Otro ejemplo es lo que ha sucedido con algunas herramientas de contratación, que, por ejemplo, descartaban a las mujeres para puestos técnicos debido a que el algoritmo se había entrenado con decisiones de contratación históricamente sesgadas.
  3. En la preparación de los datos. A menudo se seleccionan y preparan los atributos que el algoritmo utilizará para tomar decisiones, como la edad o el historial de sus acciones. Estos atributos pueden introducir sesgos en herramientas de evaluación, ya sean socioeconómicos o relacionados con el género. Estos sesgos también se pueden introducir cuando se etiquetan los datos que posteriormente utilizarán los algoritmos, especialmente cuando se llevan a cabo tareas de anotación de datos. Esto se debe a que los anotadores pueden traer sus propios sesgos; de ahí la importancia de escribir guías claras de anotación.

Qué tipos de sesgos debe combatir la equidad algorítmica

Los sesgos que pueden presentar los algoritmos pueden manifestarse en diversas formas y tipos. "Abordar y mitigar estos sesgos es esencial para desarrollar sistemas de IA que sean justos y beneficiosos para todos los usuarios, asegurando decisiones equitativas y aumentando la confianza en las tecnologías emergentes", afirman Marco Creatura y Clara Higuera. Algunos de ellos, como señala Google, son:

  • Sesgo de selección. Ocurre cuando los ejemplos de un conjunto de datos se eligen de un modo que no refleja su distribución en el mundo real. "Teniendo en cuenta el hecho de que no se puede entrenar a un algoritmo con todo el universo de los datos, el subconjunto se debe elegir cuidadosamente en función de este contexto. Una muestra no representativa del conjunto, o una desequilibrada hacia un colectivo, remitirá a resultados igualmente sesgados", explican en un artículo del Instituto Cervantes.
  • Sesgo de automatización. Es la tendencia a creer por defecto todo lo que señalan los sistemas automatizados sin importar la tasa de error que pueda mostrar. Esto hace que se dé por válida información que en ocasiones puede no estar del todo contrastada. "Cuando la gente tiene que tomar decisiones en plazos relativamente cortos, con poca información... ahí es cuando tiende a confiar en cualquier consejo que les proporcione un algoritmo", indica Ryan Kennedy, profesor de la Universidad de Houston especialista en automatización, en un artículo de investigación.
  • Sesgo de correspondencia. Sucede cuando los algoritmos generalizan sobre las personas, evaluándolas en función de su pertenencia a un grupo en lugar de valorar sus características individuales. Por ejemplo, al asumir que todas las personas que han asistido a la misma universidad tienen el mismo nivel de cualificación para un trabajo.
  • Sesgo implícito. Se produce cuando se realizan suposiciones en función de situaciones y experiencias personales de los propios desarrolladores de los algoritmos, que no se aplican a un nivel más general. Este sesgo podría influir en su modelización y entrenamiento, ya que los desarrolladores podrían introducir sus propios prejuicios de manera inconsciente.

Iniciativas y propuestas para alcanzar la equidad algorítmica

Existen muchos más sesgos que pueden estar presentes en los algoritmos con los que la sociedad interactúa diariamente. Pero también hay iniciativas y normativas destinadas a promover la equidad algorítmica y mitigar estas situaciones de injusticia. "Los gobiernos y organizaciones han comenzado a implementar directrices y normativas para asegurar que las tecnologías de IA sean justas y responsables. Esto incluye la creación de marcos éticos y legislación específica sobre el uso de IA para proteger contra la discriminación", afirma Marco Creatura, que además hace referencia al Reglamento de Inteligencia Artificial (IA Act) de la Unión Europea.

De hecho, la Unión Europea también cuenta con un proyecto que incluye propuestas y modelos para que las compañías puedan auditar si los sistemas y las aplicaciones cumplen con el Reglamento General de Protección de Datos (RGPD) y con diferentes requisitos de transparencia. De esta forma, garantizan que cuentan con las mejores prácticas de confianza y seguridad, ya que uno de los objetivos de Europa es asegurar que la IA funciona para todas las personas de manera inclusiva.

En España, la Agencia Española de Protección de Datos (AEPD) ha publicado una serie de pautas para auditar sistemas de IA con un apartado específico para el control del sesgo en las fuentes de datos utilizadas. "Las investigaciones actuales se centran en métodos para corregir sesgos en los datos y en los modelos. Esto incluye técnicas de recolección de datos más representativos, ajustes en los algoritmos y modificaciones en el posprocesamiento de los resultados para asegurar decisiones más justas", indica Marco Creatura.

Por otro lado, también se han establecido métricas de equidad para evaluar modelos de 'machine learning' y hay un énfasis por hacer que los modelos de IA sean más transparentes y multidisciplinares. Es decir, que no solo involucren a científicos de datos y desarrolladores, sino también a expertos en ética, sociólogos y representantes de los grupos afectados. Esto se puede comprobar a través de proyectos como la Liga de la Justicia Algorítmica, organización fundada por Joy Buolamwini, investigadora del Instituto de Tecnología de Massachusetts (MIT) y activista pionera en IA, que se dedica a analizar y a divulgar entre la población cómo los sistemas de IA pueden desarrollar diferentes formas de discriminación. Porque, tal y como indican en su página web, aunque las nuevas herramientas son prometedoras, es crucial construir "un movimiento para cambiar el ecosistema hacia una IA equitativa y responsable".

Por otro lado, existen técnicas pensadas para los algoritmos de IA generativa como los guardarraíles. “Son directrices y herramientas para supervisar, controlar y guiar el comportamiento de los modelos de IA generativa. Pueden ir desde una instrucción en el ‘prompt’ (ejemplo: contesta de manera educada y respetuosa sin insultar a nadie) a modelos que detectan cuando una respuesta puede contener lenguaje de odio a evitar”, apunta Clara Higuera.

Además, las empresas desempeñan un papel importante en el desarrollo de una IA sin prejuicios. De hecho, en el caso de BBVA, la equidad algorítmica es un aspecto prioritario como principio de IA responsable. Por eso, el banco trabaja en el desarrollo e implementación de prácticas que promuevan la justicia y la no discriminación de los sistemas de inteligencia artificial en el Grupo.

Alcanzar la equidad algorítmica es un desafío crucial que aún está por abordar. "Es algo importante en lo que se está trabajando y en lo que debemos poner énfasis y concienciación en todos los niveles involucrados en el ciclo de desarrollo de la IA, desde ‘seniors leaderships’ hasta ‘data scientists’. De esta forma, conseguiríamos desarrollar sistemas verdaderamente justos", subraya Clara Higuera. Seguir avanzando en investigación, regulación y colaboración para garantizar que los algoritmos tengan en cuenta a todas las personas de manera igualitaria ayudará a que se libren de prejuicios.