Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Ética e inteligencia artificial no son palabras difíciles

Hay que hablar de inteligencia artificial (IA) no porque esté de moda sino porque es un fenómeno que nos rodea. Sin percatarnos, de una u otra manera, la IA nos acompaña y esto quizás sea una de las claves del futuro. La intuición inicial de Alan Turing señalaba que es posible que las máquinas simulen el pensamiento humano y por allí habría que empezar.

A-0103-EmpresaeIA-BBVA

En ese sentido no hay que dejarse llevar por el recelo ante conceptos técnicos o grandilocuentes. Para algunas generaciones la IA está personificada por Hall 9000, el temible ordenador de 2001: Una odisea en el espacio. Para otras podría ser el Arquitecto, aquel programa que diseñó la Matrix en la trilogía fílmica de las hermanas Wachowski. Pero la realidad es menos compleja que la ficción, por lo menos por ahora.

La IA está presente en nuestras casas y trabajos mediante programas o máquinas que nos hacen la vida más fácil. Ya sea con nuestros 'smartphones' (los últimos teléfonos inteligentes de Apple y Huawei ya cuentan con procesadores destinados al desarrollo de la IA), los asistentes virtuales que responden preguntas, en algunos juguetes que pueden comunicarse con los niños e incluso en ciertas aspiradoras. Ciertos algoritmos analizan nuestras acciones digitales sin que nos demos cuenta. Los programas predictores, por ejemplo, que calculan nuestros intereses basándose en búsquedas o compras y desarrollan perfiles de usuario en Amazon, Google o Netflix. Que simulen mejor o peor el pensamiento es otra cosa.

Basta que una máquina imite un tipo de razonamiento para que ingrese dentro del conjunto de la IA. Esa es también la idea que tenía John McCarthy, quien acuñó el término, y cuya definición procede del concepto de imitación. Decían los organizadores de la Conferencia de Darmouth en 1956 que "este estudio se basa en la conjetura de que todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden ser descritos de manera tan precisa que una máquina pueda simularlos".

Las manifestaciones de IA que encontramos hoy son puntuales y más bien simples. Así lo señala Ramón López de Mantaras en una entrevista en la que explicaba que observamos actualmente el desarrollo de “inteligencias específicas”. Programas que saben jugar ajedrez mejor que los humanos, aplicaciones que predicen nuestros gustos o sistemas que pueden diagnosticar más rápido que un médico “pero sin conocimientos generales de medicina”. Digamos que tenemos pequeñas representaciones de inteligencia en diversas plataformas.

Porque cuando hablamos de inteligencia el concepto es muy amplio. Decir hoy que alguien es inteligente no es lo mismo que en el siglo XIX. Nos hemos alejado de la primacía racional. La teoría de las inteligencias múltiples de Howard Gardner aporta un marco amplio y complejo para analizar la comprensión humana. Por eso, y siguiendo la definición de Darmouth, para comprender qué es la IA debemos saber qué es la inteligencia humana. Quizás por ello el mundo de la psicología, la neurociencia y la informática han de ir de la mano. Hace poco Lee Simmons en la edición norteamericana de la revista Wired hablaba sobre las paradojas de la relación entre cerebro e IA. Decía el artículo que las redes informáticas tienen unos cuantos millones de nodos, pero que son muy pocos comparados con los cien mil millones de neuronas del cerebro humano. O sea —sugiere Simmons— modelamos una IA sobre lo que comprendemos parcialmente.

Para comprender qué es la IA debemos saber qué es la inteligencia humana

Las plataformas conocidas de IA, aun incipientes, también deberían vincularse a valores humanos. Si la ética es pensar sobre lo correcto o incorrecto habría que cuestionar las acciones en cada ámbito. Por ejemplo, una ética de la IA destinada a las finanzas debe conocer las maniobras de los 'traders' virtuales. O preocuparse en cómo potenciar la formación de los empleados bancarios en ciberseguridad. O ser consciente que los valores corporativos han de manifestarse en las plataformas de IA ofrecidas.

Las preguntas son el inicio del camino del desarrollo moral. Una IA potenciada por el 'big data' que nos permite, por ejemplo, pagar servicios públicos: ¿debería encarecerlos? Los datos médicos recopilados en las historias clínicas: ¿hasta dónde son privados? Los videojuegos que dialogan con niños o menores de edad: ¿qué limites tienen? Aunque luego las regulaciones sean complejas hemos de empezar sin miedo por hacer preguntas.

La aproximación a la ética de la IA debería ser pedagógica. Como instrumento para solucionar problemas hemos de dirigirla, y saber que sus resultados han de potenciar lo humano. La IA analiza datos personales, genera estadísticas valiosas pero no ha de quedarse en el mero número. Necesitamos saber más. La Unión Europea acaba de anunciar que formará un grupo de expertos para evaluar el impacto de la IA en la sociedad. Una comisión de este tipo necesitará dedicar parte de su tiempo a aclarar su significado para los ciudadanos de a pie.

Habría que empezar a programar haciendo preguntas morales. Como Ben Goertzel, creador de SingularityNET, que es consciente en sus proyectos del valor de la empatía. O la investigadora de Microsoft, Timnit Gehru, que indaga en sus trabajos sobre la diversidad o el número de mujeres que trabajan en IA.

Estamos todavía lejos de una IA que permita diálogos profundos, sentido común e incluso el manejo de la ironía. Sería ingenuo esperar a que la IA se desarrolle lo suficiente para someterla a un escrutinio. Desde ahora podemos integrar la moral en sus desarrollos. Así sus simulaciones aportarán una mayor comprensión de lo humano.