Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

“La inteligencia artificial no está a la vuelta de la esquina”

El director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López de Mántaras, analiza el avance del aprendizaje automatizado y destaca que el sentido común es el caballo de batalla de la IA.

Bombilla explosión cristal Luz recurso BBVA

“Se habla de que en 30 años las máquinas serán más inteligentes que nosotros.  Que serán superiores. La realidad es que lo que desarrollamos hoy en día son inteligencias específicas. El sistema hace una tarea y la realiza muy bien, mejor incluso que un humano: hay sistemas que diagnostican mejor que un médico, pero no tienen conocimientos generales de la medicina, o nos ganan en un juego muy concreto pero no saben jugar a ningún juego más. La inteligencia artificial no está a la vuelta de la esquina".

cibbva-csic-lopez-mantaras-bbva

Ramón López de Mántaras

Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC, es tajante cuando habla del potencial de la IA. Desde su despacho en la Universidad Autónoma de Barcelona matiza los avances de la disciplina científica que desarrolla programas informáticos para emular a los humanos en el aprendizaje y el razonamiento lógico.

El sentido común, explica López de Mántaras, es el caballo de batalla de la inteligencia artificial. “El diálogo ‘pregunta-respuesta’ general y con conversación semántica profunda no diría que es imposible pero lo veo a muy largo plazo; hablo de décadas. Hay algoritmos específicos que son capaces de hacer un montón de cosas distintas pero independientes entre ellos”, remacha el físico.

El investigador destaca que en un ámbito particular, por ejemplo el bancario, si es posible una conversación inteligente. “Si un 90% de las personas van a hablar de términos relacionados con la banca en, por ejemplo, una web, la máquina va a poder representar y anticipar los conceptos que van a aparecer en el diálogo, relacionarlos entre sí y darles una profundidad semántica. A partir de ahí el robot va a poder tener una conversación que se puede llamar inteligente. Pero si cambian los términos esa máquina no va a darte ninguna respuesta. Cuando sales del marco específico se acabó la conversación”, subraya.

Cuando hablamos de inteligencia artificial hablamos de inteligencias muy específicas."

El problema aparece cuando los conceptos son generales, según el director de inteligencia artificial del CSIC: “Dos ejemplos: el traductor de Google, por un lado, es pura estadística, por eso es un sistema bastante estúpido y frágil y algunas de sus traducciones son desastrosas. Por otro lado, en visión artificial tampoco existe un razonamiento y por eso cuando, por ejemplo, le decimos a una máquina que nos interprete la imagen de un bebé con un cepillo de dientes delante de la cara nos va a decir que es un bebé sujetando un bate de béisbol. Hay millones de fotografías de niños con bates de béisbol en internet, es la foto infalible y el sistema es lo que aprende. Es la fragilidad del sistema basado en un análisis de datos masivos”.

¿Y dónde es menos frágil la inteligencia artificial? El investigador destaca dos áreas: los sistemas de aprendizaje por refuerzo -la logística, con sus cadenas de montaje por ejemplo- y el aprendizaje inductivo -el robot va a reconocer sillas: aunque sea un tipo de sillas que no ha visto nunca las identifica por unas características comunes, tiene la capacidad de generalización-.

En visión y lenguaje la inteligencia artificial avanza menos pues se necesitan demasiados ejemplos para aprender. Es muy complicada la percepción y la comunicación dado que las máquinas no tienen conocimiento implícito ni vivencias: “El aprendizaje basado en análisis de datos masivos funciona cuando se trabaja con millones de ejemplos: un sistema reconoce un gato porque ha visto millones de gatos, a un niño le basta verlo una vez para saber que es un gato”, añade López de Mántaras.

Ética de la inteligencia artificial

El físico se muestra duro con el aura que rodea a la IA: “Cuando hablamos de inteligencia artificial hablamos de inteligencias muy específicas. No es lo que vemos en las películas ni lo que escuchamos: los que hablan de posthumanismo como consecuencia de la singularidad tecnológica no saben muy bien de lo que hablan pues ninguno de los que venden la idea de que nos vamos a quedar obsoletos es experto en inteligencia artificial. No estoy en absoluto de acuerdo en que la inteligencia artificial es el fin de la Humanidad”.

La ética también preocupa al investigador que resalta que es importante una regulación y tomar decisiones valientes. “Deberíamos prohibir los 'bots' que compran y venden en bolsa en cuestión de milisegundos o menos, porque se apoderan del sistema y los 'traders' humanos no tienen nada que hacer”.

“Ya hay empresas con diferentes 'software' que compiten entre ellas y es inaceptable que se adueñen de las líneas de comunicación saturándolas para que no pueda entrar el 'software' de la competencia. También expulsan al comprador humano. Son muy peligrosos y desestabilizan la economía”, advierte.

Mientras espera una regulación, su equipo en el CSIC -formado por 60 personas- sigue trabajando en un único sistema que consiga integrar todas las capacidades de la inteligencia para que los robots desempeñen tareas cada vez más complejas.