¿Cómo seguir innovando ante una inteligencia artificial que aún no ha alcanzado sus límites?
Los chips están alcanzando tamaños nanométricos imposibles de imaginar hace pocos años, mientras que la capacidad de los modelos de inteligencia artificial para procesar datos crece cada día. Ante este panorama de capacidades virtualmente ilimitadas, ¿es posible seguir innovando? ¿Y en qué dirección? Para Jon Ander Beracoechea, reducir el tiempo que se tarda en llevar los beneficios de la tecnología a la sociedad sería una de las claves. El responsable Global de la disciplina Advanced Analytics de BBVA compartió su visión durante en la jornada de clausura del DataFest, un evento interno organizado por la disciplina de Analítica Avanzada del banco, en el que sus profesionales de datos han reflexionado sobre las cuestiones más actuales del sector.
En 1965, el cofundador de Intel Gordon E. Moore estableció la ley que lleva su nombre, según la cual el número de transistores en un microprocesador se duplica aproximadamente cada 18 o 24 meses. Durante décadas, este principio ha servido para estimar cuál podría ser el techo de la innovación tecnológica en términos de ‘hardware’. El propio Moore afirmó en 2007 que su ley dejaría de cumplirse al cabo de 15 años, debido a la acelerada miniaturización de los componentes, lo que haría que llegado un momento no pudieran reducirse más. Cuando Moore hizo esta afirmación, los chips tenían un tamaño de 45 nanometros (nm) y se creía que el límite estaba en los 7 nm, por debajo de los cuales empezarían a sufrir determinados efectos cuánticos que harían imposible su funcionamiento. “Sin embargo, si habéis cambiado de teléfono este año, casi con toda seguridad vuestros chips medirán 5 nm; ya hay chips en la calle de 3 nm; y se cree que sería posible fabricarlos con un tamaño de 1 nm. Es decir, apenas diez veces más grandes que un átomo”, afirmó Jon Ander Beracoechea en el DataFest. “Es uno de esos casos en los que la innovación persiste”.
Por otro lado, si el ‘hardware’ sigue ampliando sus límites, el ‘software’ no se queda atrás. Los modelos de ‘machine learning’ han pasado de calibrar centenares de parámetros a miles de millones. El récord hasta la fecha lo ostentan el modelo de IA WuDao 2.0, de la Academia de Inteligencia Artificial de Pekín, que consta de 1,75 billones (en términos europeos) de parámetros, y el modelo de lenguaje Switch Transformer de Google Brain, con 1,6 billones.
“Todas estas capacidades virtualmente ilimitadas podrían tentarnos a pensar que ya no se puede seguir innovando en ‘machine learning’”, afirmó Beracoechea. “Pero, por el contrario, estamos al principio del camino”.
La gradualidad de la innovación
Algunas de las áreas en las que hay oportunidades de mejora son, por ejemplo, los modelos de traducción automática o los que extraen información de imágenes y vídeo, que aún no alcanzan el grado de inferencia y profundidad que sí alcanza el ser humano. Otro objetivo muy importante es mejorar la sostenibilidad de todo el sistema. “La huella de carbono correspondiente a calibrar 213 millones de parámetros equivale a la de 300 vuelos de ida y vuelta entre Nueva York y San Francisco. Imaginemos cuál puede ser la correspondiente a casi 2 billones de parámetros”.
Sin embargo, para el responsable Global de la disciplina Advanced Analytics de BBVA, una clave muy importante está también en la mejora de los procesos y del ciclo de aprendizaje, para lograr llevar las innovaciones a la sociedad con más rapidez. Y aprovechó para recordar a los asistentes al DataFest que se trata de un proceso gradual que se desarrolla a lo largo del tiempo. “La mayor parte de las ideas que hemos interiorizado sobre la innovación son correctas: es recombinante, por lo que es más fácil que suceda en sociedades abiertas donde hay intercambio de ideas, como la Revolución Industrial; en ocasiones depende de la serendipia, como el descubrimiento de la penicilina; y es hija del método de prueba y error, como lo demostraron los hermanos Wright en su proceso de fabricación del avión. Pero hay una idea preconcebida equivocada: nunca sucede de la noche a la mañana ni depende de la aparición de un genio aislado”.
“No es posible ser innovador si no aceleramos el ciclo de aprendizaje”.
Beracoechea afirmó que podemos llegar a creerlo así porque la llegada de los beneficios a la sociedad sí suele suceder súbitamente. Pero el proceso previo de creación es una acumulación gradual de mejoras. Un buen ejemplo de ello es la máquina de vapor, que hizo posible la Revolución Industrial. Aunque su invención se atribuye a James Watt en 1763, en realidad es fruto de la mejora continua de la eolípila, un juguete de la Grecia Antigua, a lo largo de los siglos.
“Con el ‘machine learning’ sucede exactamente lo mismo, su progresión es extraordinariamente gradual”, afirmó. “Por este motivo, hay una métrica crucial que nos debe guiar en los próximos años: acelerar el ‘Time-to-Value’, es decir, reducir el tiempo que tardamos en darle un valor aplicable a la tecnología que resulte beneficioso para la sociedad”. Y volvió a utilizar un ejemplo histórico: en el proceso de creación del avión, los hermanos Wright tuvieron éxito porque testaban más a menudo, lo que les permitía lograr avances pequeños pero constantes “mientras los demás intentaban llegar a la solución de un único golpe”.
Jon Ander Beracoechea cerró su intervención en el DataFest con un llamamiento al trabajo colaborativo para lograr este objetivo. “No podemos ser innovadores con ciclos de aprendizaje que duran años. Debemos acelerarlos. Esta es una motivación extraordinaria para que los 2.500 profesionales de BBVA que trabajamos en datos nos centremos en aprender a acelerar los procesos de manera colaborativa”.
IA ética y datos de calidad
El Advanced Analytics DataFest de BBVA es un evento interno cuyo objetivo es crear sinergias entre los científicos de datos del banco, y también con expertos de otras organizaciones, en torno a la actualidad de esta área de conocimiento. “Está muy conectado con cómo hacemos la transformación de datos en el banco, con ambición y humildad”, afirmó Ricardo Martín Manjón, responsable global de Data de BBVA, durante el evento de clausura en España. “Aunque realizamos esta transformación con el talento y los recursos de los que disponemos en el banco, dedicamos un momento al año para mirar hacia fuera, hacia lo que están haciendo las demás empresas, porque todas las industrias están siendo transformadas”.
La edición de 2022 se organizó en cuatro países. En México, Alfonso Ruiz, experto en redes neuronales profundas, y Xavier Amatriain, vicepresidente de Estrategia de Producto de IA en Linkedin, hablaron sobre la interpretabilidad de la IA y la creación de productos para usuarios basados en estas tecnologías; en Argentina, Daniel Yankelevich, socio fundador de Practia, explicó cómo combinar los datos con el conocimiento experto, y las investigadoras Alexa Hagerty y Clara Higuera plantearon un marco de trabajo para lograr una analítica avanzada ética y responsable; en Turquía, el investigador Tammo Rukat y Óscar Déniz, profesor asociado de la UCLM, hablaron sobre la calidad de los datos en el 'machine learning' y el procesado de información visual (‘computer vision’). En España, Mikel Díez, jefe de Innovación en IBM, habló sobre el potencial de la computación cuántica y cómo aplicar el método científico a la innovación tecnológica, mientras que Mónica Villas, docente y consultora de nuevas tecnologías, abordó los últimos avances para hacer posible una IA ética.
La oferta de este ‘festival de los datos’ se completa con talleres internos, reconocimientos al desarrollo de la carrera profesional y la celebración de un ‘Data Challenge’, cuyo objetivo es fomentar el hallazgo de soluciones analíticas para resolver problemas reales de negocio mediante el uso de ‘machine learning’ y ‘big data’.
Cada edición tiene una gran acogida entre los integrantes de la disciplina de Advanced Analytics de BBVA. Varios momentos de las jornadas de este año han reunido a más de 700 participantes, entre asistencia presencial y conexiones en remoto.