Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

'Machine learning': ¿qué es y cómo funciona el maestro en reconocer patrones?

La capacidad de aprendizaje y de predicción de las máquinas se ha incrementado a lo largo del tiempo. Esto se observa tanto en los asistentes virtuales, que cada vez son más eficientes al responder y ejecutar tareas gracias a la mejora de los grandes modelos de lenguaje (LLM), como en plataformas de 'streaming' o comercio electrónico, que utilizan algoritmos para personalizar contenidos. El 'machine learning', especializado en el reconocimiento de patrones, es un campo en auge con décadas de historia.

BBVA-Machine-learning-virtual-algortimos-patrones-identificación-datos

Descubrir una nueva canción en Spotify que se ajusta perfectamente al gusto del oyente. Verificar que varios correos electrónicos maliciosos han sido automáticamente marcados como 'spam'. O buscar un artículo específico y ver cómo aparece recomendado en una plataforma de 'e-commerce'.

¿Qué es el ‘machine learning’?

El 'machine learning' (aprendizaje automático) es una rama de la inteligencia artificial que permite que las máquinas aprendan ciertas tareas sin ser programadas de manera específica para ellas. Para ello, utilizan estadísticas para predecir y reconocer patrones, por ello funcionan mejor en grandes conjuntos de datos.

Este mercado está valorado en 66.740 millones de dólares (unos 60.300 millones de euros) en 2024 y, en solo un año, se espera que incremente hasta los 89.970 millones de dólares (83.630 millones de euros), según un estudio de GrandViewResearch.

El ‘machine learning’ es un maestro en el reconocimiento de patrones, así como en realizar predicciones y recomendaciones a partir del procesamiento de grandes volúmenes de datos. Esto permite a los algoritmos mejorar continuamente para mejorar en el desempeño de sus tareas e incluso para afrontar otras para las que no fueron diseñados. En general, según un artículo de la Escuela de Información de la Universidad de California (Berkeley), un algoritmo de 'machine learning' sigue estos pasos:

  • Proceso de decisión: realiza cálculos basados en los datos y encuentra patrones.
  • Función de error: mide la precisión de la decisión comparándola con ejemplos conocidos para cuantificar el error.
  • Proceso de actualización y optimización: analiza el error y ajusta la toma de decisiones para reducir el margen de error en el futuro.

Además, el aprendizaje automático presenta tres variedades diferentes según el uso que realiza de los datos, tal y como se apunta en un artículo de ‘MIT Technology Review’:

  • Aprendizaje supervisado. Es el más frecuente. En esta modalidad, los datos están etiquetados para señalar a la máquina qué patrones debe buscar. "Piense en ello como si fuera un perro rastreador que, una vez que sepa el olor que debe buscar,  perseguirá el objetivo deseado. Eso es lo que pasa cuando le damos al 'play' en un programa de Netflix: le estamos diciendo al algoritmo que encuentre otros programas similares", explican en el artículo de ‘MIT Technology Review’.
  • Aprendizaje no supervisado. Los datos no llevan etiqueta y la máquina busca de manera independiente cualquier patrón que pueda encontrar. Es una técnica menos habitual, ya que no tiene aplicaciones tan visibles, aunque ha ganado terreno en el ámbito de la ciberseguridad.
  • Aprendizaje por refuerzo. Cuando un algoritmo aprende a lograr un objetivo por ensayo y error. Prueba diferentes opciones y es recompensado o penalizado según lo alineadas que estén sus decisiones con la meta a alcanzar.

La huella del 'machine learning' en el día a día

Montserrat Sacie, científica de datos en BBVA AI Factory, explica algunas de las tareas en las que sobresale el 'machine learning': "Es más óptimo para problemas de regresión (por ejemplo, predicción de saldos en cuenta a futuro), clasificación y 'clustering' (por ejemplo, clasificación de clientes en grupos según sus intereses financieros como “solventar deuda”, “ahorrar”, invertir”…), modelado de series temporales (p.ej. evolución de precios en acciones) y, en general, algoritmos sencillos basados en la aplicación de reglas matemáticas y estadísticas para el procesamiento de datos".

Estas ventajas hacen que el 'machine learning' esté integrado en muchas de las tareas cotidianas. Algunas de ellas, tal y como señala un artículo de IBM son las siguientes:

  • Generar estrategias de marketing. Los equipos de ventas emplean algoritmos de 'machine learning' para analizar los datos de los clientes y posicionar mejor a la compañía en los motores de búsqueda. Además, estos algoritmos permiten hacer recomendaciones personalizadas basadas en el historial de compras del usuario, tal como lo hacen Amazon y Netflix.
  • Atención al cliente. El 'machine learning' optimiza las respuestas de los servicios automáticos de atención al cliente, ya que comprende tanto el contenido como el tono de las consultas de los clientes y les redirige a los agentes más adecuados según sus necesidades. Para ello se suelen usar 'chatbots', que gestionan tanto consultas por texto como por voz gracias al procesamiento de lenguaje natural (PLN) y a los avances en los grandes modelos de lenguaje (LLM, por sus siglas en inglés), que han sido entrenados con un conjunto de datos determinados y tienen capacidad para generar información.
  • Asistentes personales de voz. Los asistentes virtuales que se encuentran en teléfonos o altavoces inteligentes, como Alexa o Siri, utilizan 'machine learning' para reconocer la voz, responder preguntas, recordar consultas anteriores y ofrecer respuestas basadas en el historial del usuario.
  • Filtrado de correos electrónicos. Clientes de correo electrónico como Gmail utilizan algoritmos de 'machine learning' para clasificar automáticamente los mensajes según su categoría. En caso de detectar actividad sospechosa, estos algoritmos marcan el correo como 'spam'.
  • Transacciones financieras. En el sector bancario, el 'machine learning' se utiliza para detectar fraudes, evaluar solicitudes de préstamos y analizar datos históricos para predecir tendencias, lo que mejora la precisión y reduce significativamente el riesgo de errores humanos. De hecho, BBVA cuenta con un sistema de recomendación integrado en su 'app' que se adapta a los clientes y sugiere posibles productos o líneas de acción para cuidar de su salud financiera según hechos relevantes en sus movimientos bancarios.
  • Salud. Los avances en 'machine learning' han permitido entrenar máquinas para reconocer patrones en radiografías, lo que facilita la detección temprana de diversos tipos de cáncer. De hecho, los cribados de cáncer de mama con apoyo de inteligencia artificial detectan un 20% más de tumores, según un estudio sueco con 80.000 mujeres publicado en 'The Lancet Oncology'.

El viaje del 'machine learning' a lo largo de la historia

El 'machine learning' está presente en gran parte de la tecnología actual, pero su valor fundamental, la predicción, se basa en conceptos básicos de la historia de las matemáticas. De hecho, el teorema de Bayes es un principio que en el siglo XVIII ya hablaba de la probabilidad de que se cumpliera una hipótesis en función de las evidencias relacionadas con dicho evento.

Sin embargo, en el mundo de la computación hay que remontarse a la década de los 50, cuando Marvin Minsky y Dean Edmunds, científicos del Instituto Tecnológico de Massachusetts (MIT), desarrollaron SNARC ('Stochastic Neural Analog Reinforcement Calculator'). Esta fue la primera red neuronal artificial conocida, construida con componentes analógicos como tubos de vacío, un condensador o un potenciómetro, y con ella desarrollaron un 'software' informático capaz de aprender cómo escapar de un laberinto. El gran avance fue que logró salir sin haber sido diseñado específicamente para esa tarea, lo que marcó la transición de una programación basada en reglas definidas por humanos hacia una donde las máquinas también podía definir sus acciones de manera autónoma.

La historia del 'machine learning' ha estado más vinculada a los juegos de mesa sobre lógica que a la resolución de laberintos. Estos han servido como un campo de prueba para demostrar la capacidad de las máquinas para competir contra humanos y superar las expectativas donde se cuestionaba su desempeño. Por eso, en el año 1959, Arthur L. Samuel, empleado de IBM, desarrolló el primer programa que podía jugar a un alto nivel: 'checkers', bastante parecido a las damas españolas. Era un 'software' vivo, con capacidad para mejorar su nivel a medida que completaba partidas y descubría mejores decisiones. Así, solo dos años después de su creación, ya era capaz de ganar a maestros en este juego.

Un caso parecido sucedió varias décadas después, con otro célebre hito en el aprendizaje automático: en 1997, el ordenador Deep Blue de IBM logró derrotar al por entonces campeón mundial de este juego: Garri Kasparov. La máquina tenía capacidad para evaluar 200 millones de posiciones de ajedrez por segundo, y su victoria no solo significó un punto de inflexión en la informática, sino que anticipó un futuro en el que los ordenadores y la inteligencia artificial podrían simular e incluso quizá superar una unidad de procesamiento que hasta entonces se creía imbatible: el cerebro humano.

En 2016, tuvo lugar otro hito histórico significativo de nuevo protagonizado por un juego de mesa: el programa AlphaGo venció al surcoreano Lee Sedol, uno de los mejores jugadores de Go del mundo, en una serie de cinco partidas. Un año después de este hallazgo, los creadores se superaron a sí mismos al diseñar una versión mejorada llamada AlphaGo Zero que derrotó 100 veces. "AlphaGo Zero también descubrió conocimiento nuevo, desarrollando nuevas estrategias creativas y movimientos no convencionales", explica DeepMind, la empresa filial de Google responsable de su desarrollo, en un artículo.

Con el paso de los años, las máquinas siguen avanzando y superando desafíos. Esto incluye el test de Turing, propuesto por el matemático Alan Turing en 1950 para evaluar si una máquina tiene capacidad para simular conversaciones indistinguibles de las humanas. En un experimento desarrollado por investigadores de la Universidad de California en San Diego en 2024, se propuso a 500 participantes interactuar con cuatro agentes: un humano, ELIZA (un programa de IA de los años 60), GPT-3.5 y GPT-4. Tras comprobar los resultados, un 54% de los participantes de un estudio pensó que GPT-4 era una persona real.

Este estudio demuestra las nuevas capacidades del 'machine learning' para la flexibilidad, la adaptación y la predicción, elementos que ayudan en campos desde los coches autónomos hasta la medicina, pasando por las finanzas y el entretenimiento. Mientras existan datos disponibles de los que aprender, el 'machine learning' seguirá expandiendo sus posibilidades.