Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

En qué se diferencia DeepSeek de los demás actores de la IA generativa

La startup china DeepSeek ha causado un gran impacto al desarrollar un modelo de inteligencia artificial de código abierto similar a ChatGPT, pero más eficiente. A diferencia de los desarrollos de empresas como OpenAI o Google, el modelo de DeepSeek se caracteriza por una novedosa técnica de aprendizaje por refuerzo que hace que el entrenamiento sea más eficiente, y por la economía de recursos de 'hardware', ya que aseguran haber desarrollado el modelo haciendo uso de unas 2.000 unidades de procesamiento gráfico, frente a las decenas de miles que han requerido otros modelos.

En qué se diferencia DeepSeek de los demás actores de la IA generativa

DeepSeek es "el momento Sputnik de la IA", publicó en la red social X Marc Andreessen, inversor de capital riesgo en tecnología, poco después del lanzamiento de los modelos de inteligencia artificial que están revolucionando la industria. Su rápida adopción captó la atención de los analistas y, en las tiendas de aplicaciones móviles, pronto logró igualar e incluso superar a ChatGPT en número de descargas. Su aparición ha intensificado la competencia en el sector de la IA y alterar el equilibrio de poder en una industria dominada hasta ahora por gigantes tecnológicos estadounidenses, como OpenAI y Google.

Las diferencias con otros modelos de IA generativa

El modelo que marcó la diferencia fue DeepSeek R1, anunciado a finales de enero de 2025. Está especializado en tareas de razonamiento y, según las pruebas publicadas por sus fabricantes, ha logrado igualar o incluso superar el rendimiento de las soluciones más avanzadas de OpenAI en áreas como las matemáticas o la programación.

Uno de los factores clave detrás de la eficiencia en el entrenamiento de DeepSeek R1 son las mejoras en el uso del llamado aprendizaje por refuerzo ('reinforcement learning'). Se trata de una técnica muy reconocida en el ámbito de la inteligencia artificial que consiste en aprender mediante prueba y error, mejorando sus habilidades de razonamiento de manera autónoma. "Consiste en exponer al modelo a un entorno dinámico donde recibe recompensas o penalizaciones en función de sus acciones, incentivándolo a explorar y mejorar continuamente de sus decisiones", explica Alberto Hernández, responsable del GenAI Lab de BBVA. "De este modo, pasan de un objetivo de 'predicción' (es decir, minimizar el error al acertar la próxima palabra en su respuesta) a uno de maximización de recompensas aprendidas a partir de criterios humanos, lo que fomenta la generación de respuestas que se ajusten mejor a las preferencias y expectativas de las personas".

Compañías como OpenAI también utilizan el aprendizaje por refuerzo para entrenar sus modelos del lenguaje, pero DeepSeek ha optimizado la técnica. Las demás compañías suelen utilizar los algoritmos de aprendizaje por refuerzo llamados PPO (Proximal Policy Optimization), que van ajustando gradualmente el modelo de lenguaje a medida que lo entrenan, sin desviarse demasiado de su versión anterior. Por el contrario, DeepSeek introduce los algoritmos GRPO (Group Relative Policy Optimization), que evalúan y ajustan los resultados que da el modelo no de manera individual, sino por grupos de resultados similares. "Esta vía ofrece mayor flexibilidad, menores tiempos de entrenamiento y un consumo de recursos más eficiente", subraya Hernández.

Además del GRPO empleado para el aprendizaje por refuerzo, DeepSeek se beneficia de otros factores clave que impulsan su eficiencia. "Por un lado, implementa una arquitectura modular (MoE, o 'Mixture of Experts') que facilita la interpretación y reduce la latencia. Por otro, prioriza la curación de datos, descartando información redundante o de baja calidad antes del entrenamiento, lo que disminuye el tiempo de cómputo sin sacrificar rendimiento", detalla Alberto Hernández. No obstante, también señala las sospechas que existen sobre la probabilidad de que DeepSeek se haya apalancado en modelos competidores, "usándolos como 'maestros' de los modelos entrenados, acelerando así su curva de aprendizaje".

Eficiencia en lugar de potencia

Otro de los aspectos más sorprendentes de este modelo es su eficiencia. Mientras que las grandes empresas de inteligencia artificial suelen entrenar sus herramientas con supercomputadoras que utilizan más de 16.000 chips especializados, DeepSeek aseguró haber necesitado solo alrededor de 2.000, según señala un artículo en 'The New York Times'.

En qué se diferencia DeepSeek de los demás actores de la IA generativa

DeepSeek afirma en su informe técnico que entrenar a R1 ha costado apenas 5,6 millones de dólares, una cifra muy inferior a los 78 millones de dólares invertidos en GPT-4 y los 191 millones de dólares que requirió Gemini Ultra de Google, según el Artificial Intelligence Index Report 2024. No obstante, los informáticos chinos aclaran en el mismo documento que esta cifra no contempla los "costes asociados a investigaciones previas ni a experimentos en arquitecturas, algoritmos o datos". Por razones como esta, algunos analistas, como Dylan Patel, de la consultora SemiAnalysis, cuestionan la veracidad de este dato interno, tal y como recoge el 'Financial Times'.

Al ser de código abierto, cualquier persona puede descargar DeepSeek R1 y realizar pruebas en su propio ordenador para evaluar su funcionamiento. Un desarrollador o investigador tiene la posibilidad de acceder al modelo a través de GitHub, modificarlo según sus necesidades y aplicarlo en diversos escenarios. Incluso es posible operar el modelo de manera local, sin necesidad de conexión a Internet, para garantizar que toda la información se mantenga de forma privada en el dispositivo.

Esta misma transparencia se aplica durante su funcionamiento, del que DeepSeek ofrecer un alto nivel de "explicabilidad", es decir, una visibilidad completa de las cadenas de razonamiento que generan sus respuestas. "Esto contrasta con las plataformas propietarias tradicionales que, si bien poseen gran eficacia, suelen mantener en secreto gran parte de sus procesos internos de entrenamiento y de inferencia", afirma el responsable de GenAI Lab.

De este modo, la irrupción de DeepSeek marca un punto de inflexión en el sector de la inteligencia artificial. "Plantea un importante impulso a la transparencia científica y a la apertura del conocimiento en IA, al compartir información técnica con la comunidad y favorecer el desarrollo de modelos más colaborativos", destaca Hernández. No obstante, esta es solo la primera etapa de una carrera por la inteligencia artificial que aún tiene un largo camino por recorrer.

Quién está detrás de DeepSeek

DeepSeek es una startup fundada en mayo de 2023 por High-Flyer, un fondo chino que lleva años utilizando la IA para tomar decisiones de inversión, según explican en su página web. La compañía se ha destacado por atraer a jóvenes talentos en el campo de la inteligencia artificial, ofreciéndoles salarios competitivos y la oportunidad de participar en proyectos de investigación de vanguardia.

Liang Wenfeng, empresario e ingeniero informático, es el responsable de High-Flyer y DeepSeek, y está cerca de entrar en la lista de las personas más ricas del mundo. Pese a su creciente influencia, se sabe poco sobre él: rara vez aparece en público o concede entrevistas, y está centrado en acelerar el avance de la inteligencia artificial. El fundador de DeepSeek reconoce que no anticipaba un éxito tan grande con DeepSeek R1. En una entrevista en 'The China Academy', Wenfeng reconoció estar "muy sorprendido" por el impacto de su empresa: "Nunca tuvimos la intención de ser disruptivos, simplemente sucedió por accidente".

Podcast | Así transforma BBVA sus procesos internos con ChatGPT

00:00 12:01