Que vienen los chinos!

DeepSeek R1 iguala a o1 en benchmarks, cuesta 50 veces menos y es open source: las restricciones de chips de EE.UU. han obligado a China a innovar con menos.

Que vienen los chinos!

Si además de la tecnología te interesa la estrategia y la geopolítica, echa un vistazo a este post. La empresa china, sí, china, DeepSeek AI ha logrado descifrar en menos de seis meses el paradigma actual de los modelos razonadores de #IA, compartiéndolo, además, con la comunidad. Este lanzamiento marca un nuevo hito en la IA, y da acceso a herramientas accesibles, eficientes y de alto rendimiento, al mismo tiempo que fomenta la innovación colaborativa y democratiza el acceso a la tecnología de vanguardia. Y ¿quién tiene la culpa de todo esto? pues, aunque no te lo creas, las políticas de restricción de acceso a la tecnología que han impuesto desde Estados Unidos. Vamos a verlo en detalle.

  • Lanzamiento de DeepSeek R1 DeepSeek lanzó ayer #R1, un modelo significativamente superior al DeepSeek V3, que hace solo tres semanas era el mejor modelo abierto, comparable a #o1, el modelo razonador más potente al que nos ha dado acceso OpenAI. Este lanzamiento no solo incluye el modelo principal, sino también una familia de modelos destilados (más pequeños y portátiles) que los comunes mortales podemos ejecutar en nuestros ordenadores. En unas primeras evaluaciones, la comunidad ha visto que soluciona todos los problemas que se habían detectado en modelo o1 y ya se habían reportado en su blog. Además, todos los modelos están bajo licencia MIT, lo que permite a los usuarios usarlos, modificarlos, distribuirlos y comercializarlos con pocas restricciones. Por si esto fuera poco, estará disponible a través de una API a un precio más que competitivo, entre 27 y 50 veces más barato que el modelo o1 de OpenAI!!.
  • Implicaciones geopolíticas y competencia El hecho de que este avance venga de China supone un desafío para las empresas y la élite tecnológica estadounidense que, probablemente, apretarán los dientes para mantenerse en la delantera. La falta de acceso a procesadores avanzados estadounidenses (como los de NVIDIA o AMD), ha obligado a DeepSeek a desarrollar métodos de entrenamiento más eficientes, como GRPO (Generalized Policy Optimization). Este método optimiza el aprendizaje por refuerzo poniendo el foco en resultados correctos y consistentes, sin depender de métodos supervisados intensivos ni exploraciones costosas. Esto permite superar las limitaciones de hardware y fomentar la innovación en técnicas de entrenamiento escalables.

Impacto en la comunidad de inteligencia artificial Este lanzamiento representa un gran avance para la IA abierta y empuja a las empresas de modelos cerrados a ponerse las pilas: - Proporciona modelos excelentes, asequibles y al nivel de los modelos privados actuales. - Incluye un modelo grande para destilar mejores versiones en el futuro. - Comparte una metodología abierta para crear modelos más potentes y razonadores. Esto deja un amplio margen para seguir optimizando, mejorando y reduciendo costos en el paradigma actual, que no da señales de momento del famoso muro. ¿Opiniones?