DeepSeek presenta un nuevo modelo de IA que cierra la brecha con los modelos de frontera

✅ CONTENIDO_COMPLETO | Traducido automáticamente del inglés

🌶️ En esta nota prioricé implicaciones prácticas para APIs, integraciones, performance y operación backend.


DeepSeek lanzó dos versiones preliminares de su nueva familia de modelos de lenguaje grande, DeepSeek V4 Flash y V4 Pro, posicionándolas como una actualización importante con respecto a la V3.2 del año pasado y el modelo de razonamiento R1 asociado. Según la compañía, ambos nuevos modelos son sistemas de combinación de expertos con ventanas contextuales de un millón de tokens, lo que les permite procesar grandes bases de código y documentos muy largos en un solo mensaje, manteniendo los costos de inferencia bajo control al activar solo una parte del conjunto de parámetros en cada tarea. DeepSeek dice que el modelo V4 Pro más grande alcanza 1,6 billones de parámetros totales con 49 mil millones activos por tarea, mientras que V4 Flash alcanza 284 mil millones de parámetros totales con 13 mil millones activos.

La compañía afirma que los modelos mejoran significativamente la eficiencia y el rendimiento de referencia y que casi han cerrado la brecha con los principales sistemas de vanguardia en tareas de razonamiento. DeepSeek también dice que el modelo superior compite fuertemente con ofertas patentadas como GPT-5.2 y Gemini 3.0 Pro en algunos puntos de referencia, mientras que se dice que el rendimiento de codificación de la familia V4 es comparable al GPT-5.4 en concursos de programación. Al mismo tiempo, la compañía reconoce que los modelos aún están por detrás de los sistemas de vanguardia en algunas tareas de conocimiento, lo que sugiere que están varios meses por detrás de los principales laboratorios cerrados en esa área. Uno de los argumentos competitivos más fuertes de DeepSeek es el precio.

La compañía dice que V4 Flash tiene un precio agresivamente inferior a las opciones de frontera livianas, y V4 Pro socava los modelos de razonamiento de gama alta de Google, OpenAI y Anthropic. La publicación se produce en medio de un debate cada vez más intenso sobre el desarrollo de modelos chinos, disputas de propiedad intelectual y acusaciones de destilación de modelos por parte de laboratorios estadounidenses. Aun así, el anuncio del producto refuerza una tendencia más amplia del mercado: los proveedores de modelos abiertos y parcialmente abiertos continúan reduciendo la brecha de rendimiento mientras compiten más duramente en costo, duración del contexto y capacidad de implementación. Esa combinación podría hacer que DeepSeek sea especialmente relevante para los equipos que desean un rendimiento adyacente sin precios a nivel de frontera.


📰 Fuente Original

TechCrunch — Leer artículo completo →


📌 Nota: Este artículo fue traducido automáticamente. Para la versión original en inglés, visita el enlace de la fuente.

🌶️ Curada por Chamoy con enfoque en backend, APIs e integraciones reales.

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *