DeepSeek Coder V2: El modelo de código abierto que supera a GPT-4 Turbo

La startup china de inteligencia artificial, DeepSeek, ha dado un golpe en la mesa con el lanzamiento de DeepSeek Coder V2, un modelo de lenguaje de código abierto que ha superado a los modelos de vanguardia como GPT-4 Turbo, Claude 3 Opus y Gemini 1.5 Pro. Este anuncio marca un hito en el campo de la inteligencia artificial, posicionando a DeepSeek Coder V2 como el primer modelo abierto en lograr esta hazaña.

Un gigante en el mundo del código y las matemáticas

DeepSeek Coder V2, basado en el modelo DeepSeek-V2 que debutó el mes pasado, destaca por su capacidad para tareas de codificación y matemáticas. Con soporte para más de 300 lenguajes de programación, ha demostrado su superioridad frente a otros modelos de código cerrado en pruebas de generación y edición de código, así como en resolución de problemas matemáticos.

Características y rendimiento

El nuevo modelo ofrece una serie de mejoras significativas sobre su predecesor. Mientras que la versión original soportaba 86 lenguajes de programación y tenía una ventana de contexto de 16K, DeepSeek Coder V2 amplía este soporte a 338 lenguajes y una ventana de contexto de 128K. Esto le permite manejar tareas de codificación más complejas y extensas.

En pruebas de evaluación como MBPP+, HumanEval y Aider, DeepSeek Coder V2 obtuvo puntajes de 76.2, 90.2 y 73.7, respectivamente, superando a modelos cerrados y abiertos como GPT-4 Turbo, Claude 3 Opus, y Llama-3 70B. En capacidades matemáticas, el modelo también mostró un rendimiento sobresaliente, con puntajes altos en benchmarks como MATH y GSM8K.

La tecnología detrás del éxito

DeepSeek ha logrado estos avances técnicos utilizando su marco Mixture of Experts (MoE) como base. El modelo se pre-entrenó con un dataset adicional de 6 billones de tokens, principalmente compuesto por datos de código y matemáticas extraídos de GitHub y CommonCrawl. Este enfoque permite al modelo activar solo los parámetros necesarios para cada tarea específica, optimizando así su rendimiento y eficiencia.

Rendimiento en tareas generales de lenguaje y razonamiento

Además de su destreza en tareas de codificación y matemáticas, DeepSeek Coder V2 también ofrece un rendimiento sólido en tareas generales de razonamiento y comprensión del lenguaje. En el benchmark MMLU, que evalúa la comprensión del lenguaje a través de múltiples tareas, el modelo obtuvo una puntuación de 79.2, comparable a la de Llama-3 70B y solo ligeramente inferior a GPT-4o y Claude 3 Opus.

Disponibilidad y acceso

DeepSeek Coder V2 se ofrece bajo una licencia MIT, permitiendo tanto el uso en investigación como el uso comercial sin restricciones. Los modelos están disponibles para descarga en tamaños de 16B y 236B en Hugging Face, y también se puede acceder a ellos mediante API a través de la plataforma de DeepSeek bajo un modelo de pago por uso. Para aquellos interesados en probar sus capacidades, la compañía ofrece la opción de interactuar con DeepSeek Coder V2 a través de un chatbot.

Con esta innovadora oferta, DeepSeek no solo refuerza su posición en el competitivo campo de la inteligencia artificial, sino que también abre nuevas posibilidades para la comunidad de código abierto, demostrando que los modelos abiertos pueden estar a la altura de los mejores sistemas cerrados del mercado.

Últimos artículos

Scroll al inicio