Microsoft se rinde ante la IA de DeepSeek: lanzará versiones optimizadas y destiladas para sus equipos Windows 11 Copilot+ PC

Estos últimos días han estado algo agitados con el lanzamiento de DeepSeek R1, un modelo de lenguaje que ha demostrado competir de tú a tú con los modelos más avanzados de OpenAI. No solo esto, sino que ha creado toda una nube de incertidumbre al conocerse que ha sido desarrollado con infinitos menos recursos que los de la compañía estadounidense, abriendo además el modelo para que cualquiera pueda modificarlo o desarrollar sobre él. El campo de la inteligencia artificial generativa avanza a pasos agigantados, y se trata de un tren al que compañías como Microsoft no quieren bajarse. Por ello mismo, la compañía ha anunciado que optimizará versiones de DeepSeek R1 destiladas para sus Copilot+ PCs, haciendo que cualquiera que tenga estos equipos pueda ejecutar en local estos modelos de lenguaje optimizados para chips neurales basados en ARM como los de Snapdragon X, Intel Lunar Lake o AMD Ryzen AI 9. Microsoft da la bienvenida a DeepSeek en sus equipos Según ha anunciado la compañía en una publicación de su blog oficial, comenzarán con ‘DeepSeek-R1-Distill-Qwen-1.5B’, una versión de DeepSeek R1 destilada de Qwen y con 1.500 millones de parámetros. La destilación de modelos consiste en entrenar un modelo más pequeño (con menos parámetros, y en líneas generales menos capaz), a partir de la información de un modelo más grande y avanzado. De este modo, se logra un sistema más eficiente y rápido sin comprometer significativamente su rendimiento. El modelo podrá ser descargado en el equipo a través de Microsoft AI Toolkit, un conjunto de herramientas para desarrolladores. Las versiones de 7B y 14B llegarán próximamente. Los Copilot+ PC de Microsoft son equipos con Windows 11 que cuentan, como mínimo, con 256 GB de almacenamiento interno, 16 GB de RAM y una NPU con la capacidad de proveer un mínimo de 40 TOPS de potencia. Esto significa que algunos PC antiguos equipados con NPU no podrán ejecutar estos modelos localmente. En Genbeta DeepSeek ofrece algo a los programadores que ChatGPT no: un vistazo a cómo la IA piensa sus respuestas. Y eso lo cambia todo “Estos modelos optimizados permiten a los desarrolladores crear y desplegar aplicaciones basadas en IA que se ejecutan de forma eficiente en el dispositivo, aprovechando al máximo las potentes NPU de los Copilot+ PC”, afirma Microsoft desde su publicación. “Con nuestro trabajo en Phi Silica, hemos sido capaces de aprovechar la inferencia de alta eficiencia - ofreciendo un tiempo muy competitivo para el primer token y tasas de rendimiento, mientras que afecta mínimamente a la duración de la batería y el consumo de recursos del PC ... Además, aprovechamos Windows Copilot Runtime (WCR) para escalar a través del diverso ecosistema de Windows con formato ONNX QDQ.” En esta misma publicación, Microsoft comparte además cómo ha logrado que los modelos de DeepSeek R1 puedan ejecutarse en local mediante hardware basado en NPU. “En primer lugar, aprovechamos un diseño de ventana deslizante que proporciona un tiempo superrápido hasta el primer token y soporte de contexto largo a pesar de no disponer de soporte de tensor dinámico en el hardware. En segundo lugar, utilizamos el esquema de cuantificación QuaRot de 4 bits para aprovechar realmente el procesamiento de bits bajos”. Aunque no han dado una fecha, desde Microsoft aseguran que el modelo destilado de R1 llegará pronto a la extensión AI Toolkit de VS Code, por lo que cualquier desarrollador que utilice este entorno de programación podrá beneficiarse de las capacidades de este modelo de lenguaje en un Copilot+ PC con NPU. Además de esto, Microsoft se ha abierto a los modelos de DeepSeek de tal manera que también ha hecho estos modelos compatibles también a través de la nube de Azure AI Foundry. Esto permite que cualquiera que utilice estos servicios en la nube pueda trabajar con los modelos de lenguaje de DeepSeek optimizados por Microsoft. Es sorprendente cómo Microsoft ha adaptado DeepSeek a sus tecnologías, teniendo en cuenta que la gran mayoría de las firmas tecnológicas estadounidenses se encuentran en estado de alerta ante la existencia de este modelo. En Genbeta | Apostar por un lenguaje minoritario es el secreto de la descomunal eficiencia de DeepSeek: deja de lado al estándar CUDA de NVIDIA - La noticia Microsoft se rinde ante la IA de DeepSeek: lanzará versiones optimizadas y destiladas para sus equipos Windows 11 Copilot+ PC fue publicada originalmente en Genbeta por Antonio Vallejo .

Ene 30, 2025 - 14:17
 0
Microsoft se rinde ante la IA de DeepSeek: lanzará versiones optimizadas y destiladas para sus equipos Windows 11 Copilot+ PC

Microsoft se rinde ante la IA de DeepSeek: lanzará versiones optimizadas y destiladas para sus equipos Windows 11 Copilot+ PC

Estos últimos días han estado algo agitados con el lanzamiento de DeepSeek R1, un modelo de lenguaje que ha demostrado competir de tú a tú con los modelos más avanzados de OpenAI. No solo esto, sino que ha creado toda una nube de incertidumbre al conocerse que ha sido desarrollado con infinitos menos recursos que los de la compañía estadounidense, abriendo además el modelo para que cualquiera pueda modificarlo o desarrollar sobre él.

El campo de la inteligencia artificial generativa avanza a pasos agigantados, y se trata de un tren al que compañías como Microsoft no quieren bajarse. Por ello mismo, la compañía ha anunciado que optimizará versiones de DeepSeek R1 destiladas para sus Copilot+ PCs, haciendo que cualquiera que tenga estos equipos pueda ejecutar en local estos modelos de lenguaje optimizados para chips neurales basados en ARM como los de Snapdragon X, Intel Lunar Lake o AMD Ryzen AI 9.

Microsoft da la bienvenida a DeepSeek en sus equipos

Según ha anunciado la compañía en una publicación de su blog oficial, comenzarán con ‘DeepSeek-R1-Distill-Qwen-1.5B’, una versión de DeepSeek R1 destilada de Qwen y con 1.500 millones de parámetros. La destilación de modelos consiste en entrenar un modelo más pequeño (con menos parámetros, y en líneas generales menos capaz), a partir de la información de un modelo más grande y avanzado. De este modo, se logra un sistema más eficiente y rápido sin comprometer significativamente su rendimiento.

El modelo podrá ser descargado en el equipo a través de Microsoft AI Toolkit, un conjunto de herramientas para desarrolladores. Las versiones de 7B y 14B llegarán próximamente. Los Copilot+ PC de Microsoft son equipos con Windows 11 que cuentan, como mínimo, con 256 GB de almacenamiento interno, 16 GB de RAM y una NPU con la capacidad de proveer un mínimo de 40 TOPS de potencia. Esto significa que algunos PC antiguos equipados con NPU no podrán ejecutar estos modelos localmente.

“Estos modelos optimizados permiten a los desarrolladores crear y desplegar aplicaciones basadas en IA que se ejecutan de forma eficiente en el dispositivo, aprovechando al máximo las potentes NPU de los Copilot+ PC”, afirma Microsoft desde su publicación. “Con nuestro trabajo en Phi Silica, hemos sido capaces de aprovechar la inferencia de alta eficiencia - ofreciendo un tiempo muy competitivo para el primer token y tasas de rendimiento, mientras que afecta mínimamente a la duración de la batería y el consumo de recursos del PC ... Además, aprovechamos Windows Copilot Runtime (WCR) para escalar a través del diverso ecosistema de Windows con formato ONNX QDQ.”

En esta misma publicación, Microsoft comparte además cómo ha logrado que los modelos de DeepSeek R1 puedan ejecutarse en local mediante hardware basado en NPU. “En primer lugar, aprovechamos un diseño de ventana deslizante que proporciona un tiempo superrápido hasta el primer token y soporte de contexto largo a pesar de no disponer de soporte de tensor dinámico en el hardware. En segundo lugar, utilizamos el esquema de cuantificación QuaRot de 4 bits para aprovechar realmente el procesamiento de bits bajos”.

Aunque no han dado una fecha, desde Microsoft aseguran que el modelo destilado de R1 llegará pronto a la extensión AI Toolkit de VS Code, por lo que cualquier desarrollador que utilice este entorno de programación podrá beneficiarse de las capacidades de este modelo de lenguaje en un Copilot+ PC con NPU.

Además de esto, Microsoft se ha abierto a los modelos de DeepSeek de tal manera que también ha hecho estos modelos compatibles también a través de la nube de Azure AI Foundry. Esto permite que cualquiera que utilice estos servicios en la nube pueda trabajar con los modelos de lenguaje de DeepSeek optimizados por Microsoft.

Es sorprendente cómo Microsoft ha adaptado DeepSeek a sus tecnologías, teniendo en cuenta que la gran mayoría de las firmas tecnológicas estadounidenses se encuentran en estado de alerta ante la existencia de este modelo.

En Genbeta | Apostar por un lenguaje minoritario es el secreto de la descomunal eficiencia de DeepSeek: deja de lado al estándar CUDA de NVIDIA

-
La noticia Microsoft se rinde ante la IA de DeepSeek: lanzará versiones optimizadas y destiladas para sus equipos Windows 11 Copilot+ PC fue publicada originalmente en Genbeta por Antonio Vallejo .