Microsoft integra DeepSeek R1 en Azure AI Foundry para dispositivos Copilot+
DeepSeek R1 está transformando la inteligencia artificial con un modelo eficiente y económico, mientras que Microsoft se une a la competencia incorporándolo en Azure AI Foundry.
DeepSeek ha revolucionado el mundo de la inteligencia artificial con un modelo de lenguaje que parece ser más barato de entrenar, más eficiente en términos energéticos y tan inteligente como sus competidores. Mientras empresas como Meta, Google y OpenAI intentan desentrañar cómo el modelo DeepSeek R1 ha alcanzado un nivel de desempeño tan impresionante, Microsoft ha optado por la estrategia de unirse a la ofensiva en lugar de competir directamente.
Microsoft ha anunciado que, tras la llegada de DeepSeek R1 a Azure AI Foundry, los usuarios podrán ejecutar una versión optimizada para NPU de la IA DeepSeek en sus dispositivos Copilot+. Esta función se implementará primero en máquinas con Qualcomm Snapdragon X, seguida de laptops con Intel Core Ultra 200V y chipsets de AMD AI.
Inicialmente, DeepSeek-R1-Distill-Qwen-1.5B estará disponible en el Microsoft AI Toolkit para desarrolladores, y posteriormente se desbloquearán versiones más potentes de 7B y 14B. Aunque estas no son tan impresionantes como las variantes de 32B y 70B que también están disponibles, las versiones 14B y menores de DeepSeek pueden ejecutarse directamente en los dispositivos. Esto mitiga una de las principales preocupaciones sobre el uso de DeepSeek: que los datos compartidos con la IA puedan terminar en servidores extranjeros inseguros.
Microsoft ha afirmado que "DeepSeek R1 ha pasado por rigurosas evaluaciones de seguridad", lo que contribuye a reducir los posibles riesgos en este aspecto. Para comenzar a utilizar la versión Copilot+ de DeepSeek una vez que esté disponible, los usuarios necesitarán una cuenta de Azure, que pueden crear en el sitio web oficial de Microsoft. El siguiente paso será abrir Azure AI Foundry, buscar DeepSeek R1, hacer clic en 'Check out model' en la tarjeta de introducción de DeepSeek R1, y luego proceder con los pasos para desplegar el modelo.
Al poco tiempo, debería abrirse la opción del Chat Playground, y los usuarios podrán comenzar a interactuar con DeepSeek. Si aún no han probado DeepSeek, dos ventajas significativas son que, por el momento, es gratuito y que permite a los usuarios observar el "pensamiento" del modelo mientras desarrolla sus respuestas. A diferencia de otras IAs como ChatGPT, que atraviesan un proceso similar sin mostrarlo, DeepSeek ofrece una mayor transparencia en su proceso de razonamiento, permitiendo a los usuarios ajustar sus solicitudes con mayor precisión.
A medida que se desbloqueen las variantes de 7B y 14B, se espera que el modelo DeepSeek R1 mejore en Azure. Sin embargo, los interesados en probarlo deberían hacerlo lo más pronto posible. Dada la sólida asociación de Microsoft con OpenAI, se anticipa que no manejarán con benevolencia a este nuevo rival si se confirma que DeepSeek copió de ChatGPT, lo que podría conllevar a retirarlo de Azure o a enfrentar posibles prohibiciones en regiones como Estados Unidos e Italia.