DeepSeek entró a la competencia de Inteligencia Artificial y por su código abierto, permite que pueda usarse de manera gratuita. De hecho, puedes descargar e instalarla para usarlo de forma local.
Te explicamos cómo hacerlo.
DeepSeek entró a la competencia de Inteligencia Artificial y por su código abierto, permite que pueda usarse de manera gratuita. De hecho, puedes descargar e instalarla para usarlo de forma local.
Te explicamos cómo hacerlo.
Para poder instalar la IA, se ocupa el modelo DeepSeek-R1, que es de código abierto y se puede modificar; además es gratis y puede ejecutarse en cualquier la computadora, sin mandar datos a servidores externos. De tal manera que brinda privacidad a los usuarios.
La DeepSeek-R1 puede ser la ideal debido a que no depende tanto de datos, ya que trabaja con el razonamiento como resolución de problemas matemáticos, de programación o procesos lógicos. La IA se “entrena” resolviendo problemas por prueba y error.
Si se corre localmente, se puede usar versiones versiones “distilled” de entre 1.5B y 70B parámetros que funcionan incluso en GPU comunes. Esto evita cuotas mensuales altas o costos por token.
De acuerdo a Javier Guignard, docente en Platzi, compartió su procedimiento de instalación por Ollama , una herramienta para gestionar y correr modelos de lenguaje localmente. Estos son algunos de los requisitos necesarios para hacerlo.
También se puede necesitar Python 3.8 o superior, para interactuar con Ollama y DeepSeek, además de un Git para clonar repositorios si es necesario.
Además, los modelos grandes de IA requieren mucha memoria, así que asegúrate de tener suficiente RAM disponible.
Si no tienes Ollama instalado, sigue estos pasos:
Descarga el instalador desde Ollama Releases y sigue las instrucciones.
En Linux/Mac:
En Windows:
Una vez instalado, inicia Ollama
Con Ollama, puedes descargar y ejecutar directamente DeepSeek si es compatible. Ejecuta el siguiente comando:
Después, podrás ejecutar localmente.
Al hacerlo, iniciará una sesión interactiva donde puedas interactuar con el modelo. Prueba el modelo desde la terminal con ollama run deepseek.
Para integrar DeepSeek en una aplicación local, se puede usar la API de Ollama.
Ollama expone una API HTTP en http://localhost:11434 .
Este es un ejemplo en Python:
Configuraciones adicionales:
Si tienes una GPU compatible, puedes checar de que Ollama esté configurando para usarla.