3. Configurando Ollama: Ejecutar tu primer LLM localmente en Windows

 ¡Ejecuta tu primer LLM en Windows en 5 minutos! (Guía paso a paso) 💻

¿Quieres probar un modelo de lenguaje (LLM) en tu computadora con Windows? ¡Es más fácil de lo que piensas! En este post, te muestro cómo instalar y usar Ollama para ejecutar tu primer modelo (como Llama 3) sin necesidad de Mac.

🔧 Paso 1: Descarga e instala Ollama

  1. Abre tu navegador (Edge, Chrome, etc.) y ve a ollama.com.

  2. Busca el botón de descarga para Windows (el archivo .exe).

  3. Ejecuta el instalador (siguiente, siguiente, aceptar… ¡lo típico!).

⚡ Paso 2: Abre PowerShell

Una vez instalado:

  1. Busca Windows PowerShell en el menú de inicio.

  2. Ábrelo (¡puedes maximizarlo para ver mejor!).

🤖 Paso 3: Ejecuta tu primer modelo

Escribe este comando en PowerShell:

bash
Copy
Download
ollama run llama3

(Opcional: Si quieres otro modelo, cambia llama3 por el nombre del que prefieras).

El modelo se descargará automáticamente. ¡Cuando termine, podrás chatear con él!

🌍 Ejemplo práctico: Aprende español con tu LLM

Prueba este prompt (en inglés o español):

"Estoy aprendiendo español. Soy principiante. Por favor, habla conmigo en español básico y corrige mis errores."

El LLM responderá de forma paciente (¡incluso te señalará faltas de ortografía como olvidar acentos o signos de interrogación 😉).

💡 Bonus

  • ¿Sin ideas? Pídele ayuda para escribir emails, traducir textos o generar código.

  • ¿Problemas? Asegúrate de tener conexión a internet y permisos de administrador si es necesario.


🎉 ¡Y listo! Ya tienes un asistente de IA corriendo localmente en tu PC. ¿Para qué lo usarás tú? ¡Cuéntame en los comentarios! 👇

(Basado en el tutorial de Ed Donner, adaptado para Windows)

Comentarios

Entradas más populares de este blog

LLMs Open Source

Cómo crear tu primer LLM local con Ollama

¿Qué es un "Agente" en el contexto de IA?