3. Configurando Ollama: Ejecutar tu primer LLM localmente en Windows
¡Ejecuta tu primer LLM en Windows en 5 minutos! (Guía paso a paso) 💻
¿Quieres probar un modelo de lenguaje (LLM) en tu computadora con Windows? ¡Es más fácil de lo que piensas! En este post, te muestro cómo instalar y usar Ollama para ejecutar tu primer modelo (como Llama 3) sin necesidad de Mac.
🔧 Paso 1: Descarga e instala Ollama
Abre tu navegador (Edge, Chrome, etc.) y ve a ollama.com.
Busca el botón de descarga para Windows (el archivo
.exe).Ejecuta el instalador (siguiente, siguiente, aceptar… ¡lo típico!).
⚡ Paso 2: Abre PowerShell
Una vez instalado:
Busca Windows PowerShell en el menú de inicio.
Ábrelo (¡puedes maximizarlo para ver mejor!).
🤖 Paso 3: Ejecuta tu primer modelo
Escribe este comando en PowerShell:
ollama run llama3(Opcional: Si quieres otro modelo, cambia llama3 por el nombre del que prefieras).
El modelo se descargará automáticamente. ¡Cuando termine, podrás chatear con él!
🌍 Ejemplo práctico: Aprende español con tu LLM
Prueba este prompt (en inglés o español):
"Estoy aprendiendo español. Soy principiante. Por favor, habla conmigo en español básico y corrige mis errores."
El LLM responderá de forma paciente (¡incluso te señalará faltas de ortografía como olvidar acentos o signos de interrogación 😉).
💡 Bonus
¿Sin ideas? Pídele ayuda para escribir emails, traducir textos o generar código.
¿Problemas? Asegúrate de tener conexión a internet y permisos de administrador si es necesario.
🎉 ¡Y listo! Ya tienes un asistente de IA corriendo localmente en tu PC. ¿Para qué lo usarás tú? ¡Cuéntame en los comentarios! 👇
(Basado en el tutorial de Ed Donner, adaptado para Windows)
Comentarios
Publicar un comentario