🏠 Monta tu propio servidor de IA casero (sin arruinarte ni volverte loco)

⚡️ Prólogo importante antes de empezar

  • Esta guía NO forma parte de la “guía desde 0” de la web. Si eres completamente nuevo, te recomendamos empezar por esa serie para familiarizarte con los conceptos básicos y el entorno.
  • Un servidor como el de este artículo te servirá para hacer el resto de guías de la página (WordPress, n8n, proxys, bots, etc.), pero ojo: portátiles, miniPCs y Raspberry Pi, que usamos en otras guías, lo tienen mucho más complicado para montar una GPU dedicada. Si tienes uno de esos, podrás seguir la mayoría de tutoriales… ¡pero para IA potente, necesitarás un servidor con gráfica!

1️⃣ ¿Qué es un servidor de IA casero y por qué mola tanto?

Un servidor de IA casero es, básicamente, un PC o un servidor que usas en casa para ejecutar modelos de inteligencia artificial: chatbots, generadores de imágenes, asistentes personales…
La diferencia con un servidor normal es que aquí la gráfica (GPU) es la estrella: cuanto más potente, más rápido y grandes serán los modelos que podrás usar.

¿Ventajas?

  • Privacidad total: tus datos no salen de casa.
  • Sin cuotas ni límites de uso.
  • Puedes probar modelos nuevos, hackear, aprender y presumir de IA propia.

2️⃣ ¿Hace falta gastarse un dineral? ¡No!

Olvídate de las GPUs de 2000 euros.
Para la mayoría de modelos de IA actuales, una gráfica de segunda mano tipo RTX 3090 (24GB de VRAM) es una joya y se puede encontrar por unos 700-800€.
Otras opciones que también valen la pena:

  • RTX 4070 SUPER / 4070 Ti SUPER: Potentes y más baratas nuevas o usadas.
  • RTX 3080 (10GB): Suficiente para modelos medianos y proyectos personales.
  • AMD Radeon RX 6800 XT o RX 7600: Más baratas, ideales si usas modelos compatibles con AMD.
  • Si tu presupuesto es muy ajustado, cualquier GPU moderna con 8GB o más de VRAM ya te permite jugar e incluso probar modelos ligeros.

Consejo punk:
Busca en el mercado de segunda mano, compara precios y no te obsesiones con la última generación. ¡La 3090 sigue siendo un monstruo para IA y mucho más barata que una nueva!

3️⃣ ¿Qué modelo de IA puedo usar según mi gráfica?

  • Modelos ligeros (7B, 13B, tipo Llama2, Mistral, Gemma): Funcionan bien en gráficas de 8 a 16GB de VRAM.
  • Modelos grandes (30B, 70B): Necesitas 24GB o más de VRAM, o usar versiones “quantizadas” (más ligeras).
  • Para imágenes (Stable Diffusion, etc): Con 8-12GB puedes generar imágenes, pero si quieres entrenar modelos o hacer cosas más avanzadas, mejor 16GB o más.

Truco:
Siempre hay versiones “quantizadas” o comprimidas de los modelos grandes para que funcionen en tarjetas más modestas.
¡Adapta el modelo a la memoria de tu gráfica y no intentes cargar uno gigante en una GPU pequeña!

4️⃣ Instala Docker fácil (si no lo tienes)

No te líes con instalaciones raras: sigue nuestra guía y tendrás Docker listo en minutos:
Instala Docker sin miedo: solo copia y pega

5️⃣ Instala Ollama y ponle WebUI (interfaz gráfica)

Aquí viene la parte divertida: tendrás tu propio “ChatGPT casero” accesible desde cualquier navegador.

¿Qué necesitas?

  • Docker y Docker Compose instalados.
  • Una GPU compatible (NVIDIA es lo más sencillo, pero también hay opciones para AMD).

¿Cómo lo montas?

  1. Elige una configuración lista para usar
    Puedes usar repositorios como:
  2. Clona el repositorio o copia el archivo docker-compose.yml recomendado en esas guías.
  3. Asegúrate de tener el soporte para GPU configurado
    (si tienes NVIDIA, sigue los pasos para instalar el NVIDIA Container Toolkit; tienes instrucciones en los propios repos).
  4. Lanza los servicios
    En la carpeta donde tengas el docker-compose.yml, ejecuta:
    docker compose up -d
  5. Accede a la WebUI
    • Normalmente, abre tu navegador y entra en http://localhost:8080 o http://localhost:3000
    • Desde ahí, ve a “Settings” o “Modelos” y descarga el modelo que se adapte a tu gráfica (por ejemplo, llama2-7b para 8GB, llama2-13b para 16GB, etc).
  6. ¿Quieres más detalles o ejemplos de docker-compose.yml?
    Consulta estas referencias para ver configuraciones completas y consejos:

6️⃣ ¿Y si quiero cargar varios modelos o hacer cosas más avanzadas?

  • Puedes cargar varios modelos en tu Ollama, pero recuerda que cada modelo ocupa memoria de la gráfica.
  • Si te quedas sin VRAM, tendrás que descargar modelos más pequeños o cerrar otros que no uses.
  • Algunas plataformas avanzadas permiten “swappear” modelos entre la RAM y la GPU, pero para casa, lo mejor es ajustar siempre el modelo a tu gráfica.
  • Si tienes dudas, empieza por modelos pequeños y ve subiendo. ¡Más vale ir rápido y seguro que colapsar el servidor!

7️⃣ Resumen punk

  • Servidor de IA casero = privacidad, cero cuotas y todo el poder en tus manos.
  • No necesitas la última GPU: una RTX 3090 de segunda mano, una 4070 SUPER o incluso una RX 6800 XT te servirán de sobra.
  • Adapta siempre el modelo a la memoria de tu gráfica.
  • Instala Docker (con nuestra guía), Ollama y Open WebUI y tendrás tu propio ChatGPT en casa.
  • Si te animas, comparte tu experiencia, dudas y logros en los comentarios. ¡La comunidad punk te apoya!

🎸 Despedida

El robot punk ya tiene su servidor de IA casero y presume de él en el barrio digital. ¿Te animas a montarte el tuyo?
En learningaiagents.net seguiremos trayendo guías, ideas y locuras para que tu servidor sea cada vez más inteligente y divertido.
¡Nos leemos en la próxima aventura!

Por ziru

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x