BACK_TO_FEEDAICRIER_2
IA local: 3060 rinde, P102-100 flojea
OPEN_SOURCE ↗
REDDIT · REDDIT// 3h agoINFRASTRUCTURE

IA local: 3060 rinde, P102-100 flojea

El post pregunta si hace falta un sistema operativo concreto para sacar partido a una IA local en un TrueNAS Scale con i5-4570, 32 GB de RAM y una RTX 3060 de 12 GB. También plantea si una Nvidia P102-100 barata merece la pena para mover modelos más grandes sin disparar el presupuesto.

// ANALYSIS

La respuesta corta es que el salto importante no viene de “un SO mágico”, sino de una pila bien soportada y de tener VRAM suficiente; la 3060 de 12 GB ya es una base seria para local LLMs. La P102-100 suena más a apuesta de minería con soporte irregular que a compra inteligente para un setup que quieres usar a diario.

  • Linux suele ser la vía más cómoda para CUDA, Ollama y frontends como Open WebUI, pero no es un requisito absoluto si tu stack ya funciona en TrueNAS Scale.
  • Para chat local y uso tipo Claude Code, el cuello de botella real es la VRAM y la calidad del modelo, no solo el sistema operativo.
  • Una 3060 de 12 GB ya puede mover muy bien modelos 7B y 14B cuantizados; con RAM de sistema puedes probar modelos mayores, aunque más lento.
  • La P102-100 puede parecer barata, pero su valor depende mucho del estado físico, consumo, compatibilidad y soporte; a menudo compensa más ahorrar para una GPU con mejor ecosistema.
  • Si el objetivo es productividad real, suele rendir más afinar Open WebUI, Ollama y el modelo elegido que añadir hardware viejo y dudoso.
// TAGS
open-webuillmself-hostedgpuinferenceai-coding

DISCOVERED

3h ago

2026-04-17

PUBLISHED

18h ago

2026-04-16

RELEVANCE

8/ 10

AUTHOR

Individual-Party1661