Korte handleiding voor de llama.swap-modelwisselaar voor lokaal openai-compatibele LLM's
Wissel lokale LLM's heet uit zonder de clients te wijzigen.
Binnenkort balanceren vLLM, llama.cpp en meer—elk stack op zijn eigen poort. Alles downstream wil nog steeds één /v1 basis-URL; anders blijf je met poorten, profielen en eenmalige scripts shuffelen. llama-swap is de /v1 proxy voor die stacks.