Självhöstad AI-sökning med lokala stora språkmodeller
Vane är en av de mer pragmatiska lösningarna inom området för “AI-sök med källhänvisningar”: ett självärbetet svarsmotor som blandar live-webbhämtning med lokala eller molnbaserade LLM:er, samtidigt som hela stacken hålls under din kontroll.
Ollama är som mest lyckligt när det behandlas som en lokal daemon: CLI:n och dina appar pratar med en loopback HTTP-API, och resten av nätverket får aldrig veta att det finns.
Ollama-server med komposition i förgrunden, GPU och uthållighet.
Ollama fungerar utmärkt på “bare metal”. Det blir ännu mer intressant när du behandlar det som en tjänst: en stabil slutpunkt, fastlagda versioner, beständig lagring och en GPU som antingen är tillgänglig eller inte.
Om du arbetar med retrieval-augmented generation (RAG), går detta avsnitt igenom textembeddings i enkla termer – vad de är, hur de passar in i sökning och hämtning, och hur du anropar två vanliga lokala konfigurationer från Python med hjälp av Ollama eller en OpenAI-kompatibel HTTP-API (vilket många llama.cpp-baserade servrar exponerar).
OpenCode LLM-test — kodnings- och noggrannhetsstatistik
Jag har testat hur OpenCode fungerar med flera lokalt värdade LLM från Ollama och llama.cpp, och för jämförelse har jag även inkluderat några gratismodeller från OpenCode Zen.
A performance engineering hub for running LLMs efficiently: runtime behavior, bottlenecks, benchmarks, and the real constraints that shape throughput and latency.
Strategic guide to hosting large language models locally with Ollama, llama.cpp, vLLM, or in the cloud. Compare tools, performance trade-offs, and cost considerations.
Att köra stora språkmodeller lokalt ger dig integritet, möjlighet att använda dem offline och noll kostnader för API:er.
Detta benchmark visar exakt vad man kan förvänta sig från 14 populära
LLMs på Ollama på en RTX 4080.
Go-ekosystemet fortsätter att blomstra med innovativa projekt inom AI-verktyg, självvärddade program och utvecklareinfrastruktur. Den här översikten analyserar de topp 100 populära Go-repositorier på GitHub denna månad.
Verkliga AUD-priser från australiska återförsäljare nu
NVIDIA DGX Spark
(https://www.glukhov.org/sv/hardware/ai/nvidia-dgx-spark/ “NVIDIA DGX Spark - liten AI-superdator”)
(GB10 Grace Blackwell) är nu tillgänglig i Australien
(https://www.glukhov.org/sv/hardware/ai/dgx-spark-pricing-in-australia/ “DGX Spark i Australien”)
hos större datorhandlare med lokalt lager.
Om du har följt
globala priser och tillgänglighet för DGX Spark,
är du kanske intresserad av att veta att priserna i Australien ligger mellan 6 249 och 7 999 AUD beroende på lagringskonfiguration och återförsäljare.
När du arbetar med stora språkmodeller i produktion är det kritiskt att få strukturerade, typsäkra utdata.
Två populära ramverk – BAML och Instructor – använder olika metoder för att lösa detta problem.