Chunking to najbardziej niedoceniany hiperparametr w Retrieval ‑ Augmented Generation (RAG):
czynnie określa, co LLM “widzi”,
jak drogie staje się przetwarzanie,
i ile miejsca w oknie kontekstu LLM zużywa się na odpowiedź.
Kontroluj dane i modele za pomocą samodzielnie hostowanych LLMów
Autonomiczne hostowanie modeli językowych (LLM) umożliwia kontrolę nad danymi, modelami i wnioskowaniem – praktyczna droga do autonomii w zakresie AI dla zespołów, przedsiębiorstw i narodów.
Uruchamianie dużych modeli językowych lokalnie zapewnia prywatność, możliwość pracy offline oraz zero kosztów API.
Ten benchmark pokazuje dokładnie, co można się spodziewać od 14 popularnych LLM na Ollama na RTX 4080.
Po automatycznym zainstalowaniu nowego jądra, Ubuntu 24.04 straciła połączenie sieciowe ethernet. To irytujące pytanie wystąpiło u mnie drugi raz, dlatego dokumentuję rozwiązanie, aby pomóc innym, którzy napotkali ten sam problem.
Ceny konsumentских GPU odpowiednich do AI - RTX 5080 i RTX 5090
Porównajmy ceny najnowszych kart graficznych dla użytkowników końcowych, które są szczególnie odpowiednie do LLM, a także ogólnie do AI.
Konkretnie zajmuję się
cenami RTX-5080 i RTX-5090.
Wdrażaj sztuczną inteligencję na poziomie przedsiębiorstwa na sprzęcie o niskim koszcie za pomocą otwartych modeli
Demokratyzacja AI jest tu.
Z powodu otwartych źródeł LLM takich jak Llama 3, Mixtral i Qwen, które teraz rywalizują z modelami prywatnymi, zespoły mogą tworzyć potężną infrastrukturę AI za pomocą sprzętu konsumenta - znacznie obniżając koszty, jednocześnie utrzymując pełną kontrolę nad prywatnością danych i wdrażaniem.
Wyniki testów GPT-OSS 120b na trzech platformach AI
Znalazłem pewne ciekawe testy wydajności GPT-OSS 120b działającego na Ollama na trzech różnych platformach: NVIDIA DGX Spark, Mac Studio, i RTX 4080. Model GPT-OSS 120b z biblioteki Ollama waży 65 GB, co oznacza, że nie mieści się w 16 GB VRAM na RTX 4080 (ani w nowszej RTX 5080).
Szybki przewodnik po poleceniach Docker Model Runnera
Docker Model Runner (DMR) to oficjalne rozwiązanie firmy Docker do uruchamiania modeli AI lokalnie, wprowadzone w kwietniu 2025. Ten cheatsheet zawiera szybki przewodnik po wszystkich istotnych poleceniach, konfiguracjach i najlepszych praktykach.