AI

Dostawcy LLM w chmurze

Dostawcy LLM w chmurze

Krótki wykaz dostawców LLM

Użycie modeli językowych dużych (LLM) nie jest bardzo drogie, może nie być potrzeby zakupu nowego, wspaniałego GPU.
Oto lista, jeśli dostawcy LLM w chmurze z LLM, które hostują.

Jak Ollama Obsługuje Wątki Równoległe

Jak Ollama Obsługuje Wątki Równoległe

Konfiguracja ollama do wykonywania równoległych żądań.

Gdy serwer Ollama otrzymuje dwa żądania jednocześnie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.

Vibe Coding - znaczenie i opis

Vibe Coding - znaczenie i opis

Co to jest ta nałogowa programowanie wspomagana AI?

Vibe coding to podejście do programowania napędowane przez sztuczną inteligencję, w którym programiści opisują pożądaną funkcjonalność w języku naturalnym, pozwalając narzędziom AI na automatyczne generowanie kodu.

Testowanie Deepseek-R1 na Ollama

Testowanie Deepseek-R1 na Ollama

Porównanie dwóch modeli deepseek-r1 z dwoma modelami bazowymi

Modeli DeepSeek pierwszego pokolenia z wydajnością porównywalną do modeli OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.

Farfalle vs Perplexica

Farfalle vs Perplexica

Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI

Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.

Autonomiczne hostowanie Perplexica – z użyciem Ollama

Autonomiczne hostowanie Perplexica – z użyciem Ollama

Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!

To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testowanie wykrywania błędnego rozumowania

Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Zróbmy test i zobaczmy, jak działają, gdy wykrywają błędy logiczne.