Autonomiczne hostowanie Perplexica – z użyciem Ollama

Autonomiczne hostowanie Perplexica – z użyciem Ollama

Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!

To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testowanie wykrywania błędnego rozumowania

Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Zróbmy test i zobaczmy, jak działają, gdy wykrywają błędy logiczne.

Napisywanie skutecznych promptów dla LLMs

Napisywanie skutecznych promptów dla LLMs

Wymaga pewnego doświadczenia, ale

Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.

Przenieś modele Ollama na inne lokalizacje

Przenieś modele Ollama na inne lokalizacje

Pliki modeli LLM Ollama zajmują dużo miejsca.

Po zainstalowaniu ollama lepiej natychmiast skonfigurować Ollama, aby przechowywał je w nowym miejscu. Wtedy, po pobraniu nowego modelu, nie zostanie on pobrany do starego lokalizacji.

Instalacja Pi-Hole - darmowy blokujący reklamy

Instalacja Pi-Hole - darmowy blokujący reklamy

Jest tak frustrujące, że trzeba patrzeć na wszystkie te reklamy.

Możesz zainstalować wtyczkę lub dodatek do blokowania reklam w przeglądarce dla Google Chrome, Firefox lub Safari, ale musisz to zrobić na każdym urządzeniu.
Moje ulubione rozwiązanie to blokada reklam w sieci.

Wdrażanie witryny Hugo na AWS S3

Wdrażanie witryny Hugo na AWS S3

Hugo to generator statycznych stron internetowych

Gdy strona zostanie wygenerowana za pomocą hugo, czas na wdrożenie jej na jakimś platformie hostingowej. Oto jak przesłać ją do AWS S3 i udostępnić za pomocą AWS CloudFront CDN.

Test prędkości modeli dużych języków

Test prędkości modeli dużych języków

Sprawdźmy prędkość LLM na GPU vs CPU

Porównanie prędkości przewidywania kilku wersji LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) na CPU i GPU.

Backup and Restore Gitea server

Backup and Restore Gitea server

W trudnych czasach może się wydarzyć wszystko.

Należy wykonać kopie zapasowe 1) bazy danych, 2) magazynu plików, 3) innych plików Gitea. Oto jak to zrobić.

Menu kontekstowe Linux Mint Cinnamon

Menu kontekstowe Linux Mint Cinnamon

Czasami wystarczy dodać tam swoje przedmioty...

Przycinanie, skalowanie i dodawanie obramowań do obrazów na tym blogu zmusiło mnie do dodania tej często używanej funkcji do menu kontekstowego w Linux Mint Cinnamon.

Receptura grzanej winogronowej herbaty

Receptura grzanej winogronowej herbaty

W zimowej, chłodnej wieczornie tak ciepło jest mieć

Znałem ten napój jako “Glintwein”, w języku angielskim częściej nazywany jest Winem Mulowanym.
Ma sporo składników i oryginalny smak. Kocham go!