AI

Suche vs. Deepsearch vs. Deep Research

Suche vs. Deepsearch vs. Deep Research

Wie unterschiedlich sind sie?

  • Suche ist am besten geeignet, um Informationen schnell und direkt mit Schlüsselwörtern abzurufen.
  • Tiefe Suche ist hervorragend darin, den Kontext und die Absicht zu verstehen und dadurch für komplexe Abfragen relevantere und umfassendere Ergebnisse liefert.
Cloud-LLM-Anbieter

Cloud-LLM-Anbieter

Kurze Liste von LLM-Anbietern

Die Verwendung von LLMs ist nicht sehr teuer, es könnte also kein Bedarf bestehen, neue, beeindruckende GPU-Karten zu kaufen.
Hier ist eine Liste der LLM-Anbieter in der Cloud mit den LLMs, die sie hosten.

Test: Wie Ollama die Leistung und Effizienz der Intel CPU-Kerne nutzt

Test: Wie Ollama die Leistung und Effizienz der Intel CPU-Kerne nutzt

Ollama auf Intel CPU: Effiziente vs. Leistungscores

Ich habe eine Theorie, die ich testen möchte – wenn man alle Kerne eines Intel-Prozessors nutzt, würde das die Geschwindigkeit von LLMs erhöhen? Test: Wie Ollama die Leistung und effizienten Kerne von Intel-Prozessoren nutzt

Es stört mich, dass das neue Gemma3-Modell mit 27 Bit (gemma3:27b, 17 GB auf Ollama) nicht in die 16 GB VRAM meines GPUs passt und teilweise auf dem CPU läuft.

Wie Ollama parallele Anfragen verarbeitet

Wie Ollama parallele Anfragen verarbeitet

Konfigurieren Sie ollama für die parallele Ausführung von Anfragen.

Wenn der Ollama-Server zwei Anfragen gleichzeitig erhält, hängt sein Verhalten von seiner Konfiguration und den verfügbaren Systemressourcen ab.

Vibe Coding – Bedeutung und Beschreibung

Vibe Coding – Bedeutung und Beschreibung

Was ist diese trendige, von KI unterstützte Programmierung?

Vibe coding ist ein AI-getriebener Programmieransatz, bei dem Entwickler die gewünschte Funktionalität in natürlicher Sprache beschreiben, wodurch AI-Tools den Code automatisch generieren.

Testen von Deepseek-R1 mit Ollama

Testen von Deepseek-R1 mit Ollama

Vergleich zweier deepseek-r1-Modelle mit zwei Basismodellen

DeepSeek’s erste Generation von Schlussfolgerungsmodellen mit Leistung, die vergleichbar mit OpenAI-o1 ist, einschließlich sechs dichter Modelle, die aus DeepSeek-R1 basierend auf Llama und Qwen destilliert wurden.

Ollama-Cheatsheet

Ollama-Cheatsheet

Habe diese Ollama-Befehlsliste vor einiger Zeit erstellt...

Hier ist die Liste und Beispiele der nützlichsten Ollama-Befehle (Ollama-Befehle-Cheat-Sheet), die ich vor einiger Zeit zusammengestellt habe. Hoffentlich wird es auch für Sie nützlich sein.

Ich hoffe, sie wird Ihnen nützlich sein.

Selbsthosting von Perplexica – mit Ollama

Selbsthosting von Perplexica – mit Ollama

Einen Copilot-ähnlichen Dienst lokal ausführen? Einfach!

Das ist sehr aufregend! Statt Copilot oder perplexity.ai zu rufen und der ganzen Welt zu erzählen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!