LLM Hosting

Test de Deepseek-R1 sur Ollama

Test de Deepseek-R1 sur Ollama

« Comparaison de deux modèles deepseek-r1 avec deux modèles de base »

DeepSeek’s première génération de modèles de raisonnement avec des performances comparables à celles d’OpenAI-o1, incluant six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen.

Auto-hébergement de Perplexica - avec Ollama

Auto-hébergement de Perplexica - avec Ollama

Exécuter un service du style Copilot localement ? Facile !

C’est très excitant !

Au lieu d’appeler Copilot ou Perplexity.ai et de tout raconter au monde, vous pouvez maintenant héberger un service similaire sur votre propre ordinateur ou laptop !

Déplacer les modèles Ollama vers un autre emplacement

Déplacer les modèles Ollama vers un autre emplacement

Les fichiers de modèles LLM d'Ollama prennent beaucoup de place.

Après avoir installé ollama, il est préférable de reconfigurer ollama pour qu’ils soient stockés dans un nouvel emplacement dès maintenant. Ainsi, après avoir tiré un nouveau modèle, il ne sera pas téléchargé vers l’ancien emplacement.