Self-Hosting

Test de Deepseek-R1 sur Ollama

Test de Deepseek-R1 sur Ollama

« Comparaison de deux modèles deepseek-r1 avec deux modèles de base »

DeepSeek’s première génération de modèles de raisonnement avec des performances comparables à celles d’OpenAI-o1, incluant six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen.

Démarrage rapide de PyInstaller

Démarrage rapide de PyInstaller

Combiner un programme Python en un seul fichier

Utilisez PyInstaller pour empaqueter des programmes Python en exécutables autonomes. Il fonctionne sous Linux, Windows et Mac.

Ce n’est pas la méthode la plus efficace, mais elle est utilisable.

Farfalle contre Perplexica

Farfalle contre Perplexica

Comparaison de deux moteurs de recherche IA auto-hébergés

Une excellente cuisine est aussi un plaisir pour les yeux. Mais dans cet article, nous allons comparer deux systèmes de recherche basés sur l’IA, Farfalle et Perplexica.

Auto-hébergement de Perplexica — avec Ollama

Auto-hébergement de Perplexica — avec Ollama

Exécuter un service de style Copilot en local ? C'est facile !

C’est très excitant ! Au lieu d’appeler Copilot ou Perplexity.ai et de révéler à tout le monde ce que vous recherchez, vous pouvez désormais héberger un service similaire sur votre propre PC ou ordinateur portable !