LLM Hosting

Prueba de Deepseek-R1 en Ollama

Prueba de Deepseek-R1 en Ollama

Comparando dos modelos deepseek-r1 con dos modelos base

DeepSeek’s primer generación de modelos de razonamiento con un rendimiento comparable al de OpenAI-o1, incluyendo seis modelos densos destilados de DeepSeek-R1 basados en Llama y Qwen.

Autohospedaje de Perplexica con Ollama

Autohospedaje de Perplexica con Ollama

¿Ejecutando un servicio estilo copilot localmente? ¡Fácil!

¡Eso es muy emocionante!

En lugar de llamar a Copilot o Perplexity.ai y contarle al mundo lo que buscas, ahora puedes alojar un servicio similar en tu propio PC o laptop.