Ollama

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Переранжирование текстов с помощью Ollama и модели встраивания Qwen3 LLM на языке Go

Внедряете RAG? Вот несколько сниппетов на Golang..

Этот небольшой пример кода на Go для пересортировки вызывает Ollama для генерации эмбеддингов для запроса и для каждого кандидата-документа, затем сортирует их по убыванию косинусного сходства.

Модели встраивания и переупорядочивания Qwen3 на Ollama: передовые показатели производительности

Модели встраивания и переупорядочивания Qwen3 на Ollama: передовые показатели производительности

Новые впечатляющие LLM доступны в Ollama

Модели встраивания и переупорядочивания Qwen3 являются новейшими релизами в семействе Qwen, специально разработанными для продвинутых задач встраивания текста (embedding), поиска и переупорядочивания результатов (reranking).

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

LLM для извлечения текста из HTML...

В библиотеке моделей Ollama есть модели, способные конвертировать HTML-контент в Markdown, что полезно для задач преобразования контента. Это руководство является частью нашего Инструменты документации в 2026: Markdown, LaTeX, PDF и рабочие процессы печати хаба.

Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Ollama на процессорах Intel: эффективность против производительных ядер

У меня есть теория, которую нужно проверить - использование всех ядер Intel CPU повысит скорость работы LLMs? (Тест: Как Ollama использует производительность и эффективные ядра Intel CPU)

Меня беспокоит, что новая модель gemma3 27 бит (gemma3:27b, 17ГБ в ollama) не помещается в 16ГБ видеопамяти моей GPU и частично работает на CPU.

Как Ollama обрабатывает параллельные запросы

Как Ollama обрабатывает параллельные запросы

Настройка ollama для параллельного выполнения запросов.

Когда сервер Ollama получает два запроса одновременно, его поведение зависит от конфигурации и доступных системных ресурсов.

Тестирование Deepseek-R1 на Ollama

Тестирование Deepseek-R1 на Ollama

Сравнение двух моделей deepseek-r1 с двумя базовыми

DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включает шесть плотных моделей, дистиллированных на основе Llama и Qwen.

Шпаргалка по CLI Ollama: команды ls, serve, run, ps и другие (обновление 2026 года)

Шпаргалка по CLI Ollama: команды ls, serve, run, ps и другие (обновление 2026 года)

Обновлённый список команд Ollama — ls, ps, run, serve и др.

Этот шпаргалка по CLI Ollama фокусируется на командах, которые вы используете каждый день (ollama ls, ollama serve, ollama run, ollama ps, управление моделями и типичные рабочие процессы), с примерами, которые можно скопировать и вставить.

Farfalle против Perplexica

Farfalle против Perplexica

Сравнение двух саморазмещённых поисковых систем на базе ИИ

Вкусная еда доставляет удовольствие и глазам. Однако в этой статье мы сравним две системы поиска на базе ИИ: Farfalle и Perplexica.

Развертывание Perplexica самостоятельно — с использованием Ollama

Развертывание Perplexica самостоятельно — с использованием Ollama

Запускаете сервис в стиле Copilot локально? Легко!

Это очень увлекательно! Вместо того чтобы вызывать Copilot или perplexity.ai и рассказывать всему миру, что вы ищете, теперь вы можете развернуть аналогичный сервис на своем собственном ПК или ноутбуке!

Gemma2 против Qwen2 против Mistral Nemo против...

Gemma2 против Qwen2 против Mistral Nemo против...

Тестирование обнаружения логических ошибок

Недавно мы увидели несколько новых языковых моделей, которые были выпущены. Возбуждающие времена. Давайте протестируем и посмотрим, как они работают при обнаружении логических ошибок.