LLM

Сравнение подходящих GPU NVIDIA для ИИ

Сравнение подходящих GPU NVIDIA для ИИ

Искусственный интеллект требует большого количества энергии...

В разгар современных потрясений я сравниваю технические характеристики различных видеокарт, подходящих для задач ИИ (Deep Learning, Обнаружение объектов и LLMs). Однако все они невероятно дороги.

Как Ollama обрабатывает параллельные запросы

Как Ollama обрабатывает параллельные запросы

Настройка ollama для параллельного выполнения запросов.

Когда сервер Ollama получает два запроса одновременно, его поведение зависит от конфигурации и доступных системных ресурсов.

Vibe Coding — Значение и описание

Vibe Coding — Значение и описание

Что такое это модное кодирование с поддержкой ИИ?

Vibe coding — это подход к программированию, управляемый искусственным интеллектом, при котором разработчики описывают желаемую функциональность на естественном языке, позволяя инструментам ИИ генерировать код автоматически.

Тестирование Deepseek-R1 на Ollama

Тестирование Deepseek-R1 на Ollama

Сравнение двух моделей deepseek-r1 с двумя базовыми

DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включает шесть плотных моделей, дистиллированных на основе Llama и Qwen.

Шпаргалка по CLI Ollama: ls, serve, run, ps + команды (обновление 2026)

Шпаргалка по CLI Ollama: ls, serve, run, ps + команды (обновление 2026)

Обновленный список команд Ollama - ls, ps, run, serve и т.д.

Этот Ollama CLI cheatsheet фокусируется на командах, которые вы используете каждый день (ollama ls, ollama serve, ollama run, ollama ps, управление моделями и общие рабочие процессы), с примерами, которые можно скопировать/вставить.

Модель ИИ Flux текст в изображение

Модель ИИ Flux текст в изображение

Потрясающая новая модель ИИ для генерирования изображения на основе текста

Недавно Black Forest Labs опубликовала набор моделей генерации изображений на основе текста. Эти модели, как утверждается, имеют значительно более высокое качество вывода. Попробуем их

Самостоятельное размещение Perplexica с использованием Ollama

Самостоятельное размещение Perplexica с использованием Ollama

Запуск сервиса в стиле Copilot на локальном компьютере? Легко!

Это очень волнующе! Вместо того чтобы звонить в Copilot или Perplexity.ai и рассказывать всему миру, что вы ищете, теперь вы можете разместить аналогичную службу на своем ПК или ноутбуке!

Gemma2 против Qwen2 против Mistral Nemo против...

Gemma2 против Qwen2 против Mistral Nemo против...

Тестирование обнаружения логических ошибок

Недавно мы увидели несколько новых языковых моделей, которые были выпущены. Возбуждающие времена. Давайте протестируем и посмотрим, как они работают при обнаружении логических ошибок.

Интерфейсы LLM

Интерфейсы LLM

Не так много вариантов на выбор, но всё же...

Когда я начал экспериментировать с ЛЛМ, интерфейсы для них находились в стадии активной разработки, и теперь некоторые из них действительно хороши.