Self-Hosting

Проблемы структурированного вывода в Ollama GPT-OSS

Проблемы структурированного вывода в Ollama GPT-OSS

Не очень приятно.

Модели GPT-OSS от Ollama (https://www.glukhov.org/ru/llm-performance/ollama/ollama-gpt-oss-structured-output-issues/ “Ollama GPT-OSS”) постоянно сталкиваются с проблемами при работе со структурированным выводом, особенно при использовании с фреймворками вроде LangChain, OpenAI SDK, vllm и другими.

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

Несколько способов получения структурированного вывода из Ollama

Большие языковые модели (LLM) мощные, но в производстве мы редко хотим свободноформатных абзацев. Вместо этого нам нужны предсказуемые данные: атрибуты, факты или структурированные объекты, которые можно передать в приложение. Это Структурированный вывод LLM.

Kubuntu против KDE Neon: техническое сравнение

Kubuntu против KDE Neon: техническое сравнение

Пробовал как Kubuntu, так и KDE Neon, но Kubuntu более стабилен.

Для поклонников KDE Plasma два дистрибутива Linux часто становятся предметом обсуждения: Kubuntu и KDE Neon. На первый взгляд они похожи - оба поставляются с KDE Plasma в качестве рабочей среды по умолчанию, оба основаны на Ubuntu и оба дружелюбны к новичкам.

Оллама Эншитификация: ранние признаки

Оллама Эншитификация: ранние признаки

Моё мнение о текущем состоянии разработки Ollama

Ollama быстро стал одним из самых популярных инструментов для запуска локальных моделей большого языка (LLM). Его простой интерфейс командной строки и упрощенное управление моделями сделали его предпочтительным вариантом для разработчиков, которые хотят работать с моделями ИИ вне облака.

Как установить сервер Mumble на Ubuntu и использовать Mumble на Android и iOS

Как установить сервер Mumble на Ubuntu и использовать Mumble на Android и iOS

Альтернативная платформа голосовой связи по IP

Mumble — это бесплатное и открытое программное обеспечение для голосовой передачи данных (VoIP), предназначенное в основном для передачи голоса в реальном времени. Оно использует клиент-серверную архитектуру, где пользователи подключаются к общему серверу для общения друг с другом.

Интерфейсы чатов для локальных экземпляров Ollama

Интерфейсы чатов для локальных экземпляров Ollama

Краткий обзор наиболее заметных интерфейсов для Ollama в 2025 году

Локально размещённый Ollama позволяет запускать большие языковые модели на вашем собственном устройстве, но использование его через командную строку не очень удобно. Вот несколько открытых проектов, которые предоставляют интерфейсы в стиле ChatGPT, подключающиеся к локальному Ollama.

Дистрибутивы Kubernetes — краткий обзор kubeadm, k3s, MicroK8s, Minikube, Talos Linux и RKE2

Дистрибутивы Kubernetes — краткий обзор kubeadm, k3s, MicroK8s, Minikube, Talos Linux и RKE2

Краткий обзор вариантов Kubernetes

Сравнение дистрибутивов Kubernetes для саморазвертывания на bare-metal или домашних серверах, с акцентом на простоту установки, производительность, системные требования и функциональность.

Сравнение дистрибутивов Kubernetes для хоумлаба из 3 узлов

Сравнение дистрибутивов Kubernetes для хоумлаба из 3 узлов

Выбор лучшего варианта Kubernetes для нашего домашнего лабораторного стенда

Я сравниваю варианты самонастраиваемых Kubernetes, подходящие для хоумлаба на основе Ubuntu с 3 узлами (16 ГБ ОЗУ, 4 ядра каждый), с акцентом на простоте установки и обслуживания, поддержке постоянных томов и LoadBalancers.

Шпаргалка по GitHub Actions - стандартная структура и список наиболее полезных действий

Шпаргалка по GitHub Actions - стандартная структура и список наиболее полезных действий

Несколько слов о распространённых GitHub Actions и их структуре.

GitHub Actions — это платформа автоматизации и CI/CD внутри GitHub, используемая для сборки, тестирования и развертывания вашего кода на основе событий, таких как push, pull requests или по расписанию.

NVIDIA DGX Spark - новый мини-суперкомпьютер для ИИ

NVIDIA DGX Spark - новый мини-суперкомпьютер для ИИ

В июле 2025 года скоро должно стать доступным

Nvidia готовится к выпуску NVIDIA DGX Spark - небольшого суперкомпьютера для ИИ на архитектуре Blackwell с 128+ ГБ объединённой оперативной памяти и производительностью 1 ПФЛОПС в области ИИ. Отличное устройство для запуска больших языковых моделей.