LLM

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

Несколько способов получения структурированного вывода из Ollama

Большие языковые модели (LLM) мощные, но в производстве мы редко хотим свободноформатных абзацев. Вместо этого нам нужны предсказуемые данные: атрибуты, факты или структурированные объекты, которые можно передать в приложение. Это Структурированный вывод LLM.

Оллама Эншитификация: ранние признаки

Оллама Эншитификация: ранние признаки

Моё мнение о текущем состоянии разработки Ollama

Ollama быстро стал одним из самых популярных инструментов для запуска локальных моделей большого языка (LLM). Его простой интерфейс командной строки и упрощенное управление моделями сделали его предпочтительным вариантом для разработчиков, которые хотят работать с моделями ИИ вне облака.

Интерфейсы чатов для локальных экземпляров Ollama

Интерфейсы чатов для локальных экземпляров Ollama

Краткий обзор наиболее заметных интерфейсов для Ollama в 2025 году

Локально размещённый Ollama позволяет запускать большие языковые модели на вашем собственном устройстве, но использование его через командную строку не очень удобно. Вот несколько открытых проектов, которые предоставляют интерфейсы в стиле ChatGPT, подключающиеся к локальному Ollama.

NVIDIA DGX Spark - новый мини-суперкомпьютер для ИИ

NVIDIA DGX Spark - новый мини-суперкомпьютер для ИИ

В июле 2025 года скоро должно стать доступным

Nvidia готовится к выпуску NVIDIA DGX Spark - небольшого суперкомпьютера для ИИ на архитектуре Blackwell с 128+ ГБ объединённой оперативной памяти и производительностью 1 ПФЛОПС в области ИИ. Отличное устройство для запуска больших языковых моделей.

Протокол контекста модели (MCP) и заметки о реализации сервера MCP на Go

Протокол контекста модели (MCP) и заметки о реализации сервера MCP на Go

Статья о спецификациях и реализации MCP на языке GO

Здесь представлено описание Протокола Контекста Модели (MCP), краткие заметки о том, как реализовать MCP сервер на Go, включая структуру сообщений и спецификации протокола.

Переранжирование документов с использованием Ollama и модели Qwen3 Reranker - на языке Go

Переранжирование документов с использованием Ollama и модели Qwen3 Reranker - на языке Go

Реализуете RAG? Вот несколько фрагментов кода на Go - 2...

Поскольку стандартный Ollama не имеет прямого API для переупорядочивания, вам нужно реализовать переупорядочивание с использованием Qwen3 Reranker на GO, генерируя векторы представлений для пар запрос-документ и оценивая их.

Переранжирование текстов с использованием Ollama и Qwen3 Embedding LLM на языке Go

Переранжирование текстов с использованием Ollama и Qwen3 Embedding LLM на языке Go

Реализуете RAG? Вот несколько фрагментов кода на языке Golang.

Этот маленький
Пример кода на Go для reranking вызывает Ollama для генерации вложений
для запроса и для каждого кандидата документа,
затем сортирует по убыванию косинусной схожести.

Модели Qwen3 Embedding & Reranker в Ollama: передовые достижения в производительности

Модели Qwen3 Embedding & Reranker в Ollama: передовые достижения в производительности

Новые потрясающие LLM доступны в Ollama

Модели Qwen3 Embedding и Reranker являются последними выпусками в семействе Qwen, специально разработанными для продвинутых задач встраивания текста, извлечения и повторного ранжирования.

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

Конвертируйте содержимое HTML в Markdown с использованием LLM и Ollama

LLM для извлечения текста из HTML...

В библиотеке моделей Ollama есть модели, способные конвертировать HTML-контент в Markdown, что полезно для задач преобразования контента. Это руководство является частью нашего Инструменты документации в 2026: Markdown, LaTeX, PDF и рабочие процессы печати хаба.

Поиск vs Глубокий поиск vs Глубокое исследование

Поиск vs Глубокий поиск vs Глубокое исследование

Насколько они различаются?

  • Поиск лучше всего подходит для быстрого и прямого извлечения информации с использованием ключевых слов.
  • Глубокий поиск превосходит простой поиск, понимая контекст и намерение, обеспечивая более релевантные и комплексные результаты для сложных запросов.
Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Тест: Как Ollama использует производительность процессоров Intel и эффективные ядра

Ollama на процессорах Intel: эффективность против производительных ядер

У меня есть теория, которую нужно проверить - использование всех ядер Intel CPU повысит скорость работы LLMs? (Тест: Как Ollama использует производительность и эффективные ядра Intel CPU)

Меня беспокоит, что новая модель gemma3 27 бит (gemma3:27b, 17ГБ в ollama) не помещается в 16ГБ видеопамяти моей GPU и частично работает на CPU.