Ollama

Цены на DGX Spark AU: $6,249-$7,999 у крупных ритейлеров

Цены на DGX Spark AU: $6,249-$7,999 у крупных ритейлеров

Актуальные цены на AUD у австралийских ритейлеров

NVIDIA DGX Spark (GB10 Grace Blackwell) теперь доступен в Австралии в местных магазинах у крупных розничных продавцов ПК с наличием на складе. Если вы следили за глобальными ценами и доступностью DGX Spark, вам будет интересно узнать, что цены в Австралии составляют от 6 249 до 7 999 AUD в зависимости от конфигурации хранилища и продавца.

BAML против Instructor: Структурированные выходные данные LLM

BAML против Instructor: Структурированные выходные данные LLM

Безопасные с точки зрения типов выходные данные LLM с BAML и Instructor

При работе с большими языковыми моделями в производственной среде получение структурированных, типизированных выходных данных имеет критическое значение. Два популярных фреймворка - BAML и Instructor - предлагают разные подходы к решению этой проблемы.

Выбор правильного LLM для Cognee: настройка локального Ollama

Выбор правильного LLM для Cognee: настройка локального Ollama

Размышления об использовании больших языковых моделей для саморазмещаемого Cognee

Выбор лучшей LLM для Cognee требует баланса между качеством построения графов, уровнем галлюцинаций и ограничениями оборудования. Cognee лучше всего работает с крупными моделями с низким уровнем галлюцинаций (32B+) через Ollama, но средние по размеру варианты подходят для более легких настроек.

API веб-поиска Ollama в Python

API веб-поиска Ollama в Python

AI-поисковые агенты с помощью Python и Ollama

Библиотека Python для Ollama теперь включает в себя нативные возможности поиска в интернете с Ollama. С несколькими строками кода вы можете дополнить свои локальные LLMs актуальной информацией из интернета, снижая вероятность галлюцинаций и повышая точность.

API веб-поиска Ollama в Go

API веб-поиска Ollama в Go

AI-поисковые агенты с использованием Go и Ollama

Ollama’s Web Search API позволяет дополнять локальные LLMs актуальной информацией из интернета. Это руководство показывает, как реализовать возможности веб-поиска на Go, от простых API-запросов до полнофункциональных поисковых агентов.

Размещение локальных языковых моделей: Полное руководство на 2025 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие

Размещение локальных языковых моделей: Полное руководство на 2025 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие

Освойте локальное развертывание языковых моделей с сравнением 12+ инструментов

Локальное развертывание LLMs стало increasingly popular, так как разработчики и организации стремятся к повышенной конфиденциальности, снижению задержек и большему контролю над своей инфраструктурой ИИ.

Инфраструктура ИИ на потребительском оборудовании

Инфраструктура ИИ на потребительском оборудовании

Развертывание корпоративного ИИ на бюджетном оборудовании с открытыми моделями

Демократизация ИИ уже здесь. С открытыми моделями ИИ с открытым исходным кодом, такими как Llama 3, Mixtral и Qwen, которые теперь соперничают с проприетарными моделями, команды могут создавать мощную инфраструктуру ИИ с использованием потребительского оборудования - снижая затраты, сохраняя при этом полный контроль над конфиденциальностью данных и развертыванием.

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Бенчмарки GPT-OSS 120b на трёх платформах ИИ

Я выкопал некоторые интересные тесты производительности GPT-OSS 120b, работающей на Ollama на трех разных платформах: NVIDIA DGX Spark, Mac Studio и RTX 4080. Модель GPT-OSS 120b из библиотеки Ollama весит 65ГБ, что означает, что она не помещается в 16ГБ видеопамяти RTX 4080 (или более новой RTX 5080).

Docker Model Runner против Ollama: что выбрать?

Docker Model Runner против Ollama: что выбрать?

Сравните Docker Model Runner и Ollama для локальных LLM

Запуск больших языковых моделей (LLM) локально стал все более популярным благодаря конфиденциальности, контролю затрат и возможностям работы офлайн. Ландшафт значительно изменился в апреле 2025 года, когда Docker представил Docker Model Runner (DMR), свое официальное решение для развертывания моделей ИИ.

Сравнение: Qwen3:30b против GPT-OSS:20b

Сравнение: Qwen3:30b против GPT-OSS:20b

Сравнение скорости, параметров и производительности этих двух моделей

Вот сравнение между Qwen3:30b и GPT-OSS:20b с акцентом на выполнение инструкций и параметры производительности, спецификации и скорость:

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

Несколько способов получения структурированного вывода из Ollama

Большие языковые модели (LLM) мощные, но в производстве мы редко хотим свободноформатных абзацев. Вместо этого нам нужны предсказуемые данные: атрибуты, факты или структурированные объекты, которые можно передать в приложение. Это Структурированный вывод LLM.