Self-Hosting

Рост цен на GPU и ОЗУ в Австралии: RTX 5090 подорожал на 15%, ОЗУ — на 38% — январь 2026 года

Рост цен на GPU и ОЗУ в Австралии: RTX 5090 подорожал на 15%, ОЗУ — на 38% — январь 2026 года

Проверка цен на GPU и RAM в январе 2025 года

Сегодня мы рассматриваем топовые потребительские графические процессоры и модули оперативной памяти. Конкретно я смотрю на цены на RTX-5080 и RTX-5090, а также на 32ГБ (2x16ГБ) DDR5 6000.

vLLM Quickstart: Высокопроизводительное обслуживание LLM

vLLM Quickstart: Высокопроизводительное обслуживание LLM

Быстрая инференция LLM с использованием API OpenAI

vLLM — это высокопроизводительный, энергоэффективный движок для инференса и развертывания больших языковых моделей (LLM), разработанный лабораторией Sky Computing Университета Калифорнии в Беркли.

Цены на DGX Spark AU: $6,249-$7,999 у крупных ритейлеров

Цены на DGX Spark AU: $6,249-$7,999 у крупных ритейлеров

Актуальные цены на AUD у австралийских ритейлеров

NVIDIA DGX Spark (GB10 Grace Blackwell) теперь доступен в Австралии в местных магазинах у крупных розничных продавцов ПК с наличием на складе. Если вы следили за глобальными ценами и доступностью DGX Spark, вам будет интересно узнать, что цены в Австралии составляют от 6 249 до 7 999 AUD в зависимости от конфигурации хранилища и продавца.

Выбор правильного LLM для Cognee: настройка локального Ollama

Выбор правильного LLM для Cognee: настройка локального Ollama

Размышления об использовании больших языковых моделей для саморазмещаемого Cognee

Выбор лучшей LLM для Cognee требует баланса между качеством построения графов, уровнем галлюцинаций и ограничениями оборудования. Cognee лучше всего работает с крупными моделями с низким уровнем галлюцинаций (32B+) через Ollama, но средние по размеру варианты подходят для более легких настроек.

API веб-поиска Ollama в Python

API веб-поиска Ollama в Python

AI-поисковые агенты с помощью Python и Ollama

Библиотека Python для Ollama теперь включает в себя нативные возможности поиска в интернете с Ollama. С несколькими строками кода вы можете дополнить свои локальные LLMs актуальной информацией из интернета, снижая вероятность галлюцинаций и повышая точность.

Сравнение векторных хранилищ для RAG

Сравнение векторных хранилищ для RAG

Выберите подходящую векторную базу данных для вашего стека RAG

Выбор правильного векторного хранилища может существенно повлиять на производительность, стоимость и масштабируемость вашего приложения RAG. Это всестороннее сравнение охватывает наиболее популярные варианты в 2024-2025 годах.

API веб-поиска Ollama в Go

API веб-поиска Ollama в Go

AI-поисковые агенты с использованием Go и Ollama

Ollama’s Web Search API позволяет дополнять локальные LLMs актуальной информацией из интернета. Это руководство показывает, как реализовать возможности веб-поиска на Go, от простых API-запросов до полнофункциональных поисковых агентов.

Размещение локальных языковых моделей: Полное руководство на 2025 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие

Размещение локальных языковых моделей: Полное руководство на 2025 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие

Освойте локальное развертывание языковых моделей с сравнением 12+ инструментов

Локальное развертывание LLMs стало increasingly popular, так как разработчики и организации стремятся к повышенной конфиденциальности, снижению задержек и большему контролю над своей инфраструктурой ИИ.

Инфраструктура ИИ на потребительском оборудовании

Инфраструктура ИИ на потребительском оборудовании

Развертывание корпоративного ИИ на бюджетном оборудовании с открытыми моделями

Демократизация ИИ уже здесь. С открытыми моделями ИИ с открытым исходным кодом, такими как Llama 3, Mixtral и Qwen, которые теперь соперничают с проприетарными моделями, команды могут создавать мощную инфраструктуру ИИ с использованием потребительского оборудования - снижая затраты, сохраняя при этом полный контроль над конфиденциальностью данных и развертыванием.

Установка и использование Grafana на Ubuntu: полное руководство

Установка и использование Grafana на Ubuntu: полное руководство

Настройте Grafana для мониторинга и визуализации

Grafana — это ведущая открытая платформа для мониторинга и наблюдения, которая преобразует метрики, логи и трассировки в действенные инсайты через потрясающие визуализации.

StatefulSets и постоянное хранилище в Kubernetes

StatefulSets и постоянное хранилище в Kubernetes

Развёртывание приложений с сохранением состояния, упорядоченным масштабированием и постоянными данными

Kubernetes StatefulSets — это основное решение для управления приложениями с состоянием, которым требуются стабильные идентификаторы, постоянное хранилище и упорядоченные паттерны развертывания, что критически важно для баз данных, распределенных систем и кэш-услуг.