Сравнение AI-ассистентов программирования
Cursor AI против GitHub Copilot против Cline AI против...
Список здесь некоторых инструментов для кодирования с помощью ИИ и AI Coding Assistants и их приятных сторон.
Cursor AI против GitHub Copilot против Cline AI против...
Список здесь некоторых инструментов для кодирования с помощью ИИ и AI Coding Assistants и их приятных сторон.
Краткий список поставщиков LLM
Использование языковых моделей не требует больших затрат, возможно, не потребуется покупать новый мощный GPU. Вот список провайдеров языковых моделей в облаке.
Ollama на процессорах Intel: эффективность против производительных ядер
У меня есть теория, которую нужно проверить - использование всех ядер Intel CPU повысит скорость работы LLMs? (Тест: Как Ollama использует производительность и эффективные ядра Intel CPU)
Меня беспокоит, что новая модель gemma3 27 бит (gemma3:27b, 17ГБ в ollama) не помещается в 16ГБ видеопамяти моей GPU и частично работает на CPU.
Искусственный интеллект требует большого количества энергии...
В разгар современных потрясений я сравниваю технические характеристики различных видеокарт, подходящих для задач ИИ (Deep Learning, Обнаружение объектов и LLMs). Однако все они невероятно дороги.
Настройка ollama для параллельного выполнения запросов.
Когда сервер Ollama получает два запроса одновременно, его поведение зависит от конфигурации и доступных системных ресурсов.
Что такое это модное кодирование с поддержкой ИИ?
Vibe coding — это подход к программированию, управляемый искусственным интеллектом, при котором разработчики описывают желаемую функциональность на естественном языке, позволяя инструментам ИИ генерировать код автоматически.
Весь набор инструментов MM* находится на EOL...
Я довольно часто использовал MMDetection (mmengine, mdet, mmcv),
но теперь выглядит так, будто он вышел из игры.
К сожалению. Мне нравился его модельный зоопарк.
Сравнение двух моделей deepseek-r1 с двумя базовыми
DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включает шесть плотных моделей, дистиллированных на основе Llama и Qwen.
Обновленный список команд Ollama - ls, ps, run, serve и т.д.
Этот Ollama CLI cheatsheet фокусируется на командах, которые вы используете каждый день (ollama ls, ollama serve, ollama run, ollama ps, управление моделями и общие рабочие процессы), с примерами, которые можно скопировать/вставить.
Следующий раунд тестирования LLM
Недавно был выпущен Mistral Small. Давайте посмотрим, как он справляется в сравнении с другими языковыми моделями (тестирование производительности Mistral Small).
Python-код для переранжирования RAG
Потрясающая новая модель ИИ для генерирования изображения на основе текста
Недавно Black Forest Labs опубликовала набор моделей генерации изображений на основе текста. Эти модели, как утверждается, имеют значительно более высокое качество вывода. Попробуем их
Так много моделей с миллиардами параметров…
Тестирование, как Perplexica работает с различными LLM, запущенными на локальном Ollama: Llama3, Llama3.1, Hermes 3, Mistral Nemo, Mistral Large, Gemma 2, Qwen2, Phi 3 и Command-r различных квант и выбор Лучший LLM для Perplexica
Сравнение двух самонастраиваемых поисковых движков ИИ
Вкусная еда - это удовольствие не только для глаз. Но в этом посте мы сравним две системы поиска на основе ИИ, Farfalle и Perplexica.
Запуск сервиса в стиле Copilot на локальном компьютере? Легко!
Это очень волнующе! Вместо того чтобы звонить в Copilot или Perplexity.ai и рассказывать всему миру, что вы ищете, теперь вы можете разместить аналогичную службу на своем ПК или ноутбуке!
Тестирование обнаружения логических ошибок
Недавно мы увидели несколько новых языковых моделей, которые были выпущены. Возбуждающие времена. Давайте протестируем и посмотрим, как они работают при обнаружении логических ошибок.