Интерфейсы LLM
Не так много вариантов на выбор, но всё же...
Когда я начал экспериментировать с ЛЛМ, интерфейсы для них находились в стадии активной разработки, и теперь некоторые из них действительно хороши.
Не так много вариантов на выбор, но всё же...
Когда я начал экспериментировать с ЛЛМ, интерфейсы для них находились в стадии активной разработки, и теперь некоторые из них действительно хороши.
Требует некоторого экспериментирования, но
Есть ещё несколько общепринятых подходов к написанию хороших промптов, чтобы LLM не запуталась, пытаясь понять, чего вы хотите от неё.
Часто используемые фрагменты кода на Python
Иногда это нужно, но найти не сразу. Поэтому держу их все здесь.
Меткировка и обучение требуют некоторой интеграции
Когда я обучал модель детектора объектов AI несколько лет назад - LabelImg был очень полезным инструментом, но экспорт из Label Studio в формат COCO не принимался фреймворком MMDetection..
8 версий LLM llama3 (Meta+) и 5 версий phi3 (Microsoft)
Исследование поведения моделей с разным количеством параметров и квантования.
Файлы моделей LLM Ollama занимают много места
После установки ollama лучше сразу переконфигурировать ollama для хранения их в новом месте. Таким образом, после того как мы загрузим новую модель, она не будет скачана в старое место.
Давайте протестируем скорость работы больших языковых моделей на GPU по сравнению с CPU
Сравнение скорости предсказания нескольких версий ЛЛМ: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (открытый исходный код) на CPU и GPU.
Давайте протестируем качество обнаружения логических ошибок у разных языковых моделей
Здесь я сравниваю несколько версий LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) и Qwen (Alibaba).