Написание эффективных промптов для моделей больших языков
Требует некоторого экспериментирования, но
Есть ещё несколько общепринятых подходов к написанию хороших промптов, чтобы LLM не запуталась, пытаясь понять, чего вы хотите от неё.
Требует некоторого экспериментирования, но
Есть ещё несколько общепринятых подходов к написанию хороших промптов, чтобы LLM не запуталась, пытаясь понять, чего вы хотите от неё.
Синхронизация закладок между ноутбуками и браузерами?
Я пробовал разные инструменты и пришел к выводу, что Floccus нравится мне больше всего.
Часто используемые фрагменты кода на Python
Иногда это нужно, но найти не сразу. Поэтому держу их все здесь.
Меткировка и обучение требуют некоторой интеграции
Когда я обучал модель детектора объектов AI несколько лет назад - LabelImg был очень полезным инструментом, но экспорт из Label Studio в формат COCO не принимался фреймворком MMDetection..
8 версий LLM llama3 (Meta+) и 5 версий phi3 (Microsoft)
Исследование поведения моделей с разным количеством параметров и квантования.
Файлы моделей LLM Ollama занимают много места
После установки ollama лучше сразу переконфигурировать ollama для хранения их в новом месте. Таким образом, после того как мы загрузим новую модель, она не будет скачана в старое место.
Это так раздражает, когда приходится просматривать все эти объявления.
Вы можете установить плагин или дополнение для блокировки рекламы в браузере для Google Chrome, Firefox или Safari, но вам придется делать это на каждом устройстве.
Сетевой блокировщик рекламы — мой любимый вариант решения.
Очень частое сообщение об ошибке...
После клонирования git-репозитория выполните настройку локального репозитория, особенно укажите имя пользователя и адрес электронной почты.
Hugo является генератором статического сайта
Когда сайт сгенерирован с помощью hugo, пришло время разместить его на каком-либо хостинг-платформе.
Вот как загрузить его на AWS S3 и обеспечить обслуживание через AWS CloudFront CDN.
Давайте протестируем скорость работы больших языковых моделей на GPU по сравнению с CPU
Сравнение скорости предсказания нескольких версий ЛЛМ: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (открытый исходный код) на CPU и GPU.
Давайте протестируем качество обнаружения логических ошибок у разных языковых моделей
Здесь я сравниваю несколько версий LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) и Qwen (Alibaba).
Все может произойти в эти трудные времена.
Нужно создать резервные копии 1) базы данных, 2) файлового хранилища, 3) некоторых других файлов Gitea. Вот как это сделать.
Иногда вам просто нужно добавить свой элемент там...
Обрезка, изменение размера и добавление рамок к изображениям для этого блога заставила меня добавить эту часто используемую функцию в контекстное меню Linux Mint Cinnamon.
В холодный зимний вечер так согревает иметь
Я знал этот напиток как “Глинтвейн”, на английском его чаще называют Mulled Wine. У него довольно много ингредиентов и оригинальный вкус. Люблю его!
Параметры командной строки некоторых инструментов
Не очень подробный список, просто несколько полезных для меня пунктов
Для использования репозитория контейнеров в k8s необходимо использовать его через SSL
Мы хотим разместить удобный и безопасный контейнерный реестр, чтобы туда отправлять образы Docker, а наш кластер Kubernetes мог их извлекать из этого реестра.
Идея использовать Gitea поверх SSL возникла именно из-за этого.