
Frontends de LLM
Não há tantas opções assim, mas ainda assim...
Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.
Não há tantas opções assim, mas ainda assim...
Quando comecei a experimentar com LLMs, as interfaces deles estavam em desenvolvimento ativo e agora algumas delas são realmente boas.
Testando a detecção de falácias lógicas
Recentemente, vimos a liberação de vários novos LLMs. Tempos emocionantes. Vamos testar e ver como eles se saem ao detectar falácias lógicas.
Requer algum experimento, mas
Ainda assim, existem algumas abordagens comuns para escrever prompts eficazes, de modo que os LLMs não fiquem confusos ao tentar entender o que você deseja.
Trechos frequentemente necessários de código Python
Às vezes preciso disso, mas não consigo encontrá-lo imediatamente.
Então, estou mantendo todos aqui.
A etiquetagem e o treinamento exigem algum colagem.
Quando eu treinei um detector de objetos AI há algum tempo - o LabelImg foi uma ferramenta muito útil, mas a exportação do Label Studio para o formato COCO não era aceita pela estrutura MMDetection..
8 versões do llama3 (Meta+) e 5 versões do phi3 (Microsoft) LLM
Testando como modelos com diferentes números de parâmetros e quantização estão se comportando.
Os arquivos do modelo LLM Ollama ocupam muito espaço.
Após instalar ollama é melhor reconfigurar ollama para armazená-los em um novo local imediatamente. Assim, após puxarmos um novo modelo, ele não será baixado para o local antigo.
Vamos testar a velocidade dos LLMs na GPU versus a CPU
Comparando a velocidade de previsão de várias versões de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) em CPU e GPU.
Vamos testar a qualidade de detecção de falácias lógicas de diferentes LLMs
Aqui estou comparando várias versões de LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) e Qwen (Alibaba).