Farfalle jämfört med Perplexica
Jämförelse av två självhuserade AI-sökmotorer
Underbar mat är också en njutning för ögonen. Men i detta inlägg jämför vi två AI-baserade söksystem, Farfalle och Perplexica.
Jämförelse av två självhuserade AI-sökmotorer
Underbar mat är också en njutning för ögonen. Men i detta inlägg jämför vi två AI-baserade söksystem, Farfalle och Perplexica.
Vilket språk ska man använda för AWS Lambda?
Vi kan skriva lambda-funktioner för distribution till AWS på flera språk. Låt oss jämföra prestandan hos (nästan tomma) funktioner skrivna i JavaScript, Python och Golang…
Kör en Copilot-tjänst lokalt? Det är enkelt!
Det är väldigt spännande! Istället för att ringa Copilot eller perplexity.ai och berätta för hela världen vad du letar efter, kan du nu värdshålla en liknande tjänst på din egen PC eller bärbara dator!
Testa upptäckt av logiska fall
Nyligen har vi sett flera nya LLM:er släppas. Spännande tider. Låt oss testa och se hur de presterar när de upptäcker logiska fall.
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.
Synkronisering av bokmärken mellan datorer och webbläsare?
Jag har testat olika verktyg och kommit fram till att jag tycker om Floccus mest.
Vanligt förekommande bitar av Python-kod
När man ibland behöver detta men inte kan hitta det direkt. Så jag håller dem alla här.
Etikettering och träning kräver lite limning
När jag tränade objektdetektions-AI för några månader sedan - var LabelImg ett mycket användbart verktyg, men exporten från Label Studio till COCO-format accepterades inte av MMDetection-ramverket..
8 llama3 (Meta+) och 5 phi3 (Microsoft) LLM-versioner
Testa hur modeller med olika antal parametrar och kvantisering beter sig.
Ollama LLM-modellfiler tar mycket plats.
Efter att ha installerat Ollama är det bättre att omedelbart omkonfigurera Ollama så att den lagrar modellerna på en ny plats. Så när vi drar ner en ny modell, laddas den inte ner till den gamla platsen.
Det är så irriterande att se alla de annonserna
Du kan installera en webbläsarplugin eller tillägg för adblock för Google Chrome, Firefox eller Safari, men du måste göra detta på varje enskild enhet. Den nätverksbaserade ad-blockern är min favoritlösning.
Mycket frekvent felmeddelande...
Efter att du har klonat git-repositorn, gör lokal konfiguration av repositoriet, särskilt ställ in användarnamn och e-postadress.
Hugo är en statisk webbplatsgenerator.
När hemsidan har genererats med Hugo är det dags att publicera den på en värdplattform. Här är en guide om hur du pushar den till AWS S3 och serverar den med AWS CloudFront CDN.
Låt oss testa LLM:s hastighet på GPU jämfört med CPU
Jämförelse av förutsägelsehastighet hos flera versioner av LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) på CPU och GPU.
Låt oss testa kvaliteten på logiska felslutdetektering hos olika LLMs
Här jämför jag flera LLM-versioner: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) och Qwen (Alibaba).
Något kan hända i dessa svåra tider
Behöver säkerhetskopiera 1) databasen, 2) filförvaringen och 3) några andra Gitea-filer. Här går vi.
Få nya inlägg om system, infrastruktur och AI-ingenjörskonst.