Het schrijven van effectieve prompts voor LLMs
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
Synchroniseren van bladwijzers over de laptops & browsers?
Ik heb verschillende tools geprobeerd en ben tot de conclusie gekomen dat ik floccus het meest leuk vind.
Vaak gebruikte stukjes Python-code
Soms heb ik dit nodig, maar kan het niet direct vinden.
Dus houd ik ze allemaal hier.
Labelen en training vereist wat lijmwerk
Toen ik object detectie AI optraaide enige tijd geleden - was LabelImg een zeer nuttig hulpmiddel, maar de export van Label Studio naar COCO formaat werd niet geaccepteerd door de MMDetection framework…
8 llama3 (Meta+) en 5 phi3 (Microsoft) LLM-versies
Testen hoe modellen met een verschillend aantal parameters en kwantificatie zich gedragen.
Ollama LLM-modelbestanden nemen veel ruimte in beslag
Na het installeren van ollama is het beter om ollama direct te herconfigureren om ze op een nieuwe plek op te slaan. Zo wordt er na het ophalen van een nieuw model niet naar de oude locatie gedownload.
Het is zo vervelend om al die reclames te moeten kijken
Je kunt een browser adblock plugin of add-on installeren voor Google Chrome, Firefox of Safari, maar je moet dit dan op elk apparaat doen.
Het netwerkbrede ad-blocker is mijn favoriete oplossing.
Zeer frequente foutbericht...
Na het klonen van de git-repository, voer je de lokale repositoryconfiguratie uit, met name het instellen van de gebruikersnaam en e-mailadres.
Hugo is een statische sitegenerator
Wanneer de site gegenereerd is met hugo is het tijd om deze te implementeren op een hostingplatform. Hieronder staat hoe je deze kunt pushen naar AWS S3 en laten serveren met AWS CloudFront CDN.
Laat ons de snelheid van de LLMs testen op GPU versus CPU
Vergelijking van de voorspellingsnelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.
Laat ons de kwaliteit van het detecteren van logische fouten van verschillende LLMs testen
Hier vergelijk ik verschillende LLM-versies: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) en Qwen (Alibaba).
Alles kan gebeuren in deze moeilijke tijden
Nodig om de 1) db, 2) filestorage, 3) enkele andere gitea bestanden te back-uppen. Hier gaan we.
Soms moet je je item daar gewoon toevoegen ...
Het koppelen, vergroten, verkleinen en het toevoegen van randen aan afbeeldingen voor deze blog heeft me ertoe aangezet om deze vaak gebruikte functie toe te voegen aan de contextmenu van Linux Mint Cinnamon.
Op de koude winteravond is het zo warmend om te hebben
Ik kende dit drankje als een “Glintwein”, in het Engels wordt het vaker Mulled Wine genoemd.
Het heeft behoorlijk wat ingrediënten en een originele smaak. Ik hou ervan!
Enkele tools command line parameters
Niet een zeer uitgebreide lijst, alleen enkele die voor mij nuttig zijn
Om de container registry in k8s te gebruiken, hebben we het nodig via SSL
We willen een aantrekkelijke en beveiligde containerregister hosten - om daar docker-afbeeldingen naar te pushen en onze kubernetes-cluster die vanuit dit register te pullen.
Daarom kwam het idee om Gitea over SSL te gebruiken.