Problemi di output strutturato di Ollama GPT-OSS
Non molto bello.
Ollama’s GPT-OSS models presentano problemi ricorrenti nel gestire l’output strutturato, specialmente quando utilizzati con framework come LangChain, OpenAI SDK, vllm e altri.
Non molto bello.
Ollama’s GPT-OSS models presentano problemi ricorrenti nel gestire l’output strutturato, specialmente quando utilizzati con framework come LangChain, OpenAI SDK, vllm e altri.
Un paio di modi per ottenere un output strutturato da Ollama
Modelli di grandi dimensioni (LLMs) sono potenti, ma in produzione raramente desideriamo paragrafi liberi. Invece, vogliamo dati prevedibili: attributi, fatti o oggetti strutturati che possiamo alimentare in un’app. Questo è LLM Structured Output.
Il mio test personale della pianificazione del modello ollama ```
Ecco il confronto tra quanta VRAM la nuova versione di Ollama alloca per il modello rispetto alla versione precedente di Ollama. La nuova versione è peggio.
La mia opinione sull'attuale stato dello sviluppo di Ollama
Ollama ha rapidamente raggiunto uno dei posti più popolari tra gli strumenti per eseguire i modelli linguistici localmente. La sua semplice CLI e la gestione semplificata dei modelli l’hanno resa un’opzione di riferimento per gli sviluppatori che desiderano lavorare con i modelli AI al di fuori del cloud. Ma, come spesso accade con molte piattaforme promettenti, ci sono già segnali di Enshittification:
Panoramica rapida delle interfacce utente più rilevanti per Ollama nel 2025
Ollama ospitato localmente permette di eseguire modelli linguistici di grandi dimensioni sulla propria macchina, ma utilizzarlo tramite riga di comando non è molto user-friendly. Ecco alcuni progetti open-source che offrono interfacce stile ChatGPT che si collegano a un Ollama locale.
Confronto di strumenti e linguaggi per l'ingegneria del software
La lettera The Pragmatic Engineer pubblicata un paio di giorni fa presenta statistiche di un sondaggio sull’[popolarità dei linguaggi di programmazione, IDE e strumenti AI e altri dati per la metà del 2025.
Nel luglio 2025, presto dovrebbe essere disponibile
Nvidia sta per rilasciare NVIDIA DGX Spark - un piccolo supercomputer AI basato sull’architettura Blackwell con 128+GB di RAM unificata e un’efficienza AI di 1 PFLOPS. Un dispositivo interessante per eseguire LLM.
L'implementazione di RAG? Ecco alcuni frammenti di codice in Go - 2...
Poiché l’Ollama standard non dispone di un’API di reranking diretta, sarà necessario implementare reranking utilizzando Qwen3 Reranker in GO generando gli embedding per le coppie query-documento e valutandoli.
Un po' di tempo fa ho addestrato un riconoscitore oggetti AI
Un freddo giorno d’inverno a luglio… che è in Australia… ho avuto un forte bisogno di addestrare un modello AI per rilevare barre di armatura in calcestruzzo non chiuse…
qwen3 8b, 14b e 30b, devstral 24b, mistral small 24b
In questo test sto confrontando come diversi LLM ospitati su Ollama traducono una pagina Hugo dall’inglese al tedesco. Le tre pagine che ho testato erano su argomenti diversi, avevano un bel markdown con una certa struttura: intestazioni, elenchi, tabelle, link, ecc.
L'implementazione di RAG? Ecco alcuni snippet di codice in Golang.
Questo piccolo Esempio di codice Go per il rirango è che chiama Ollama per generare embedding per la query e per ogni documento candidato, poi ordinando in ordine discendente per similarità coseno.
Stai pensando di installare una seconda GPU per i modelli LLM?
Come le lane PCIe influenzano le prestazioni degli LLM? Dipende dal compito. Per l’addestramento e l’inferenza multi-GPU, la riduzione delle prestazioni è significativa.
LLM per estrarre il testo da HTML...
Nella libreria dei modelli Ollama ci sono modelli in grado di convertire contenuti HTML in Markdown, che è utile per compiti di conversione del contenuto.
Quanto sono diverse?
Cursor AI, GitHub Copilot, Cline AI e...
Ecco la traduzione del contenuto della pagina Hugo dallo pseudocodice in italiano, mantenendo tutte le specifiche tecniche e gli elementi Hugo originali:
Will elencare qui alcuni strumenti di coding assistiti da AI e AI Coding Assistants con i loro lati positivi.
Breve elenco dei fornitori di LLM
L’utilizzo di LLM non è molto costoso, potrebbe non esserci bisogno di acquistare un nuovo GPU eccezionale.
Ecco un elenco di fornitori di LLM in cloud con gli LLM che ospitano.