OpenCode Quickstart: Installa, configura e usa l'agente AI per la codifica del terminale
Come installare, configurare e utilizzare OpenCode
OpenCode è un agente AI open source che puoi eseguire nel terminale (TUI + CLI) con superfici opzionali per desktop e IDE. Questo è il Quickstart di OpenCode: installa, verifica, collega un modello/fornitore e esegui workflow reali (CLI + API).
Nota sulla versione: OpenCode si aggiorna rapidamente. I comandi “latest” qui sono stabili, ma l’output e le impostazioni predefinite possono cambiare — verifica sempre le documentazioni ufficiali del CLI e il changelog (indicati di seguito).
Questo articolo fa parte di Strumenti per sviluppatori AI: La guida completa allo sviluppo potenziato dall’AI.
Cosa è OpenCode (e dove si colloca)
OpenCode è progettato per la codifica agente-first, a partire dal terminale, mantenendo flessibilità nei fornitori/modelli. In pratica, è uno strato di workflow che può:
- avviare un’interfaccia utente terminale quando esegui
opencode - eseguire prompt non interattivi “one-shot” tramite
opencode run(script/automazione) - esporre un server HTTP headless tramite
opencode serve(e un’interfaccia web tramiteopencode web) - essere controllato programmabilmente tramite l’SDK ufficiale JS/TS
@opencode-ai/sdk

Se stai costruendo un cluster /ai-devtools/, OpenCode è una forte candidatura per un sottocluster perché si espande naturalmente in:
- Analisi approfondita del CLI
- comportamento e costi dei modelli/fornitori (confronto LLM all’interno di OpenCode)
- configurazione & agenti
- integrazioni (GitHub/GitLab/Copilot)
- riferimento rapido
Prerequisiti
Ti servirà:
- Un emulatore di terminale moderno (importante per l’esperienza TUI).
- Accesso a almeno un modello/fornitore (chiavi API o autenticazione con abbonamento, a seconda del fornitore). Le opzioni locali come Ollama o llama.cpp funzionano senza chiavi API quando esegui un server compatibile localmente.
Installa OpenCode (copia-incolla)
Script ufficiale di installazione (Linux/macOS/WSL):
curl -fsSL https://opencode.ai/install | bash
Opzioni del gestore dei pacchetti (esempi ufficiali):
# Installazione globale con Node.js
npm install -g opencode-ai
# Homebrew (raccomandato da OpenCode per le release più aggiornate)
brew install anomalyco/tap/opencode
# Arch Linux (stabile)
sudo pacman -S opencode
# Arch Linux (ultima versione dall'AUR)
paru -S opencode-bin
Note per Windows (la guida ufficiale raccomanda spesso WSL per la migliore compatibilità). Alternative includono Scoop/Chocolatey o npm.
# Chocolatey (Windows)
choco install opencode
# Scoop (Windows)
scoop install opencode
Docker (utile per un rapido test):
docker run -it --rm ghcr.io/anomalyco/opencode
Verifica l’installazione
opencode --version
opencode --help
Forma dell’output prevista (varierà per versione):
# Esempio:
# <stampa un numero di versione, ad esempio vX.Y.Z>
# <stampa l'aiuto con i comandi/discomandi disponibili>
Collega un fornitore (due percorsi pratici)
Percorso A: TUI /connect (interattivo)
Avvia OpenCode:
opencode
Poi esegui:
/connect
Segui i passaggi dell’interfaccia utente per selezionare un fornitore e autenticarti (alcuni flussi aprono un browser/login dispositivo).
Percorso B: CLI opencode auth login (chiavi del fornitore)
OpenCode supporta la configurazione dei fornitori tramite:
opencode auth login
Note:
- Le credenziali sono archiviate in
~/.local/share/opencode/auth.json. - OpenCode può anche caricare le chiavi da variabili d’ambiente o un file
.envnel tuo progetto.
Hosting locale di LLM (Ollama, llama.cpp)
OpenCode funziona con qualsiasi API compatibile con OpenAI. Per lo sviluppo locale, molti utenti eseguono Ollama e puntano OpenCode su di esso. Ho recentemente avuto un’esperienza molto buona configurando e eseguendo OpenCode con llama.cpp invece — llama-server espone endpoint compatibili con OpenAI, quindi puoi utilizzare i modelli GGUF con lo stesso workflow. Se preferisci un controllo fine sui dati di memoria e sul runtime, o desideri uno stack più leggero senza Python (per inciso, ollama è implementato in Go), llama.cpp è degno di prova. Ho apprezzato molto l’opportunità di configurare strati offloaded, l’uso semplice dei modelli in formato GGUF e una compatibilità molto migliore e più veloce con nuovi modelli, come Qwen3.5.
Avvia un progetto correttamente (prima esecuzione consigliata)
Dalla tua repo:
cd /path/to/your/repo
opencode
Poi inizializza:
/init
Questo analizza il tuo progetto e crea un file AGENTS.md nella radice del progetto. È tipicamente utile committare questo file in modo che OpenCode (e i colleghi) condividano un contesto del progetto coerente.
Flussi di lavoro principali CLI (esempi copia-incolla)
OpenCode supporta esecuzioni non interattive:
opencode run "Spiega come funzionano le closure in JavaScript"
Flusso di lavoro: generare codice (CLI)
Obiettivo: generare una funzione piccola e testabile con contesto minimo.
opencode run "Scrivi una funzione Go ParsePort(envVar string, defaultPort int) (int, error). Deve leggere la variabile d'ambiente, analizzare un intero, validare 1-65535 e restituire defaultPort se vuoto. Includi 3 test basati su tabelle."
Output previsto:
- Una spiegazione più blocchi di codice (funzione + test). Il codice esatto varia per modello/fornitore e prompt.
Flusso di lavoro: ristrutturare un file in modo sicuro (CLI + Agente Plan)
Obiettivo: ristrutturare senza modifiche accidentali utilizzando un agente più restrittivo.
opencode run --agent plan --file ./src/auth.ts \
"Ristruttura questo file per ridurre la complessità. Output: (1) un breve piano, (2) un blocco di patch unificato, (3) rischi/casi limite da testare. Non eseguire comandi."
Output previsto:
- Una sezione piano + un blocco
diff --git ...+ un elenco di test. - Il contenuto varia. Se non genera un diff, ripromptare: “Restituisci solo un diff unificato” o “Usa il formato
diff --git.”
Flusso di lavoro: chiedere domande sulla repo (CLI)
Obiettivo: localizzare velocemente dettagli di implementazione.
opencode run --agent explore \
"In questa repository, dove viene validata l'autenticazione per le richieste API? Elenca i file probabili e spiega il flusso. Se non sei sicuro, indica cosa hai controllato."
Output previsto:
- Una mappa breve di percorsi di file + descrizione del flusso.
- L’output dipende dalla dimensione della repo e dagli strumenti di contesto del modello/fornitore.
Flusso di lavoro: velocizza le esecuzioni CLI ripetute con un server persistente
Se stai scrivendo script o eseguendo più volte opencode run, puoi avviare un server headless una volta:
Termine 1:
opencode serve --port 4096 --hostname 127.0.0.1
Termine 2:
opencode run --attach http://localhost:4096 "Riassumi la struttura del repository e gli entrypoint principali."
opencode run --attach http://localhost:4096 "Ora propone 3 ristrutturazioni ad alto impatto e spiega il motivo."
Output previsto:
- Lo stesso di
opencode run, ma generalmente con meno overhead ripetuto all’avvio.
Utilizzo programmativo (SDK JS/TS ufficiale)
OpenCode espone un server HTTP (OpenAPI) e fornisce un client JS/TS type-safe.
Installazione:
npm install @opencode-ai/sdk
Esempio: avvia server + client, poi prompt
Crea scripts/opencode-sdk-demo.mjs:
import { createOpencode } from "@opencode-ai/sdk";
const opencode = await createOpencode({
hostname: "127.0.0.1",
port: 4096,
config: {
// Formato stringa del modello è provider/model (esempio solo)
// model: "anthropic/claude-3-5-sonnet-20241022",
},
});
console.log(`Server in esecuzione a: ${opencode.server.url}`);
// Controllo di base salute/versione
const health = await opencode.client.global.health();
console.log("Sano:", health.data.healthy, "Versione:", health.data.version);
// Crea una sessione e prompt
const session = await opencode.client.session.create({ body: { title: "Demo rapida SDK" } });
const result = await opencode.client.session.prompt({
path: { id: session.data.id },
body: {
parts: [{ type: "text", text: "Genera una sezione piccola di README che descrive questo repository." }],
},
});
console.log(result.data);
// Chiudi il server quando finito
opencode.server.close();
Esegui:
node scripts/opencode-sdk-demo.mjs
Forma dell’output prevista:
- “Server in esecuzione a …”
- Una risposta salute che include una stringa di versione
- Un oggetto risposta sessione prompt (struttura esatta dipende da
responseStylee versione SDK)
Configurazione OpenCode minima che puoi copiare
OpenCode supporta JSON e JSONC config. Questo è un punto di partenza ragionevole per una configurazione locale al progetto.
Crea opencode.jsonc nella radice del tuo repository:
{
"$schema": "https://opencode.ai/config.json",
// Scegli un modello predefinito (provider/model). Mantieni questa allineata con ciò che mostra `opencode models`.
"model": "provider/model",
// Opzionale: un modello “piccolo” più economico per compiti leggeri (titoli, ecc.)
"small_model": "provider/small-model",
// Opzionale: impostazioni predefinite del server OpenCode (usate da serve/web)
"server": {
"port": 4096,
"hostname": "127.0.0.1"
},
// Opzionale sicurezza: richiedi conferma prima delle modifiche/comandi
"permission": {
"edit": "ask",
"bash": "ask"
}
}
Riferimento rapido: tabella di OpenCode (pagina singola stampabile)
Questa versione è intenzionalmente densa e “stampa-friendly”. (Puoi incollarla in una pagina dedicata /ai-devtools/opencode/cheatsheet/ in seguito.)
| Task | Comando / scorciatoia | Note |
|---|---|---|
| Avvia TUI | opencode |
Il comportamento predefinito è lanciare l’interfaccia utente terminale |
| Esegui un prompt one-shot | opencode run "..." |
Modalità non interattiva per scripting/automazione |
| Collega file(s) al prompt | opencode run --file path/to/file "..." |
Usa più flag --file per più file |
| Scegli un modello per un run | opencode run --model provider/model "..." |
Le stringhe del modello sono provider/model |
| Scegli un agente | opencode run --agent plan "..." |
Plan è progettato per lavoro “nessun cambiamento” più sicuro (limitato ai permessi) |
| Elenco dei modelli | opencode models [provider] |
Usa --refresh per aggiornare l’elenco memorizzato |
| Configura credenziali del fornitore | opencode auth login |
Archivia le credenziali in ~/.local/share/opencode/auth.json |
| Elenco fornitori autenticati | opencode auth list / opencode auth ls |
Conferma ciò che OpenCode vede |
| Avvia server headless | opencode serve --port 4096 --hostname 127.0.0.1 |
Specifica OpenAPI a http://host:port/doc |
| Collega esecuzioni al server | opencode run --attach http://localhost:4096 "..." |
Utile per evitare avvii ripetuti freddi |
| Abilita autenticazione base | OPENCODE_SERVER_PASSWORD=... opencode serve |
L’username predefinito è opencode a meno che non venga sovrascritto |
| Modalità interfaccia web | opencode web |
Avvia il server + apre il browser |
| Esporta una sessione | opencode export [sessionID] |
Utile per archiviare o condividere il contesto |
| Importa una sessione | opencode import session.json |
Si può anche importare da un URL di condivisione |
| Visualizza flag CLI globali | opencode --help / opencode --version |
--print-logs + --log-level per il debug |
| Concetto di chiave leader TUI | chiave leader predefinita spesso ctrl+x |
Personalizzabile in tui.json |
Fonti (ufficiali prima di tutto)
Ufficiali:
- Documentazione OpenCode (Introduzione, CLI, Config, Server, SDK): https://opencode.ai/docs/
- Changelog OpenCode: https://opencode.ai/changelog
- Repository ufficiale GitHub: https://github.com/anomalyco/opencode
- Release: https://github.com/anomalyco/opencode/releases
Riferimento autoritativo per le integrazioni:
- Changelog GitHub (Copilot supporta OpenCode): https://github.blog/changelog/2026-01-16-github-copilot-now-supports-opencode/
Confronti e tutorial riconosciuti:
- DataCamp: OpenCode vs Claude Code (2026): https://www.datacamp.com/blog/opencode-vs-claude-code
- Builder.io: OpenCode vs Claude Code (2026): https://www.builder.io/blog/opencode-vs-claude-code
- freeCodeCamp: Integra l’AI nel tuo terminale utilizzando OpenCode: https://www.freecodecamp.org/news/integrate-ai-into-your-terminal-using-opencode