OpenCode Quickstart: Installa, configura e usa l'agente AI per la codifica del terminale

Come installare, configurare e utilizzare OpenCode

Indice

OpenCode è un agente AI open source che puoi eseguire nel terminale (TUI + CLI) con superfici opzionali per desktop e IDE. Questo è il Quickstart di OpenCode: installa, verifica, collega un modello/fornitore e esegui workflow reali (CLI + API).

Nota sulla versione: OpenCode si aggiorna rapidamente. I comandi “latest” qui sono stabili, ma l’output e le impostazioni predefinite possono cambiare — verifica sempre le documentazioni ufficiali del CLI e il changelog (indicati di seguito).

Questo articolo fa parte di Strumenti per sviluppatori AI: La guida completa allo sviluppo potenziato dall’AI.

Cosa è OpenCode (e dove si colloca)

OpenCode è progettato per la codifica agente-first, a partire dal terminale, mantenendo flessibilità nei fornitori/modelli. In pratica, è uno strato di workflow che può:

  • avviare un’interfaccia utente terminale quando esegui opencode
  • eseguire prompt non interattivi “one-shot” tramite opencode run (script/automazione)
  • esporre un server HTTP headless tramite opencode serve (e un’interfaccia web tramite opencode web)
  • essere controllato programmabilmente tramite l’SDK ufficiale JS/TS @opencode-ai/sdk

opencode con qwen3.5 27b LLM autohostato

Se stai costruendo un cluster /ai-devtools/, OpenCode è una forte candidatura per un sottocluster perché si espande naturalmente in:

  • Analisi approfondita del CLI
  • comportamento e costi dei modelli/fornitori (confronto LLM all’interno di OpenCode)
  • configurazione & agenti
  • integrazioni (GitHub/GitLab/Copilot)
  • riferimento rapido

Prerequisiti

Ti servirà:

  • Un emulatore di terminale moderno (importante per l’esperienza TUI).
  • Accesso a almeno un modello/fornitore (chiavi API o autenticazione con abbonamento, a seconda del fornitore). Le opzioni locali come Ollama o llama.cpp funzionano senza chiavi API quando esegui un server compatibile localmente.

Installa OpenCode (copia-incolla)

Script ufficiale di installazione (Linux/macOS/WSL):

curl -fsSL https://opencode.ai/install | bash

Opzioni del gestore dei pacchetti (esempi ufficiali):

# Installazione globale con Node.js
npm install -g opencode-ai

# Homebrew (raccomandato da OpenCode per le release più aggiornate)
brew install anomalyco/tap/opencode

# Arch Linux (stabile)
sudo pacman -S opencode

# Arch Linux (ultima versione dall'AUR)
paru -S opencode-bin

Note per Windows (la guida ufficiale raccomanda spesso WSL per la migliore compatibilità). Alternative includono Scoop/Chocolatey o npm.

# Chocolatey (Windows)
choco install opencode

# Scoop (Windows)
scoop install opencode

Docker (utile per un rapido test):

docker run -it --rm ghcr.io/anomalyco/opencode

Verifica l’installazione

opencode --version
opencode --help

Forma dell’output prevista (varierà per versione):

# Esempio:
# <stampa un numero di versione, ad esempio vX.Y.Z>
# <stampa l'aiuto con i comandi/discomandi disponibili>

Collega un fornitore (due percorsi pratici)

Percorso A: TUI /connect (interattivo)

Avvia OpenCode:

opencode

Poi esegui:

/connect

Segui i passaggi dell’interfaccia utente per selezionare un fornitore e autenticarti (alcuni flussi aprono un browser/login dispositivo).

Percorso B: CLI opencode auth login (chiavi del fornitore)

OpenCode supporta la configurazione dei fornitori tramite:

opencode auth login

Note:

  • Le credenziali sono archiviate in ~/.local/share/opencode/auth.json.
  • OpenCode può anche caricare le chiavi da variabili d’ambiente o un file .env nel tuo progetto.

Hosting locale di LLM (Ollama, llama.cpp)

OpenCode funziona con qualsiasi API compatibile con OpenAI. Per lo sviluppo locale, molti utenti eseguono Ollama e puntano OpenCode su di esso. Ho recentemente avuto un’esperienza molto buona configurando e eseguendo OpenCode con llama.cpp invece — llama-server espone endpoint compatibili con OpenAI, quindi puoi utilizzare i modelli GGUF con lo stesso workflow. Se preferisci un controllo fine sui dati di memoria e sul runtime, o desideri uno stack più leggero senza Python (per inciso, ollama è implementato in Go), llama.cpp è degno di prova. Ho apprezzato molto l’opportunità di configurare strati offloaded, l’uso semplice dei modelli in formato GGUF e una compatibilità molto migliore e più veloce con nuovi modelli, come Qwen3.5.

Avvia un progetto correttamente (prima esecuzione consigliata)

Dalla tua repo:

cd /path/to/your/repo
opencode

Poi inizializza:

/init

Questo analizza il tuo progetto e crea un file AGENTS.md nella radice del progetto. È tipicamente utile committare questo file in modo che OpenCode (e i colleghi) condividano un contesto del progetto coerente.

Flussi di lavoro principali CLI (esempi copia-incolla)

OpenCode supporta esecuzioni non interattive:

opencode run "Spiega come funzionano le closure in JavaScript"

Flusso di lavoro: generare codice (CLI)

Obiettivo: generare una funzione piccola e testabile con contesto minimo.

opencode run "Scrivi una funzione Go ParsePort(envVar string, defaultPort int) (int, error). Deve leggere la variabile d'ambiente, analizzare un intero, validare 1-65535 e restituire defaultPort se vuoto. Includi 3 test basati su tabelle."

Output previsto:

  • Una spiegazione più blocchi di codice (funzione + test). Il codice esatto varia per modello/fornitore e prompt.

Flusso di lavoro: ristrutturare un file in modo sicuro (CLI + Agente Plan)

Obiettivo: ristrutturare senza modifiche accidentali utilizzando un agente più restrittivo.

opencode run --agent plan --file ./src/auth.ts \
  "Ristruttura questo file per ridurre la complessità. Output: (1) un breve piano, (2) un blocco di patch unificato, (3) rischi/casi limite da testare. Non eseguire comandi."

Output previsto:

  • Una sezione piano + un blocco diff --git ... + un elenco di test.
  • Il contenuto varia. Se non genera un diff, ripromptare: “Restituisci solo un diff unificato” o “Usa il formato diff --git.”

Flusso di lavoro: chiedere domande sulla repo (CLI)

Obiettivo: localizzare velocemente dettagli di implementazione.

opencode run --agent explore \
  "In questa repository, dove viene validata l'autenticazione per le richieste API? Elenca i file probabili e spiega il flusso. Se non sei sicuro, indica cosa hai controllato."

Output previsto:

  • Una mappa breve di percorsi di file + descrizione del flusso.
  • L’output dipende dalla dimensione della repo e dagli strumenti di contesto del modello/fornitore.

Flusso di lavoro: velocizza le esecuzioni CLI ripetute con un server persistente

Se stai scrivendo script o eseguendo più volte opencode run, puoi avviare un server headless una volta:

Termine 1:

opencode serve --port 4096 --hostname 127.0.0.1

Termine 2:

opencode run --attach http://localhost:4096 "Riassumi la struttura del repository e gli entrypoint principali."
opencode run --attach http://localhost:4096 "Ora propone 3 ristrutturazioni ad alto impatto e spiega il motivo."

Output previsto:

  • Lo stesso di opencode run, ma generalmente con meno overhead ripetuto all’avvio.

Utilizzo programmativo (SDK JS/TS ufficiale)

OpenCode espone un server HTTP (OpenAPI) e fornisce un client JS/TS type-safe.

Installazione:

npm install @opencode-ai/sdk

Esempio: avvia server + client, poi prompt

Crea scripts/opencode-sdk-demo.mjs:

import { createOpencode } from "@opencode-ai/sdk";

const opencode = await createOpencode({
  hostname: "127.0.0.1",
  port: 4096,
  config: {
    // Formato stringa del modello è provider/model (esempio solo)
    // model: "anthropic/claude-3-5-sonnet-20241022",
  },
});

console.log(`Server in esecuzione a: ${opencode.server.url}`);

// Controllo di base salute/versione
const health = await opencode.client.global.health();
console.log("Sano:", health.data.healthy, "Versione:", health.data.version);

// Crea una sessione e prompt
const session = await opencode.client.session.create({ body: { title: "Demo rapida SDK" } });

const result = await opencode.client.session.prompt({
  path: { id: session.data.id },
  body: {
    parts: [{ type: "text", text: "Genera una sezione piccola di README che descrive questo repository." }],
  },
});

console.log(result.data);

// Chiudi il server quando finito
opencode.server.close();

Esegui:

node scripts/opencode-sdk-demo.mjs

Forma dell’output prevista:

  • “Server in esecuzione a …”
  • Una risposta salute che include una stringa di versione
  • Un oggetto risposta sessione prompt (struttura esatta dipende da responseStyle e versione SDK)

Configurazione OpenCode minima che puoi copiare

OpenCode supporta JSON e JSONC config. Questo è un punto di partenza ragionevole per una configurazione locale al progetto.

Crea opencode.jsonc nella radice del tuo repository:

{
  "$schema": "https://opencode.ai/config.json",

  // Scegli un modello predefinito (provider/model). Mantieni questa allineata con ciò che mostra `opencode models`.
  "model": "provider/model",

  // Opzionale: un modello “piccolo” più economico per compiti leggeri (titoli, ecc.)
  "small_model": "provider/small-model",

  // Opzionale: impostazioni predefinite del server OpenCode (usate da serve/web)
  "server": {
    "port": 4096,
    "hostname": "127.0.0.1"
  },

  // Opzionale sicurezza: richiedi conferma prima delle modifiche/comandi
  "permission": {
    "edit": "ask",
    "bash": "ask"
  }
}

Riferimento rapido: tabella di OpenCode (pagina singola stampabile)

Questa versione è intenzionalmente densa e “stampa-friendly”. (Puoi incollarla in una pagina dedicata /ai-devtools/opencode/cheatsheet/ in seguito.)

Task Comando / scorciatoia Note
Avvia TUI opencode Il comportamento predefinito è lanciare l’interfaccia utente terminale
Esegui un prompt one-shot opencode run "..." Modalità non interattiva per scripting/automazione
Collega file(s) al prompt opencode run --file path/to/file "..." Usa più flag --file per più file
Scegli un modello per un run opencode run --model provider/model "..." Le stringhe del modello sono provider/model
Scegli un agente opencode run --agent plan "..." Plan è progettato per lavoro “nessun cambiamento” più sicuro (limitato ai permessi)
Elenco dei modelli opencode models [provider] Usa --refresh per aggiornare l’elenco memorizzato
Configura credenziali del fornitore opencode auth login Archivia le credenziali in ~/.local/share/opencode/auth.json
Elenco fornitori autenticati opencode auth list / opencode auth ls Conferma ciò che OpenCode vede
Avvia server headless opencode serve --port 4096 --hostname 127.0.0.1 Specifica OpenAPI a http://host:port/doc
Collega esecuzioni al server opencode run --attach http://localhost:4096 "..." Utile per evitare avvii ripetuti freddi
Abilita autenticazione base OPENCODE_SERVER_PASSWORD=... opencode serve L’username predefinito è opencode a meno che non venga sovrascritto
Modalità interfaccia web opencode web Avvia il server + apre il browser
Esporta una sessione opencode export [sessionID] Utile per archiviare o condividere il contesto
Importa una sessione opencode import session.json Si può anche importare da un URL di condivisione
Visualizza flag CLI globali opencode --help / opencode --version --print-logs + --log-level per il debug
Concetto di chiave leader TUI chiave leader predefinita spesso ctrl+x Personalizzabile in tui.json

Fonti (ufficiali prima di tutto)

Ufficiali:

Riferimento autoritativo per le integrazioni:

Confronti e tutorial riconosciuti: