LocalAI QuickStart: Execute LLMs compatíveis com OpenAI localmente
Hospede APIs compatíveis com a OpenAI localmente com LocalAI em minutos.
LocalAI é um servidor de inferência auto-hospedado e local-first projetado para se comportar como uma API compatível com OpenAI para executar cargas de trabalho de IA no seu próprio hardware (laptop, estação de trabalho ou servidor local).