Inicio rápido
Build a working AI agent in 10 minutes. Start with a stub, add streaming, validation, then connect a real LLM.
Goa-AI extiende la filosofía de diseño de Goa a los sistemas agénticos. Define agentes, conjuntos de herramientas, completions propiedad del servicio y políticas en un DSL; genera código listo para la producción con contratos tipados, flujos de trabajo duraderos y eventos de streaming.
No toda interacción estructurada debe ser una llamada de herramienta.
A veces el contrato correcto es una respuesta final tipada del asistente: sin invocar herramientas, sin analizar JSON a mano, sin una definición de esquema paralela escondida en el texto del prompt.
Goa-AI modela eso explícitamente con Completion(...) en un servicio:
var TaskDraft = Type("TaskDraft", func() {
Attribute("name", String, "Task name")
Attribute("goal", String, "Outcome-style goal")
Required("name", "goal")
})
var _ = Service("tasks", func() {
Completion("draft_from_transcript", "Produce a task draft directly", func() {
Return(TaskDraft)
})
})
Los nombres de completion forman parte del contrato de structured output. Deben
tener entre 1 y 64 caracteres ASCII, pueden contener letras, dígitos, _ y
-, y deben empezar por una letra o un dígito.
Codegen genera gen/<service>/completions/ con el esquema JSON, codecs
tipados y helpers generados que solicitan structured output forzado por el
provider y decodifican la respuesta final del asistente con el codec generado.
Los helpers de streaming permanecen en la superficie raw de model.Streamer:
los chunks completion_delta son solo vistas previas, exactamente un chunk
final completion es canónico y los helpers generados
Decode<Name>Chunk(...) decodifican solo ese payload final. Los providers que
no implementan structured output fallan explícitamente con
model.ErrStructuredOutputUnsupported.
Ventajas:
OneOf para la salida directa del asistente→ Más información en DSL Reference y Runtime
Deja de escribir código de agente frágil. Empieza por los contratos.
La mayoría de los marcos de agentes le obligan a conectar imperativamente avisos, herramientas y llamadas a la API. Cuando las cosas se rompen -y lo harán- estás depurando código disperso sin una fuente clara de verdad.
Goa-AI le da la vuelta a esto: Define las capacidades de tu agente en un DSL tipado, luego genera la implementación. Tu diseño es tu documentación. Tus contratos son tu validación. Los cambios se propagan automáticamente.
Agent("assistant", "A helpful coding assistant", func() {
Use("code_tools", func() {
Tool("analyze", "Analyze code for issues", func() {
Args(func() {
Attribute("code", String, "Source code to analyze", func() {
MinLength(1) // Can't be empty
MaxLength(100000) // Reasonable size limit
})
Attribute("language", String, "Programming language", func() {
Enum("go", "python", "javascript", "typescript", "rust", "java")
})
Required("code", "language")
})
Return(AnalysisResult)
})
})
})
Cuando el LLM llama a esta herramienta con argumentos inválidos - por ejemplo, una cadena vacía code o language: "cobol" - Goa-AI reintenta automáticamente con un mensaje de error de validación. El LLM ve exactamente lo que salió mal y se corrige a sí mismo. No se requiere código manual de manejo de errores.
Ventajas:
→ Más información en DSL Reference y Quickstart
Construye sistemas complejos a partir de piezas simples y observables.
Las aplicaciones de IA del mundo real no son agentes individuales, son flujos de trabajo orquestados en los que los agentes delegan en otros agentes, las herramientas generan subtareas y es necesario rastrearlo todo.
El modelo de árbol de ejecución de Goa-AI te proporciona una ejecución jerárquica con total observabilidad. Cada ejecución de agente tiene un ID único. Las ejecuciones hijas se enlazan con las madres. Los eventos fluyen en tiempo real. Depure cualquier fallo recorriendo el árbol.
Ventajas:
→ Profundización en Agent Composition y Runtime
Visibilidad en tiempo real de cada decisión que toman sus agentes.
Los agentes de caja negra son un lastre. Cuando su agente llama a una herramienta, empieza a pensar o se encuentra con un error, usted necesita saberlo inmediatamente, no después de que se agote el tiempo de espera de la solicitud.
Goa-AI emite eventos tipados a lo largo de la ejecución: assistant_reply para el flujo de texto, tool_start/tool_end para el ciclo de vida de la herramienta, planner_thought para la visibilidad del razonamiento, usage para el seguimiento de tokens. Los eventos fluyen a través de una sencilla interfaz Sink a cualquier transporte y, en producción, las UIs consumen un único flujo propiedad de la sesión (session/<session_id>) y cierran al observar run_stream_end para la ejecución activa.
// Wire a sink at startup — all events from all runs flow through it
rt := runtime.New(runtime.WithStream(mySink))
Los perfiles de flujo filtran los eventos para diferentes consumidores: UserChatProfile() para UIs de usuario final, AgentDebugProfile() para vistas de desarrollador, MetricsProfile() para pipelines de observabilidad. Los sumideros integrados para Pulse (Redis Streams) permiten la transmisión distribuida entre servicios.
Ventajas:
RunID y SessionID para enrutamiento y filtrado→ Detalles de implementación en Streaming de producción
Ejecuciones de agentes que sobreviven a caídas, reinicios y fallos de red.
Sin durabilidad, un proceso bloqueado pierde todo el progreso. Una llamada a la API de velocidad limitada falla toda la ejecución. Un fallo en la red durante la ejecución de la herramienta significa volver a ejecutar una inferencia costosa.
Goa-AI utiliza Temporal para una ejecución duradera. Las ejecuciones del agente se convierten en flujos de trabajo; las llamadas a las herramientas se convierten en actividades con reintentos configurables. Cada transición de estado es persistente. Una herramienta colapsada se reintenta automáticamente - sin reejecutar la llamada LLM que la produjo.
// Development: in-memory (no dependencies)
rt := runtime.New()
// Production: Temporal for durability
eng, _ := temporal.NewWorker(temporal.Options{
ClientOptions: &client.Options{HostPort: "localhost:7233"},
WorkerOptions: temporal.WorkerOptions{TaskQueue: "my-agents"},
})
rt := runtime.New(runtime.WithEngine(eng))
**Ventajas
→ Guía de instalación y configuración de reintentos en Producción
Descubre y consume herramientas desde cualquier lugar: tu clúster o la nube pública.
A medida que crecen los ecosistemas de IA, las herramientas están en todas partes: servicios internos, API de terceros, registros MCP públicos. La codificación de definiciones de herramientas no es escalable. Necesita un descubrimiento dinámico.
Goa-AI proporciona un registro interno agrupado para sus propios conjuntos de herramientas y federación con registros externos como el catálogo MCP de Anthropic. Defina una vez, descubra en todas partes.
// Connect to public registries
var AnthropicRegistry = Registry("anthropic", func() {
Description("Anthropic MCP Registry")
URL("https://registry.anthropic.com/v1")
Security(AnthropicOAuth)
Federation(func() {
Include("web-search", "code-execution", "filesystem")
Exclude("experimental/*")
})
SyncInterval("1h")
CacheTTL("24h")
})
// Or run your own clustered registry
var CorpRegistry = Registry("corp", func() {
Description("Internal tool registry")
URL("https://registry.corp.internal")
Security(CorpAPIKey)
SyncInterval("5m")
})
Registro interno agrupado:
Múltiples nodos de registro con el mismo nombre forman automáticamente un clúster a través de Redis. Estado compartido, comprobaciones de estado coordinadas, escalado horizontal: todo automático.
**Ventajas
→ Más información en Integración MCP y Producción
| Característica | Lo que obtienes |
|---|---|
| Agentes Design-First | Define agentes en DSL y genera código con seguridad de tipos |
| Integración MCP | Soporte nativo de Model Context Protocol |
| Registros de herramientas | Descubrimiento en clúster + federación con registros públicos |
| Árboles de ejecución | Agentes que llaman a agentes con trazabilidad completa |
| Streaming estructurado | Eventos tipados en tiempo real para UI y observabilidad |
| Durabilidad con Temporal | Ejecución tolerante a fallos que sobrevive a las caídas |
| Contratos tipados | Seguridad de tipos de extremo a extremo para todas las operaciones de herramientas |
| Completions Directas Tipadas | Respuestas finales estructuradas del asistente con codecs y helpers generados |
| Guía | Descripción | ~Tokens |
|---|---|---|
| Inicio rápido | Instalación y primer agente | ~2.700 |
| Referencia DSL | DSL completo: agentes, toolsets, políticas y MCP | ~3.600 |
| Runtime | Arquitectura del runtime, bucle plan/execute y motores | ~2.400 |
| Toolsets | Tipos de toolset, modelos de ejecución y transformaciones | ~2.300 |
| Composición de agentes | Agent-as-tool, árboles de ejecución y topología de streaming | ~1.400 |
| Integración MCP | Servidores MCP, transportes y wrappers generados | ~1.200 |
| Memoria y sesiones | Transcripciones, almacenes de memoria, sesiones y ejecuciones | ~1.600 |
| Producción | Configuración de Temporal, streaming UI e integración de modelos | ~2.200 |
| Pruebas y resolución de problemas | Agentes de pruebas, planificadores, herramientas, errores comunes | ~2.000 |
Sección total: ~21.400 tokens
Goa-AI sigue un proceso de definir → generar → ejecutar que transforma los diseños declarativos en sistemas de agentes listos para la producción.
Descripción de capas:
| Capa | Propósito |
|---|---|
| DSL | Declarar agentes, herramientas, políticas e integraciones externas en código Go versionado |
| Codegen | Generar especificaciones seguras, codecs, definiciones de flujo de trabajo y clientes de registro; nunca editar gen/ |
| Runtime | Ejecutar el bucle plan/execute con aplicación de políticas, persistencia de memoria y streaming de eventos |
| Engine | Intercambiar backends de ejecución: en memoria para desarrollo y Temporal para durabilidad en producción |
| Features | Conectar proveedores de modelos (OpenAI, Anthropic, AWS Bedrock), persistencia (Mongo), streaming (Pulse) y registros |
Puntos clave de integración:
Goa-AI incluye adaptadores de primera clase para tres proveedores LLM:
features/model/openai)features/model/anthropic)features/model/bedrock)Los tres implementan la misma interfaz model.Client utilizada por los planificadores. Las aplicaciones registran clientes modelo con el tiempo de ejecución utilizando rt.RegisterModel("provider-id", client) y se refieren a ellos por ID desde los planificadores y las configuraciones de agente generadas, por lo que el intercambio de proveedores es un cambio de configuración en lugar de un rediseño.
Añadir un nuevo proveedor sigue el mismo patrón:
model.Client para tu proveedor mapeando sus tipos SDK en model.Request, model.Response, y streaming model.Chunks.features/model/middleware.NewAdaptiveRateLimiter) para la limitación de velocidad adaptativa y métricas.rt.RegisterModel("my-provider", client) antes de registrar agentes, luego haga referencia a "my-provider" desde sus planificadores o configuraciones de agentes.Debido a que los planificadores y el tiempo de ejecución sólo dependen de model.Client, los nuevos proveedores se conectan sin cambios en sus diseños Goa o en el código de agente generado.
package design
import (
. "goa.design/goa/v3/dsl"
. "goa.design/goa-ai/dsl"
)
var _ = Service("calculator", func() {
Description("Calculator service with an AI assistant")
// Define a service method that the tool will bind to
Method("add", func() {
Description("Add two numbers")
Payload(func() {
Attribute("a", Int, "First number")
Attribute("b", Int, "Second number")
Required("a", "b")
})
Result(Int)
})
// Define the agent within the service
Agent("assistant", "A helpful assistant agent", func() {
// Use a toolset with tools bound to service methods
Use("calculator", func() {
Tool("add", "Add two numbers", func() {
Args(func() {
Attribute("a", Int, "First number")
Attribute("b", Int, "Second number")
Required("a", "b")
})
Return(Int)
BindTo("add") // Bind to the service method
})
})
// Configure the agent's run policy
RunPolicy(func() {
DefaultCaps(MaxToolCalls(10))
TimeBudget("5m")
})
})
})
Empieza con la guía Quickstart para instalar Goa-AI y construir tu primer agente.
Para una cobertura completa de DSL, consulta la DSL Reference.
Para entender la arquitectura de ejecución, consulta la guía Runtime.