Skip to content

General

Preguntas Frecuentes

Todo lo que necesitas saber sobre AgentOS — desde la primera instalación hasta el despliegue en producción.

Wilds AI
Join the Wilds AI Discord
Official community for AgentOS and Paracosm support, developer onboarding, and questions.

General

¿Qué es AgentOS?

AgentOS es un runtime TypeScript open source para construir agentes de IA en producción, desarrollado por Manic Agency LLC (manic.agency) y Frame.dev. Proporciona orquestación multi-agente, memoria cognitiva, RAG multimodal, guardrails de seguridad integrados (redacción de PII, defensa contra prompt injection, moderación de contenido), pipelines de voz, 37 adaptadores de canal y 21 integraciones de proveedores de LLM. AgentOS también potencia los sistemas de IA detrás de Wilds.ai, una plataforma de juegos AI-native. Self-hosted y gratuito.

¿AgentOS es gratuito y de código abierto?

Sí. El runtime principal está licenciado bajo Apache 2.0. Los presets de agentes, extensiones y guardrails están licenciados bajo MIT. Puedes usar AgentOS comercialmente, modificarlo y redistribuirlo según los términos de estas licencias.

¿Qué proveedores de LLM son compatibles?

AgentOS soporta 21 proveedores de LLM, incluidos OpenAI, Anthropic, Google Gemini, Mistral, Cohere, Ollama, OpenRouter, Together AI, Fireworks AI, Groq, Perplexity, DeepSeek, xAI (Grok), Replicate, Anyscale, AI21 Labs, Aleph Alpha, AWS Bedrock, Azure OpenAI, Cloudflare Workers AI y HuggingFace Inference. Las cadenas de fallback de proveedor permiten un failover automático.

¿En qué lenguaje de programación está construido AgentOS?

AgentOS está escrito completamente en TypeScript y se ejecuta en Node.js. El paquete npm es @framers/agentos. Funciona con cualquier proyecto TypeScript o JavaScript.

¿En qué se diferencia AgentOS de LangChain, CrewAI o AutoGen?

AgentOS es nativo de TypeScript (no Python), incluye memoria cognitiva con curvas de decaimiento de Ebbinghaus y modelado de personalidad HEXACO, ofrece 5 niveles de seguridad en lugar de un filtrado básico de prompts, proporciona 37 adaptadores de canal integrados (Discord, Telegram, Slack, correo electrónico y más) y soporta 6 estrategias de orquestación, incluidos DAGs de agentes basados en grafo. También incluye 88 skills curadas y un motor de descubrimiento de capacidades que reduce el uso de tokens en aproximadamente un 90%.

faq.general.whatIsParacosm.question

faq.general.whatIsParacosm.answer

faq.general.whatIsWildsAi.question

faq.general.whatIsWildsAi.answer

faq.general.whatIsWunderland.question

faq.general.whatIsWunderland.answer

Técnico

¿Qué es una GMI?

GMI significa General Machine Intelligence — es el núcleo cognitivo de cada agente AgentOS. Una GMI encapsula los rasgos de personalidad del agente (vía HEXACO), sistemas de memoria, acceso a herramientas, configuración de guardrails y estilo de comunicación en una única identidad persistente. Las GMIs mantienen estado entre sesiones y adaptan su comportamiento según la experiencia acumulada.

¿Qué es la personalidad HEXACO?

HEXACO es un modelo de personalidad de 6 factores procedente de la investigación en psicología (Ashton & Lee, 2004). Las seis dimensiones son Honestidad-Humildad, Emocionalidad, Extraversión, Amabilidad, Conciencia y Apertura a la Experiencia. En AgentOS, los rasgos HEXACO modulan cómo los agentes se comunican, recuerdan y toman decisiones. Por ejemplo, una alta Apertura aumenta la reconsolidación de memoria durante el recuerdo, mientras que una alta Conciencia refuerza el olvido inducido por recuperación de asociaciones irrelevantes.

¿Cómo funciona la memoria cognitiva?

La memoria cognitiva de AgentOS implementa 8 mecanismos de la investigación en ciencia cognitiva: reconsolidación, olvido inducido por recuperación, recuerdo involuntario, sensación de saber, extracción de gist temporal, codificación de esquemas, decaimiento de confianza de la fuente y regulación emocional. Las memorias decaen con el tiempo siguiendo las curvas del olvido de Ebbinghaus (Ebbinghaus, 1885), con repetición espaciada y consolidación para preservar información importante. La memoria de trabajo sigue el modelo multicomponente de Baddeley (Baddeley, 2000) con un scratchpad volátil para el turno actual que se consolida hacia arriba en las capas de memoria episódica, semántica y observacional.

¿Qué guardrails están disponibles?

AgentOS proporciona 5 niveles de seguridad (dangerous, permissive, balanced, strict, paranoid) y 6 tipos de extensión de guardrail: redacción de PII (nombres, correos, teléfonos, SSN), clasificadores de ML para la detección de prompt injection, análisis de seguridad de código, verificación de grounding contra documentos fuente, aplicación de topicalidad para mantener a los agentes en la tarea y filtrado de política de contenido para salidas dañinas o inapropiadas.

¿Qué es el sistema de descubrimiento de capacidades?

El motor de descubrimiento de capacidades reemplaza los volcados estáticos de herramientas y skills por una búsqueda semántica de 3 niveles, reduciendo el uso de tokens en aproximadamente un 90%. El nivel 0 ofrece resúmenes de categoría en unos 150 tokens (siempre incluidos). El nivel 1 devuelve los 5 mejores matches semánticos en unos 200 tokens. El nivel 2 entrega esquemas completos en unos 1.500 tokens, cargados bajo demanda. Una meta-herramienta llamada discover_capabilities permite a los agentes descubrir herramientas disponibles en tiempo de ejecución.

¿Cómo funciona el QueryRouter?

El QueryRouter clasifica las consultas entrantes en 4 niveles: T0 (respuesta directa desde el contexto), T1 (invocación de herramienta única), T2 (plan multietapa que requiere un motor de planificación) y T3 (delegación multi-agente que requiere orquestación). Esta clasificación determina la estrategia de ejecución y la asignación de recursos para cada solicitud.

¿Qué es la inteligencia adaptativa?

La inteligencia adaptativa es la forma en que los agentes AgentOS mejoran continuamente su comportamiento sin reentrenamiento. Cinco mecanismos trabajan juntos: (1) Adaptación meta-reflexiva de prompts — el PromptBuilder ensambla un system prompt diferente cada turno, incorporando dinámicamente rasgos de personalidad, estado de ánimo, historial de conversación, memorias recuperadas y herramientas disponibles. (2) Auto-evaluación de la calidad de respuesta — la herramienta self_evaluate puntúa la propia salida del agente y ajusta parámetros como temperatura, verbosidad y expresión de personalidad en tiempo real. (3) Cognición modulada por personalidad — los rasgos HEXACO moldean cómo el agente procesa la información. Una alta apertura aumenta las asociaciones creativas durante la recuperación de memoria; una alta conciencia refuerza el olvido inducido por recuperación de datos irrelevantes. (4) Consolidación autónoma de memoria — el ConsolidationLoop poda memorias débiles, fortalece las accedidas con frecuencia y deriva nuevos insights de clústeres de memoria, de modo que el conocimiento del agente mejora con el tiempo sin entrenamiento explícito. (5) Clasificación por niveles del QueryRouter — el sistema adapta la profundidad de recuperación según la complejidad de la consulta. Las preguntas simples obtienen una búsqueda rápida por palabras clave; las complejas activan RAG híbrido completo con investigación profunda.

¿Qué son los comportamientos emergentes?

Los comportamientos emergentes son capacidades que los agentes desarrollan en tiempo de ejecución en lugar de ser programadas explícitamente. AgentOS soporta cinco formas: (1) Forja de herramientas en runtime — los agentes crean nuevas herramientas al vuelo vía forge_tool. El EmergentCapabilityEngine usa ejecución JavaScript en sandbox y evaluación LLM-as-judge para crear, probar y promover herramientas de forma segura. (2) Personalidad auto-mejorada — los agentes adaptan sus rasgos de personalidad HEXACO dentro de límites mediante adapt_personality. Las mutaciones persisten con decaimiento de Ebbinghaus — las adaptaciones fuertes y repetidas perduran, mientras que las débiles se desvanecen naturalmente. (3) Gestión dinámica de skills — los agentes habilitan o deshabilitan skills en tiempo de ejecución vía manage_skills, adaptando su repertorio conductual a la tarea en cuestión. (4) Creación de workflows componibles — los agentes componen herramientas registradas en pipelines de varios pasos vía create_workflow, construyendo nuevas capacidades a partir de bloques existentes. (5) Promoción por niveles de herramientas — las herramientas forjadas progresan por niveles de sesión, agente y compartido. Las herramientas que demuestran ser confiables (5+ usos exitosos, puntuación de confianza >0,8) se promueven automáticamente para reutilización entre agentes.

¿Puedo usar un LLM como juez en lugar de un humano?

Sí. AgentOS ofrece dos mecanismos complementarios de LLM-as-judge. A nivel de agency, hitl.llmJudge() crea un handler de aprobación que delega las decisiones a un LLM. Evalúa cada ApprovalRequest contra criterios configurables y devuelve una decisión estructurada con puntuación de confianza. Cuando la confianza cae por debajo del umbral, la decisión escala a un handler de fallback (otro hitl handler o un humano). A nivel de graph, el builder humanNode() acepta una opción judge que delega la decisión de interrupción a un LLM. Si el juez tiene confianza, el graph continúa sin suspensión. Si la confianza es baja, la ejecución cae a una interrupción humana normal. Ambos enfoques soportan model, provider, criteria y confidence threshold configurables.

¿Pueden los guardrails anular las aprobaciones HITL?

Sí. Cuando hitl.guardrailOverride está habilitado, los guardrails se ejecutan después de una decisión de aprobación y pueden bloquear acciones destructivas o sensibles. Esto añade una segunda capa de seguridad después de la auto-aprobación, la aprobación humana o hitl.llmJudge(). Los guardrails post-aprobación predeterminados incluyen code-safety y pii-redaction, y puedes configurar la lista con hitl.postApprovalGuardrails. Deshabilita el override solo si quieres explícitamente que el handler de aprobación tenga la última palabra.

Primeros Pasos

¿Cómo instalo AgentOS?

Instala vía npm: npm install @framers/agentos. AgentOS requiere Node.js 18 o superior. Para las herramientas CLI, instala el paquete complementario: npm install -g wunderland.

npm install @framers/agentos
¿Cómo creo mi primer agente?

Import the agent function and configure it with a provider, instructions, and optional personality traits:

import { agent } from '@framers/agentos'

const myAgent = agent({
  provider: 'openai',
  instructions: 'You are a helpful assistant.',
  personality: {
    openness: 0.8,
    conscientiousness: 0.9,
  },
  memory: { enabled: true },
})

const reply = await myAgent.send('Hello!')
console.log(reply.text)
¿Cómo agrego capacidades de voz?

AgentOS admite múltiples proveedores de STT (speech-to-text) y TTS (text-to-speech). Configura un pipeline de voz especificando proveedores STT y TTS en tu configuración de agente. Los proveedores STT compatibles incluyen Whisper (OpenAI), Deepgram y AssemblyAI. Los proveedores TTS incluyen ElevenLabs, OpenAI TTS y Google Cloud TTS. La integración telefónica está disponible para interacciones de voz en tiempo real.

¿Cómo despliego AgentOS?

AgentOS es self-hosted y se ejecuta en cualquier lugar donde corra Node.js. Despliega en tu propia infraestructura con Docker, en proveedores cloud como AWS, GCP o Azure, o usa plataformas como Vercel, Railway o Fly.io. El runtime usa SQLite por defecto para configuración cero, con migración opcional a Postgres, pgvector, Qdrant o Neo4j para escala de producción.

¿AgentOS funciona offline?

Sí. AgentOS funciona completamente offline cuando se combina con Ollama para inferencia LLM local. Ollama proporciona acceso a modelos de pesos abiertos como Llama, Mistral y Phi localmente. El backend de almacenamiento SQLite y el vector store en memoria no requieren servicios externos. La CLI detecta automáticamente Ollama y configura el agente para usarlo.

Empresarial

¿AgentOS está listo para producción?

Sí. AgentOS te permite controlar con precisión cuánta libertad tienen tus agentes — desde totalmente abiertos hasta completamente bloqueados. Bloquea ataques de prompt injection, redacta datos personales, modera contenido en tiempo real, requiere aprobación para llamadas a herramientas sensibles, aplica límites de presupuesto e incluye interruptores y rate limiting.

¿Qué estándares de cumplimiento aborda AgentOS?

AgentOS está diseñado teniendo en cuenta la preparación para GDPR — los guardrails de redacción de PII pueden eliminar datos personales antes de que lleguen a los proveedores de LLM. Todos los datos permanecen en tu infraestructura cuando se aloja localmente. La documentación de cumplimiento SOC 2 está planificada. El sistema de memoria admite eliminación y exportación de datos para solicitudes de derecho de acceso.

¿Hay soporte empresarial disponible?

Sí. Para despliegues de producción, licenciamiento empresarial, soporte dedicado e integraciones personalizadas, contacta al equipo en [email protected]. El soporte empresarial incluye resolución prioritaria de issues, consultoría de arquitectura y asistencia en el despliegue.

[email protected]

¿Puedo usar AgentOS con mi propia infraestructura?

Absolutamente. AgentOS está diseñado para ser self-hosted desde el principio. Para despliegues self-hosted, tus datos permanecen en tu infraestructura con SQLite, Postgres, pgvector, Qdrant o Neo4j. Si prefieres una base de datos vectorial gestionada por un proveedor, Pinecone también es compatible. Se proporcionan configuraciones de Docker Compose para los backends self-hosted.

Referencias Académicas

Los sistemas de memoria cognitiva y personalidad de AgentOS están fundamentados en investigación peer-reviewed.

  • Ebbinghaus, H. (1885)

    Memory: A Contribution to Experimental Psychology.

    El estudio fundacional que estableció la curva del olvido. AgentOS usa funciones de decaimiento de Ebbinghaus para la consolidación automática de memoria.

    View source
  • Baddeley, A. D. (2000)

    The episodic buffer: a new component of working memory?

    Introdujo el modelo de 4 componentes de la memoria de trabajo. La memoria de trabajo de AgentOS se modela sobre esta arquitectura.

    View source
  • Ashton, M. C., & Lee, K. (2004)

    Empirical, theoretical, and practical advantages of the HEXACO model of personality structure.

    El modelo HEXACO proporciona las 6 dimensiones de personalidad usadas en la identidad de los agentes AgentOS.

    View source
  • Blondel, V. D., Guillaume, J.-L., Lambiotte, R., & Lefebvre, E. (2008)

    Fast unfolding of communities in large networks.

    El algoritmo Louvain se usa en el GraphRAG de AgentOS para detección de comunidades en grafos de conocimiento.

    View source
  • Malkov, Y. A., & Yashunin, D. A. (2018)

    Efficient and robust approximate nearest neighbor search using Hierarchical Navigable Small World graphs.

    HNSW es uno de los 7 backends de vector store que AgentOS soporta para búsqueda eficiente por similitud.

    View source
  • Nader, K., Schafe, G. E., & LeDoux, J. E. (2000)

    Fear memories require protein synthesis in the amygdala for reconsolidation after retrieval.

    Base para el mecanismo de reconsolidación de memoria — las memorias se reescriben cada vez que se recuerdan.

    View source
  • Anderson, M. C., Bjork, R. A., & Bjork, E. L. (1994)

    Remembering can cause forgetting: Retrieval dynamics in long-term memory.

    Base para el olvido inducido por recuperación — recuperar una memoria suprime memorias relacionadas competidoras.

    View source
  • Berntsen, D. (2010)

    The unbidden past: Involuntary autobiographical memories as a basic mode of remembering.

    Base para el recuerdo involuntario — las pistas contextuales activan la activación espontánea de la memoria.

    View source

Ver también