Geral
Perguntas Frequentes
Tudo o que você precisa saber sobre AgentOS — da primeira instalação à implantação em produção.
Geral
O que é AgentOS?
AgentOS é um runtime TypeScript open-source para construir agentes de IA em produção, desenvolvido pela Manic Agency LLC (manic.agency) e Frame.dev. Oferece orquestração multi-agente, memória cognitiva, RAG multimodal, guardrails de segurança integrados (redação de PII, defesa contra prompt injection, moderação de conteúdo), pipelines de voz, 37 adaptadores de canal e 21 integrações de provedores de LLM. AgentOS também alimenta os sistemas de IA por trás do Wilds.ai, uma plataforma de jogos AI-native. Self-hostable e gratuito.
AgentOS é gratuito e open source?
Sim. O runtime principal é licenciado sob Apache 2.0. Presets de agentes, extensões e guardrails são licenciados sob MIT. Você pode usar AgentOS comercialmente, modificá-lo e redistribuí-lo conforme os termos dessas licenças.
Quais provedores de LLM são suportados?
AgentOS suporta 21 provedores de LLM, incluindo OpenAI, Anthropic, Google Gemini, Mistral, Cohere, Ollama, OpenRouter, Together AI, Fireworks AI, Groq, Perplexity, DeepSeek, xAI (Grok), Replicate, Anyscale, AI21 Labs, Aleph Alpha, AWS Bedrock, Azure OpenAI, Cloudflare Workers AI e HuggingFace Inference. Cadeias de fallback de provedor permitem failover automático.
Em que linguagem de programação AgentOS é construído?
AgentOS é escrito inteiramente em TypeScript e roda em Node.js. O pacote npm é @framers/agentos. Funciona com qualquer projeto TypeScript ou JavaScript.
Como AgentOS é diferente de LangChain, CrewAI ou AutoGen?
AgentOS é nativo em TypeScript (não Python), inclui memória cognitiva com curvas de decaimento de Ebbinghaus e modelagem de personalidade HEXACO, oferece 5 níveis de segurança em vez de filtragem básica de prompts, fornece 37 adaptadores de canal integrados (Discord, Telegram, Slack, e-mail e mais) e suporta 6 estratégias de orquestração, incluindo DAGs de agentes baseados em grafo. Também inclui 88 skills curadas e um motor de descoberta de capacidades que reduz o uso de tokens em cerca de 90%.
faq.general.whatIsParacosm.question
faq.general.whatIsParacosm.answer
faq.general.whatIsWildsAi.question
faq.general.whatIsWildsAi.answer
faq.general.whatIsWunderland.question
faq.general.whatIsWunderland.answer
Técnico
O que é uma GMI?
GMI significa General Machine Intelligence — é o núcleo cognitivo de cada agente AgentOS. Uma GMI encapsula os traços de personalidade do agente (via HEXACO), sistemas de memória, acesso a ferramentas, configuração de guardrails e estilo de comunicação em uma identidade persistente única. GMIs mantêm estado entre sessões e adaptam seu comportamento com base na experiência acumulada.
O que é a personalidade HEXACO?
HEXACO é um modelo de personalidade de 6 fatores oriundo da pesquisa em psicologia (Ashton & Lee, 2004). As seis dimensões são Honestidade-Humildade, Emocionalidade, Extroversão, Amabilidade, Conscienciosidade e Abertura à Experiência. No AgentOS, os traços HEXACO modulam como os agentes se comunicam, lembram e tomam decisões. Por exemplo, alta Abertura aumenta a reconsolidação de memória durante a recordação, enquanto alta Conscienciosidade fortalece o esquecimento induzido por recuperação de associações irrelevantes.
Como funciona a memória cognitiva?
A memória cognitiva do AgentOS implementa 8 mecanismos da pesquisa em ciência cognitiva: reconsolidação, esquecimento induzido por recuperação, recordação involuntária, sensação de saber, extração de gist temporal, codificação de esquemas, decaimento de confiança da fonte e regulação emocional. As memórias decaem ao longo do tempo seguindo as curvas de esquecimento de Ebbinghaus (Ebbinghaus, 1885), com repetição espaçada e consolidação para preservar informações importantes. A memória de trabalho segue o modelo multicomponente de Baddeley (Baddeley, 2000) com um scratchpad volátil para o turno atual que se consolida nas camadas de memória episódica, semântica e observacional.
Quais guardrails estão disponíveis?
AgentOS oferece 5 níveis de segurança (dangerous, permissive, balanced, strict, paranoid) e 6 tipos de extensão de guardrail: redação de PII (nomes, e-mails, telefones, SSNs), classificadores de ML para detecção de prompt injection, análise de segurança de código, verificação de grounding contra documentos-fonte, aplicação de topicalidade para manter agentes na tarefa e filtragem de política de conteúdo para saídas nocivas ou inadequadas.
O que é o sistema de descoberta de capacidades?
O motor de descoberta de capacidades substitui despejos estáticos de ferramentas e skills por busca semântica em 3 camadas, reduzindo o uso de tokens em cerca de 90%. A camada 0 fornece resumos de categoria em cerca de 150 tokens (sempre incluídos). A camada 1 retorna os 5 principais matches semânticos em cerca de 200 tokens. A camada 2 entrega esquemas completos em cerca de 1.500 tokens, carregados sob demanda. Uma meta-ferramenta chamada discover_capabilities permite que agentes descubram ferramentas disponíveis em tempo de execução.
Como o QueryRouter funciona?
O QueryRouter classifica consultas recebidas em 4 camadas: T0 (resposta direta a partir do contexto), T1 (invocação de ferramenta única), T2 (plano de múltiplas etapas que requer um motor de planejamento) e T3 (delegação multi-agente que requer orquestração). Essa classificação determina a estratégia de execução e a alocação de recursos para cada solicitação.
O que é inteligência adaptativa?
A inteligência adaptativa é como os agentes AgentOS melhoram continuamente seu comportamento sem retreinamento. Cinco mecanismos trabalham juntos: (1) Adaptação meta-reflexiva de prompts — o PromptBuilder monta um system prompt diferente a cada turno, incorporando dinamicamente traços de personalidade, estado de humor, histórico de conversa, memórias recuperadas e ferramentas disponíveis. (2) Auto-avaliação da qualidade de resposta — a ferramenta self_evaluate pontua a própria saída do agente e ajusta parâmetros como temperatura, verbosidade e expressão de personalidade em tempo real. (3) Cognição modulada por personalidade — traços HEXACO moldam como o agente processa informações. Alta abertura aumenta associações criativas durante a recuperação de memória; alta conscienciosidade fortalece o esquecimento induzido por recuperação de dados irrelevantes. (4) Consolidação autônoma de memória — o ConsolidationLoop poda memórias fracas, fortalece as frequentemente acessadas e deriva novos insights de clusters de memória, então o conhecimento do agente melhora ao longo do tempo sem treinamento explícito. (5) Classificação em camadas do QueryRouter — o sistema adapta a profundidade de recuperação com base na complexidade da consulta. Perguntas simples obtêm busca rápida por palavras-chave; perguntas complexas acionam RAG híbrido completo com pesquisa profunda.
O que são comportamentos emergentes?
Comportamentos emergentes são capacidades que os agentes desenvolvem em tempo de execução, em vez de serem programadas explicitamente. AgentOS suporta cinco formas: (1) Forja de ferramentas em runtime — agentes criam novas ferramentas em tempo real via forge_tool. O EmergentCapabilityEngine usa execução JavaScript em sandbox e avaliação LLM-as-judge para criar, testar e promover ferramentas com segurança. (2) Personalidade auto-melhorada — agentes adaptam seus traços de personalidade HEXACO dentro de limites por meio de adapt_personality. Mutações persistem com decaimento de Ebbinghaus — adaptações fortes e repetidas se fixam, enquanto fracas desaparecem naturalmente. (3) Gerenciamento dinâmico de skills — agentes habilitam ou desabilitam skills em tempo de execução via manage_skills, adaptando seu repertório comportamental à tarefa em mãos. (4) Criação de workflows compostos — agentes compõem ferramentas registradas em pipelines de múltiplas etapas via create_workflow, construindo novas capacidades a partir de blocos existentes. (5) Promoção em camadas de ferramentas — ferramentas forjadas progridem por camadas de sessão, agente e compartilhada. Ferramentas que se mostram confiáveis (5+ usos bem-sucedidos, score de confiança >0,8) são auto-promovidas para reuso entre agentes.
Posso usar um LLM como juiz em vez de um humano?
Sim. AgentOS oferece dois mecanismos complementares de LLM-as-judge. No nível de agency, hitl.llmJudge() cria um handler de aprovação que delega decisões a um LLM. Ele avalia cada ApprovalRequest contra critérios configuráveis e retorna uma decisão estruturada com pontuação de confiança. Quando a confiança fica abaixo do limiar, a decisão escala para um handler de fallback (outro hitl handler ou um humano). No nível do graph, o builder humanNode() aceita uma opção judge que delega a decisão de interrupt a um LLM. Se o juiz estiver confiante, o graph continua sem suspensão. Se a confiança for baixa, a execução cai em um interrupt humano normal. Ambas as abordagens suportam model, provider, criteria e confidence threshold configuráveis.
Guardrails podem sobrescrever aprovações HITL?
Sim. Quando hitl.guardrailOverride está habilitado, os guardrails são executados após uma decisão de aprovação e ainda podem bloquear ações destrutivas ou sensíveis. Isso adiciona uma segunda camada de segurança após auto-aprovação, aprovação humana ou hitl.llmJudge(). Os guardrails padrão pós-aprovação incluem code-safety e pii-redaction, e você pode configurar a lista com hitl.postApprovalGuardrails. Desabilite o override apenas se você explicitamente quiser que o handler de aprovação tenha a palavra final.
Primeiros Passos
Como instalo o AgentOS?
Instale via npm: npm install @framers/agentos. AgentOS requer Node.js 18 ou superior. Para as ferramentas de CLI, instale o pacote complementar: npm install -g wunderland.
Como crio meu primeiro agente?
Import the agent function and configure it with a provider, instructions, and optional personality traits:
import { agent } from '@framers/agentos'
const myAgent = agent({
provider: 'openai',
instructions: 'You are a helpful assistant.',
personality: {
openness: 0.8,
conscientiousness: 0.9,
},
memory: { enabled: true },
})
const reply = await myAgent.send('Hello!')
console.log(reply.text)Como adiciono capacidades de voz?
AgentOS suporta múltiplos provedores de STT (speech-to-text) e TTS (text-to-speech). Configure um pipeline de voz especificando provedores de STT e TTS na sua configuração de agente. Provedores de STT suportados incluem Whisper (OpenAI), Deepgram e AssemblyAI. Provedores de TTS incluem ElevenLabs, OpenAI TTS e Google Cloud TTS. Integração de telefonia está disponível para interações de voz em tempo real.
Como faço deploy do AgentOS?
AgentOS é self-hostable e roda em qualquer lugar onde Node.js roda. Faça deploy em sua própria infraestrutura com Docker, em provedores de cloud como AWS, GCP ou Azure, ou use plataformas como Vercel, Railway ou Fly.io. O runtime usa SQLite por padrão para configuração zero, com migração opcional para Postgres, pgvector, Qdrant ou Neo4j para escala de produção.
AgentOS funciona offline?
Sim. AgentOS funciona totalmente offline quando combinado com Ollama para inferência de LLM local. Ollama fornece acesso a modelos de pesos abertos como Llama, Mistral e Phi localmente. O backend de armazenamento SQLite e o vector store em memória não requerem serviços externos. A CLI detecta automaticamente o Ollama e configura o agente para usá-lo.
Empresarial
AgentOS está pronto para produção?
Sim. AgentOS permite controlar exatamente quanta liberdade seus agentes têm — desde totalmente abertos até completamente bloqueados. Bloqueia ataques de prompt injection, redige dados pessoais, modera conteúdo em tempo real, exige aprovação para chamadas de ferramentas sensíveis, aplica limites de orçamento e inclui disjuntores e rate limiting.
Quais padrões de compliance o AgentOS aborda?
AgentOS é projetado com prontidão para GDPR em mente — guardrails de redação de PII podem remover dados pessoais antes que cheguem aos provedores de LLM. Todos os dados permanecem em sua infraestrutura quando self-hosted. Documentação de compliance SOC 2 está planejada. O sistema de memória suporta exclusão e exportação de dados para solicitações de direito de acesso.
Existe suporte empresarial disponível?
Sim. Para deployments de produção, licenciamento empresarial, suporte dedicado e integrações personalizadas, entre em contato com a equipe em [email protected]. O suporte empresarial inclui resolução prioritária de issues, consultoria de arquitetura e assistência de deployment.
Posso usar AgentOS com minha própria infraestrutura?
Absolutamente. AgentOS é projetado para ser self-hosted desde o início. Para deployments self-hosted, seus dados permanecem em sua infraestrutura com SQLite, Postgres, pgvector, Qdrant ou Neo4j. Se preferir um banco vetorial gerenciado por vendor, Pinecone também é suportado. Configurações Docker Compose são fornecidas para os backends self-hosted.
Referências Acadêmicas
Os sistemas de memória cognitiva e personalidade do AgentOS são fundamentados em pesquisa peer-reviewed.
Ebbinghaus, H. (1885)
Memory: A Contribution to Experimental Psychology.
O estudo fundacional que estabeleceu a curva do esquecimento. AgentOS usa funções de decaimento de Ebbinghaus para consolidação automática de memória.
View sourceBaddeley, A. D. (2000)
The episodic buffer: a new component of working memory?
Introduziu o modelo de 4 componentes da memória de trabalho. A memória de trabalho do AgentOS é modelada com base nesta arquitetura.
View sourceAshton, M. C., & Lee, K. (2004)
Empirical, theoretical, and practical advantages of the HEXACO model of personality structure.
O modelo HEXACO fornece as 6 dimensões de personalidade usadas na identidade dos agentes AgentOS.
View sourceBlondel, V. D., Guillaume, J.-L., Lambiotte, R., & Lefebvre, E. (2008)
Fast unfolding of communities in large networks.
O algoritmo Louvain é usado no GraphRAG do AgentOS para detecção de comunidades em grafos de conhecimento.
View sourceMalkov, Y. A., & Yashunin, D. A. (2018)
Efficient and robust approximate nearest neighbor search using Hierarchical Navigable Small World graphs.
HNSW é um dos 7 backends de vector store suportados pelo AgentOS para busca eficiente por similaridade.
View sourceNader, K., Schafe, G. E., & LeDoux, J. E. (2000)
Fear memories require protein synthesis in the amygdala for reconsolidation after retrieval.
Base para o mecanismo de reconsolidação de memória — memórias são reescritas a cada vez que são lembradas.
View sourceAnderson, M. C., Bjork, R. A., & Bjork, E. L. (1994)
Remembering can cause forgetting: Retrieval dynamics in long-term memory.
Base para o esquecimento induzido por recuperação — recuperar uma memória suprime memórias relacionadas competidoras.
View sourceBerntsen, D. (2010)
The unbidden past: Involuntary autobiographical memories as a basic mode of remembering.
Base para a recordação involuntária — pistas contextuais disparam ativação espontânea de memória.
View source