Skip to content

Allgemein

Häufig gestellte Fragen

Alles, was du über AgentOS wissen musst — von der ersten Installation bis zur Produktionsbereitstellung.

Wilds AI
Join the Wilds AI Discord
Official community for AgentOS and Paracosm support, developer onboarding, and questions.

Allgemein

Was ist AgentOS?

AgentOS ist eine Open-Source-TypeScript-Runtime zum Bauen produktiver KI-Agenten, entwickelt von Manic Agency LLC (manic.agency) und Frame.dev. Sie bietet Multi-Agenten-Orchestrierung, kognitives Gedächtnis, multimodales RAG, integrierte Sicherheits-Guardrails (PII-Redaktion, Prompt-Injection-Abwehr, Content-Moderation), Sprach-Pipelines, 37 Kanal-Adapter und 21 LLM-Anbieter-Integrationen. AgentOS treibt zudem die KI-Systeme hinter Wilds.ai an, einer KI-nativen Gaming-Plattform. Selbst-hostbar und kostenlos.

Ist AgentOS kostenlos und Open Source?

Ja. Die Kern-Runtime steht unter Apache 2.0. Agent-Presets, Erweiterungen und Guardrails stehen unter MIT-Lizenz. Du darfst AgentOS kommerziell nutzen, modifizieren und unter diesen Lizenzbedingungen weitergeben.

Welche LLM-Anbieter werden unterstützt?

AgentOS unterstützt 21 LLM-Anbieter, darunter OpenAI, Anthropic, Google Gemini, Mistral, Cohere, Ollama, OpenRouter, Together AI, Fireworks AI, Groq, Perplexity, DeepSeek, xAI (Grok), Replicate, Anyscale, AI21 Labs, Aleph Alpha, AWS Bedrock, Azure OpenAI, Cloudflare Workers AI und HuggingFace Inference. Provider-Fallback-Ketten ermöglichen automatisches Failover.

In welcher Programmiersprache ist AgentOS geschrieben?

AgentOS ist vollständig in TypeScript geschrieben und läuft auf Node.js. Das npm-Paket heißt @framers/agentos. Es funktioniert mit jedem TypeScript- oder JavaScript-Projekt.

Wie unterscheidet sich AgentOS von LangChain, CrewAI oder AutoGen?

AgentOS ist TypeScript-nativ (nicht Python), enthält kognitives Gedächtnis mit Ebbinghaus-Vergessenskurven und HEXACO-Persönlichkeitsmodellierung, bietet 5 Sicherheitsstufen statt nur einfacher Prompt-Filterung, stellt 37 integrierte Kanal-Adapter bereit (Discord, Telegram, Slack, E-Mail und mehr) und unterstützt 6 Orchestrierungsstrategien einschließlich graphbasierter Agenten-DAGs. Außerdem werden 88 kuratierte Skills und eine Capability-Discovery-Engine mitgeliefert, die den Token-Verbrauch um etwa 90% reduziert.

faq.general.whatIsParacosm.question

faq.general.whatIsParacosm.answer

faq.general.whatIsWildsAi.question

faq.general.whatIsWildsAi.answer

Technisch

Was ist ein GMI?

GMI steht für General Machine Intelligence — der kognitive Kern jedes AgentOS-Agents. Ein GMI bündelt die Persönlichkeitsmerkmale des Agents (via HEXACO), Gedächtnissysteme, Tool-Zugriff, Guardrail-Konfiguration und Kommunikationsstil in einer persistenten Identität. GMIs behalten ihren Zustand sitzungsübergreifend und passen ihr Verhalten basierend auf gesammelten Erfahrungen an.

Was ist die HEXACO-Persönlichkeit?

HEXACO ist ein 6-Faktoren-Persönlichkeitsmodell aus der Psychologieforschung (Ashton & Lee, 2004). Die sechs Dimensionen sind Ehrlichkeit-Bescheidenheit, Emotionalität, Extraversion, Verträglichkeit, Gewissenhaftigkeit und Offenheit für Erfahrungen. In AgentOS modulieren HEXACO-Merkmale, wie Agenten kommunizieren, sich erinnern und Entscheidungen treffen. Beispielsweise erhöht eine hohe Offenheit die Gedächtnis-Rekonsolidierung beim Abruf, während hohe Gewissenhaftigkeit das abrufbedingte Vergessen irrelevanter Assoziationen verstärkt.

Wie funktioniert das kognitive Gedächtnis?

Das kognitive Gedächtnis von AgentOS implementiert 8 Mechanismen aus der kognitionswissenschaftlichen Forschung: Rekonsolidierung, abrufbedingtes Vergessen, unwillkürliche Erinnerung, Feeling-of-Knowing, temporale Gist-Extraktion, Schema-Kodierung, Quellenvertrauens-Verfall und Emotionsregulation. Erinnerungen verblassen über die Zeit gemäß den Ebbinghaus-Vergessenskurven (Ebbinghaus, 1885), wobei verteilte Wiederholung und Konsolidierung wichtige Informationen erhalten. Das Arbeitsgedächtnis folgt Baddeleys Multikomponentenmodell (Baddeley, 2000) mit einem flüchtigen Scratchpad für den aktuellen Turn, der sich nach oben in episodische, semantische und beobachtende Gedächtnisebenen konsolidiert.

Welche Guardrails sind verfügbar?

AgentOS bietet 5 Sicherheitsstufen (dangerous, permissive, balanced, strict, paranoid) und 6 Guardrail-Erweiterungstypen: PII-Redaktion (Namen, E-Mails, Telefonnummern, SSNs), ML-Klassifikatoren zur Erkennung von Prompt-Injection, Code-Sicherheitsanalyse, Grounding-Überprüfung gegen Quelldokumente, Topikalitätsdurchsetzung, um Agenten beim Thema zu halten, sowie Content-Policy-Filterung für schädliche oder unangemessene Ausgaben.

Was ist das Capability-Discovery-System?

Die Capability-Discovery-Engine ersetzt statische Tool- und Skill-Dumps durch eine 3-Tier-Semantiksuche und reduziert den Token-Verbrauch um etwa 90%. Tier 0 liefert Kategorie-Zusammenfassungen in ca. 150 Tokens (immer enthalten). Tier 1 gibt die Top-5 semantischen Treffer in ca. 200 Tokens zurück. Tier 2 stellt vollständige Schemas in ca. 1.500 Tokens bereit, geladen on-demand. Ein Meta-Tool namens discover_capabilities erlaubt Agenten, verfügbare Werkzeuge zur Laufzeit selbst zu entdecken.

Wie funktioniert der QueryRouter?

Der QueryRouter klassifiziert eingehende Anfragen in 4 Stufen: T0 (direkte Antwort aus dem Kontext), T1 (Aufruf eines einzelnen Tools), T2 (Mehrschrittplan, der eine Planungs-Engine benötigt) und T3 (Multi-Agenten-Delegation mit Orchestrierung). Diese Klassifikation bestimmt Ausführungsstrategie und Ressourcenzuteilung pro Anfrage.

Was ist adaptive Intelligenz?

Adaptive Intelligenz ist die Art und Weise, wie AgentOS-Agenten ihr Verhalten kontinuierlich verbessern, ohne neu trainiert werden zu müssen. Fünf Mechanismen arbeiten zusammen: (1) Meta-reflektive Prompt-Anpassung — der PromptBuilder stellt für jeden Turn einen neuen System-Prompt zusammen und integriert dynamisch Persönlichkeitsmerkmale, Stimmungszustand, Konversationsverlauf, abgerufene Erinnerungen und verfügbare Tools. (2) Selbst-Evaluierung der Antwortqualität — das self_evaluate-Tool bewertet die eigene Ausgabe des Agents und passt Parameter wie Temperatur, Verbosität und Persönlichkeitsausdruck in Echtzeit an. (3) Persönlichkeitsmodulierte Kognition — HEXACO-Merkmale prägen, wie der Agent Informationen verarbeitet. Hohe Offenheit erhöht kreative Assoziationen beim Memory-Retrieval; hohe Gewissenhaftigkeit verstärkt das abrufbedingte Vergessen irrelevanter Daten. (4) Autonome Memory-Konsolidierung — die ConsolidationLoop schneidet schwache Erinnerungen weg, stärkt häufig abgerufene und leitet neue Einsichten aus Memory-Clustern ab, sodass sich das Wissen des Agents über die Zeit ohne explizites Training verbessert. (5) QueryRouter-Tier-Klassifikation — das System passt die Retrieval-Tiefe an die Anfragekomplexität an. Einfache Fragen erhalten schnelle Keyword-Lookup; komplexe Fragen triggern vollständiges hybrides RAG mit Deep-Research.

Was sind emergente Verhaltensweisen?

Emergente Verhaltensweisen sind Fähigkeiten, die Agenten zur Laufzeit entwickeln, statt explizit programmiert zu werden. AgentOS unterstützt fünf Formen: (1) Runtime-Tool-Forging — Agenten erstellen neue Werkzeuge spontan via forge_tool. Die EmergentCapabilityEngine nutzt sandboxed JavaScript-Ausführung und LLM-as-judge-Bewertung, um Tools sicher zu erstellen, zu testen und zu promoten. (2) Selbstverbessernde Persönlichkeit — Agenten passen ihre HEXACO-Persönlichkeitsmerkmale innerhalb begrenzter Grenzen via adapt_personality an. Mutationen bleiben mit Ebbinghaus-Vergessen bestehen — starke wiederholte Anpassungen halten, schwache verblassen natürlich. (3) Dynamisches Skill-Management — Agenten aktivieren oder deaktivieren Skills zur Laufzeit via manage_skills und passen so ihr Verhaltensrepertoire an die jeweilige Aufgabe an. (4) Komponierbare Workflow-Erstellung — Agenten setzen registrierte Tools via create_workflow zu mehrstufigen Pipelines zusammen und bauen neue Fähigkeiten aus existierenden Bausteinen. (5) Tier-basierte Tool-Beförderung — geforged Tools durchlaufen Session-, Agent- und Shared-Tiers. Werkzeuge, die sich als zuverlässig erweisen (5+ erfolgreiche Verwendungen, Confidence-Score >0,8), werden automatisch für agent-übergreifende Wiederverwendung befördert.

Kann ich ein LLM statt eines Menschen als Richter einsetzen?

Ja. AgentOS bietet zwei sich ergänzende LLM-as-judge-Mechanismen. Auf Agency-Ebene erstellt hitl.llmJudge() einen Approval-Handler, der Entscheidungen an ein LLM delegiert. Er bewertet jede ApprovalRequest gegen konfigurierbare Kriterien und liefert eine strukturierte Entscheidung mit Confidence-Score. Fällt die Confidence unter den Schwellenwert, wird die Entscheidung an einen Fallback-Handler eskaliert (ein anderer hitl-Handler oder ein Mensch). Auf Graph-Ebene akzeptiert der humanNode()-Builder eine judge-Option, die die Interrupt-Entscheidung an ein LLM delegiert. Ist der Richter zuversichtlich, läuft der Graph ohne Suspendierung weiter. Bei niedriger Confidence fällt die Ausführung auf einen normalen Human-Interrupt zurück. Beide Ansätze unterstützen konfigurierbares model, provider, criteria und confidence threshold.

Können Guardrails HITL-Genehmigungen außer Kraft setzen?

Ja. Wenn hitl.guardrailOverride aktiviert ist, werden Guardrails nach einer Approval-Entscheidung ausgeführt und können destruktive oder sensible Aktionen weiterhin blockieren. Dies fügt eine zweite Sicherheitsebene nach Auto-Approval, menschlicher Genehmigung oder hitl.llmJudge() hinzu. Die Standard-Post-Approval-Guardrails sind code-safety und pii-redaction, die Liste lässt sich mit hitl.postApprovalGuardrails konfigurieren. Deaktiviere das Override nur, wenn du explizit möchtest, dass der Approval-Handler das letzte Wort hat.

Erste Schritte

Wie installiere ich AgentOS?

Installation über npm: npm install @framers/agentos. AgentOS benötigt Node.js 18 oder höher. Für CLI-Werkzeuge installiere das Begleitpaket: npm install -g wunderland.

npm install @framers/agentos
Wie erstelle ich meinen ersten Agenten?

Import the agent function and configure it with a provider, instructions, and optional personality traits:

import { agent } from '@framers/agentos'

const myAgent = agent({
  provider: 'openai',
  instructions: 'You are a helpful assistant.',
  personality: {
    openness: 0.8,
    conscientiousness: 0.9,
  },
  memory: { enabled: true },
})

const reply = await myAgent.send('Hello!')
console.log(reply.text)
Wie füge ich Sprachfunktionen hinzu?

AgentOS unterstützt mehrere STT- (Speech-to-Text) und TTS- (Text-to-Speech) Anbieter. Konfiguriere eine Sprach-Pipeline, indem du STT- und TTS-Anbieter in der Agent-Konfiguration angibst. Unterstützte STT-Anbieter sind Whisper (OpenAI), Deepgram und AssemblyAI. TTS-Anbieter umfassen ElevenLabs, OpenAI TTS und Google Cloud TTS. Telefonie-Integration ist für Echtzeit-Sprachinteraktionen verfügbar.

Wie stelle ich AgentOS bereit?

AgentOS ist selbst-hostbar und läuft überall, wo Node.js läuft. Deploye auf eigener Infrastruktur mit Docker, bei Cloud-Anbietern wie AWS, GCP oder Azure oder nutze Plattformen wie Vercel, Railway oder Fly.io. Das Runtime verwendet standardmäßig SQLite für Zero-Config-Setup, mit optionaler Migration zu Postgres, pgvector, Qdrant oder Neo4j für Produktions-Skala.

Funktioniert AgentOS offline?

Ja. AgentOS funktioniert vollständig offline in Kombination mit Ollama für lokale LLM-Inferenz. Ollama bietet lokalen Zugriff auf Open-Weight-Modelle wie Llama, Mistral und Phi. Das SQLite-Storage-Backend und der In-Memory-Vector-Store benötigen keine externen Dienste. Die CLI erkennt Ollama automatisch und konfiguriert den Agenten entsprechend.

Unternehmen

Ist AgentOS produktionsreif?

Ja. AgentOS lässt dich exakt steuern, wie viel Freiheit deine Agenten haben — von ganz offen bis vollständig gesperrt. Es blockiert Prompt-Injection-Angriffe, redigiert personenbezogene Daten, moderiert Inhalte in Echtzeit, verlangt Genehmigung für sensible Tool-Calls, erzwingt Budget-Limits und enthält Schutzschalter und Rate Limiting.

Welche Compliance-Standards adressiert AgentOS?

AgentOS ist mit Blick auf DSGVO-Konformität konzipiert — PII-Redaktions-Guardrails können personenbezogene Daten entfernen, bevor sie LLM-Anbieter erreichen. Alle Daten bleiben bei Self-Hosting auf der eigenen Infrastruktur. SOC-2-Compliance-Dokumentation ist geplant. Das Memory-System unterstützt Datenlöschung und -export für Auskunftsersuchen.

Ist Enterprise-Support verfügbar?

Ja. Für Produktions-Deployments, Enterprise-Lizenzierung, dedizierten Support und maßgeschneiderte Integrationen kontaktiere das Team unter [email protected]. Enterprise-Support umfasst priorisierte Issue-Lösung, Architekturberatung und Deployment-Unterstützung.

[email protected]

Kann ich AgentOS mit meiner eigenen Infrastruktur nutzen?

Absolut. AgentOS ist von Grund auf für Self-Hosting konzipiert. Bei Self-Hosted-Deployments bleiben deine Daten auf deiner Infrastruktur mit SQLite, Postgres, pgvector, Qdrant oder Neo4j. Wenn du eine vom Anbieter gehostete Vektor-Datenbank bevorzugst, wird auch Pinecone unterstützt. Docker-Compose-Konfigurationen sind für die Self-Hosted-Backends verfügbar.

Akademische Quellen

Die kognitiven Gedächtnis- und Persönlichkeitssysteme von AgentOS basieren auf peer-reviewed Forschung.

  • Ebbinghaus, H. (1885)

    Memory: A Contribution to Experimental Psychology.

    Die grundlegende Studie zur Vergessenskurve. AgentOS nutzt Ebbinghaus-Vergessensfunktionen für die automatische Memory-Konsolidierung.

    View source
  • Baddeley, A. D. (2000)

    The episodic buffer: a new component of working memory?

    Führte das Vier-Komponenten-Modell des Arbeitsgedächtnisses ein. AgentOS modelliert sein Arbeitsgedächtnis auf dieser Architektur.

    View source
  • Ashton, M. C., & Lee, K. (2004)

    Empirical, theoretical, and practical advantages of the HEXACO model of personality structure.

    Das HEXACO-Modell liefert die 6 Persönlichkeitsdimensionen, die in der Identität von AgentOS-Agenten verwendet werden.

    View source
  • Blondel, V. D., Guillaume, J.-L., Lambiotte, R., & Lefebvre, E. (2008)

    Fast unfolding of communities in large networks.

    Der Louvain-Algorithmus wird im GraphRAG von AgentOS für die Community-Erkennung in Wissensgraphen verwendet.

    View source
  • Malkov, Y. A., & Yashunin, D. A. (2018)

    Efficient and robust approximate nearest neighbor search using Hierarchical Navigable Small World graphs.

    HNSW ist eines von 7 Vector-Store-Backends, die AgentOS für effiziente Ähnlichkeitssuche unterstützt.

    View source
  • Nader, K., Schafe, G. E., & LeDoux, J. E. (2000)

    Fear memories require protein synthesis in the amygdala for reconsolidation after retrieval.

    Grundlage für den Memory-Rekonsolidierungsmechanismus — Erinnerungen werden bei jedem Abruf neu geschrieben.

    View source
  • Anderson, M. C., Bjork, R. A., & Bjork, E. L. (1994)

    Remembering can cause forgetting: Retrieval dynamics in long-term memory.

    Grundlage für abrufbedingtes Vergessen — der Abruf einer Erinnerung unterdrückt verwandte konkurrierende Erinnerungen.

    View source
  • Berntsen, D. (2010)

    The unbidden past: Involuntary autobiographical memories as a basic mode of remembering.

    Grundlage für unwillkürliche Erinnerung — kontextuelle Hinweise lösen spontane Memory-Aktivierung aus.

    View source

Siehe auch