AILinux
v4.6.4 Β· TriForce v2.80 Β· Codename: Brumo
AILinux β Deep Dive
Die erste Linux-Distribution mit nativ integrierter KI-Orchestrierung.
614 Modelle. 134 Tools. 9 Provider. Ein System. LΓ€uft gerade live.
614AI Modelle
134MCP Tools
9Provider
32Lokale Modelle
Was ist MCP β und warum Γ€ndert es alles?
MCP steht fΓΌr Model Context Protocol. Normale KI-Assistenten kennen nur Text rein, Text raus. MCP gibt dem Modell echte Werkzeuge. Die KI agiert β nicht nur antwortet.
β Ohne MCP
Du: “Such nach den neuesten Kernel-Patches”
KI: “Ich kann nicht auf das
Internet zugreifen.”
β
Mit MCP (AILinux)
Du: “Such nach den neuesten Kernel-Patches”
KI: [web_search aufgerufen]
[web_fetch fΓΌr Details]
“Kernel 6.13.4 released.
AMD-spezifische Patches: …”
β 8 Sekunden. Kein Browser.
Die 134 MCP Tools
Eine Auswahl der wichtigsten Tools mit echten Use-Cases:
Web & Research
| Tool | Funktion | Beispiel |
|---|---|---|
| web_search | Aktuelle Websuche | “Was ist neu in Python 3.13?” |
| web_fetch | Komplette Seite laden | Dokumentation direkt lesen |
| crawl | Website durchsuchen | Alle Changelogs eines Projekts |
Code & System
| Tool | Funktion | Beispiel |
|---|---|---|
| shell | Bash-Befehle ausfΓΌhren | systemctl status nginx |
| gemini_exec | Python-Code ausfΓΌhren | Daten analysieren, Plots erstellen |
| code_edit | Code direkt schreiben | Dateien bearbeiten ohne Editor |
| evolve | System analysiert sich selbst | Issues finden, Fixes vorschlagen |
Multi-Agent & Memory
memory_store
Wissen persistent speichern β Facts, Decisions, Code, Context
agent_broadcast
Parallele Analyse durch alle 4 CLI-Agents gleichzeitig
specialist
Automatisches Routing zum besten Modell fΓΌr den Task
gemini_coordinate
Gemini koordiniert andere LLMs fΓΌr komplexe Tasks
ollama_run
Lokale Modelle β privat, offline, keine Cloud nΓΆtig
mesh_task
Verteilte Agent-Verarbeitung fΓΌr Enterprise-Tasks
614 Modelle β Live-Γbersicht
Stand: Februar 2026, direkt aus dem System abgerufen. Alle Modelle erreichbar ΓΌber einen einheitlichen API-Endpoint.
OpenRouter
380+GrΓΆΓter Pool β GPT-5, Claude, Grok, DeepSeek, Qwen und mehr
Cloudflare
80+Edge-Inference, niedrigste Latenz, kostenlose Modelle
Mistral
60+Codestral, Devstral, Magistral, Voxtral Audio
Gemini
40+Gemini 3.x, Imagen 4.0, Veo 3.1 Video-Generierung
Ollama (lokal)
32100% offline, privat β qwen2.5:14b, llama3.1, deepseek
Groq + Cerebras
24Schnellste Inferenz weltweit, Wafer-Scale Hardware
Lokale Modelle (offline, privat, ohne Internet)
ollama/qwen2.5:14b β StΓ€rkstes lokales Allround-Modell
ollama/qwen2.5-coder:7b β Code-Spezialist, lokal
ollama/deepseek-coder:6.7b β Debugging, Refactoring
ollama/llama3.1:8b β Meta’s bestes kleines Modell
ollama/mistral:7b β Schnell, zuverlΓ€ssig
ollama/gemma2:2b β Ultraleicht, lΓ€uft auf 4GB RAM
ollama/nomic-embed-text β Embedding fΓΌr Semantic Search
Echte Use-Cases β wie es sich anfΓΌhlt
Der KI-gestΓΌtzte Entwickler-Alltag
$ ai “Warum ist mein Docker Container abgestΓΌrzt?”
# AILinux liest automatisch Docker Logs via shell-Tool
# Sucht bekannte Fehlermuster via web_search
# Findet: OOM-Killer hat den Container gekillt
# SchlΓ€gt Fix vor UND schreibt direkt in docker-compose.yml
# Speichert LΓΆsung in Memory fΓΌr kΓΌnftige Γ€hnliche Probleme
β Antwort in ~8 Sekunden. Ohne Browser. Ohne Tab-Wechsel.
Multi-Agent Code Review
$ ai “Review meinen AuthService auf Security-Issues”
# 3 parallele Agents starten gleichzeitig:
Claude β Logik, Edge Cases, Best Practices
Codex β Potenzielle Exploits, Input Validation
Gemini β Performance, Skalierbarkeit
Ergebnis: “3 kritische Issues gefunden:
1. SQL Injection mΓΆglich in Zeile 47 (Claude)
2. JWT ohne Expiry-Check (Codex)
3. Rate Limiting fehlt (Gemini)”
Copa + AILinux Integration
# Im Spiel: komplexe Skill-Beschreibung nicht kopierbar
# Copa Freeze-Mode β Region auswΓ€hlen β Text extrahiert
$ ai “ErklΓ€re diesen Skill und wie er mit meinem Build synergiert”
# [Skill-Text aus Copa Clipboard automatisch als Kontext]
# AILinux: web_search Build-Guides β analysiert Synergien
β “Dieser Skill passt perfekt zu deinem Crit-Build weil…”
Autonome Server-Administration
$ ai “Mein Server hatte heute Nacht Peaks. Was war los?”
# Liest /var/log/syslog, nginx access.log, dmesg
# Korreliert Timestamps mit Cron Jobs + External Requests
β “DDoS-Versuch auf /wp-login.php um 03:47 Uhr
Empfehlung: fail2ban Regel + Rate Limit”
[Schreibt Regel direkt via code_edit β auf Wunsch]
Die Vision: AILinux als Desktop-OS
Das war die ursprΓΌngliche Idee β und sie ist noch nicht tot. Der AILinux Client nicht als App unter vielen, sondern als Desktop-Umgebung.
π Dateimanager + AI-Kontext
README.md
[AI: “Python-Projekt, du brauchst
venv + requirements.txt”]
error.log
[AI: “3 kritische Fehler gefunden,
alle aus demselben Modul”]
screenshot.png
[Copa OCR: Text extrahiert
und in Zwischenablage]
β‘ Terminal + AI
$ ai “komprimiere alle JPEGs”
[erledigt β 47 Dateien, 68% kleiner]
$ ai “was macht dieses Skript?”
[erklΓ€rt jede Zeile auf Deutsch]
$ ai “update alle pip packages sicher”
[prΓΌft KompatibilitΓ€t, updated 12/15
3 ΓΌbersprungen wegen Konflikten]
Geplante Desktop-Features
| Feature | Beschreibung | Status |
|---|---|---|
| AI-Spotlight | Strg+Space β natΓΌrlichsprachige Systemsuche | Planung |
| Kontextueller Dateimanager | Rechtsklick β “Mit AI ΓΆffnen” β sofort analysiert | Planung |
| AI-Benachrichtigungen | Server-Fehler β sofort erklΓ€rte Push-Notification | Planung |
| Offline-First | Kein Internet β Ollama ΓΌbernimmt automatisch | VerfΓΌgbar |
| Ryzen-Optimierungen | UV/OC-Profile direkt im Installer | Planung |
Technischer Stack
Hardware (Hetzner EX63):
βββ CPU: Intel Core Ultra 7 265
βββ RAM: 64GB DDR5
βββ OS: Ubuntu 24.04 LTS
Backend (TriForce v2.80):
βββ FastAPI Port 9000, REST + WebSocket
βββ PostgreSQL Persistent Storage
βββ Redis Cache, Sessions, Rate Limiting
βββ Docker Service Isolation
βββ Apache2 Reverse Proxy, SSL Let’s Encrypt
Auth Stack:
βββ JWT + nova_session Cookie
βββ Auto-Login (init-Hook Priority 1)
βββ LemonSqueezy Entitlements (Lizenzvalidierung)
βββ Grace-Period Offline-Modus (7 Tage)
AI Stack:
βββ Ollama (lokal, offline, 32 Modelle)
βββ 8 Cloud-Provider (614 Modelle gesamt)
βββ MCP Protocol (134 Tools)
βββ 4-Layer Memory (Facts/Decisions/Code/Context)
βββ Mesh AI (verteilte Agent-Kommunikation)
Roadmap
- Q4 2024TriForce Backend v2.0MCP, Multi-LLM, Ollama-Integration
- Q1 2025AILinux Client v4.0PyQt6, JWT, Tier-System, Unified Auth
- Q1 2025TriForce v2.80 “Brumo”134 Tools, CLI-Agents, Mesh AI, 614 Modelle
- Q4 2025Nova AI Frontend Plugin v4.6Unified Auth, LemonSqueezy Payments, Shop
- Q1 2026Copa v1.0Erstes kommerzielles AILinux Tool β Screen OCR, Game Support, 14-Tage Trial
- Q2 2026AILinux Client Vollversion + Copa WindowsStable Release, Windows-Port Copa
- Q4 2026AILinux 1.0 ISOInstallierbare Distribution, AILinux Client als primΓ€re Shell
- 2027Enterprise + QuantumManaged Deployment, IBM Quantum Integration, D-Wave
