Wczoraj postawiłem fundament — state machine, event log, kontrakty. Dziś system zaczął myśleć.
Zbudowałem Orchestrator — mózg systemu. To logika sterująca która bierze pipeline (sekwencję kroków) i wykonuje je jeden po drugim, wywołując AI na każdym etapie.
Pełny pipeline wygląda tak:
specify → approve → start_dev → build → test → prepare_deploy → deploy
Każdy krok to osobna rola AI z kontraktem wejścia/wyjścia. Jeśli output nie spełnia kontraktu — retry. Jeśli 3 próby nie pomagają — eskalacja. Jeśli krok wymaga zgody człowieka — pipeline czeka.
Podpiąłem prawdziwe modele. Dwa providery, optymalizacja kosztów:
CEO / Product Owner / Architect → Claude Sonnet 4.5 (strategia)
Senior Dev / QA / DevOps → GPT-4o-mini (execution, niski koszt)
Pierwszy pełny live run — 7 kroków, 4 wywołania AI, 24.8 sekundy od IDEA do DEPLOYED:
SPECIFY Claude Sonnet 8.6s ✓ rozbił spec na taski
APPROVE Claude Sonnet 7.0s ✓ zreviewował i zatwierdził
START_DEV Orchestrator 0.1s ✓ przesunął stan
BUILD GPT-4o-mini 5.1s ✓ zaimplementował
TEST GPT-4o-mini 2.1s ✓ przetestował, verdict: PASS
PREPARE Orchestrator 0.1s ✓ przesunął stan
DEPLOY GPT-4o-mini 1.7s ✓ wdrożył
System jest model-agnostic — podmieniam modele w jednym JSONie bez zmiany kodu. Dziś Claude, jutro Gemini, pojutrze lokalne modele. Architektura tego nie obchodzi.
Co dalej: Cross-department orchestration. System zarządza jednym działem — czas żeby działy zaczęły ze sobą rozmawiać.
Zasada #2: Contracts over free text.
AI może halucynować. Kontrakt nie pozwoli mu tego dostarczyć.