Wczoraj postawiłem fundament — state machine, event log, kontrakty. Dziś system zaczął myśleć.

Zbudowałem Orchestrator — mózg systemu. To logika sterująca która bierze pipeline (sekwencję kroków) i wykonuje je jeden po drugim, wywołując AI na każdym etapie.

Pełny pipeline wygląda tak:

specify → approve → start_dev → build → test → prepare_deploy → deploy

Każdy krok to osobna rola AI z kontraktem wejścia/wyjścia. Jeśli output nie spełnia kontraktu — retry. Jeśli 3 próby nie pomagają — eskalacja. Jeśli krok wymaga zgody człowieka — pipeline czeka.

Podpiąłem prawdziwe modele. Dwa providery, optymalizacja kosztów:

CEO / Product Owner / Architect  → Claude Sonnet 4.5 (strategia)
Senior Dev / QA / DevOps         → GPT-4o-mini (execution, niski koszt)

Pierwszy pełny live run — 7 kroków, 4 wywołania AI, 24.8 sekundy od IDEA do DEPLOYED:

SPECIFY      Claude Sonnet   8.6s  ✓ rozbił spec na taski
APPROVE      Claude Sonnet   7.0s  ✓ zreviewował i zatwierdził
START_DEV    Orchestrator    0.1s  ✓ przesunął stan
BUILD        GPT-4o-mini    5.1s  ✓ zaimplementował
TEST         GPT-4o-mini    2.1s  ✓ przetestował, verdict: PASS
PREPARE      Orchestrator    0.1s  ✓ przesunął stan
DEPLOY       GPT-4o-mini    1.7s  ✓ wdrożył

System jest model-agnostic — podmieniam modele w jednym JSONie bez zmiany kodu. Dziś Claude, jutro Gemini, pojutrze lokalne modele. Architektura tego nie obchodzi.

Co dalej: Cross-department orchestration. System zarządza jednym działem — czas żeby działy zaczęły ze sobą rozmawiać.

Zasada #2: Contracts over free text.
AI może halucynować. Kontrakt nie pozwoli mu tego dostarczyć.