INPUTenterprise docs
CONTEXTdomain inject
REASONlogic chain
OUTPUTpipeline data
→ structured output

Założenie

Większość wdrożeń LLM w przedsiębiorstwach jest dekoracyjna. Interfejs czatu przyklejony do repozytorium dokumentów — zadaj pytanie, skopiuj odpowiedź, powtórz. Przydatne, ale to nie jest automatyzacja.

Buduję coś innego: LLM jako komponenty operacyjne, które przyjmują ustrukturyzowane dane wejściowe, stosują logikę biznesową i zwracają wyniki trafiające bezpośrednio do potoków. Żadnego człowieka w pętli dla rutynowych decyzji. Żadnego wrappera chatbota.


Kluczowy Wgląd

Modele językowe działają znacznie lepiej, gdy otrzymują explicite model kontekstu organizacyjnego, w którym operują.

Każda organizacja ma słownictwo, hierarchię i zestaw niepisanych reguł dotyczących tego, co oznacza “poprawny” wynik. Generyczne prompty produkują generyczne wyniki. Prompty kodujące wiedzę instytucjonalną produkują coś bliższego juniorskiemu specjaliście.


Co Zostało Zbudowane

Agenty Ingestion Dokumentów

Własne wrappery LLM do przetwarzania nieustrukturyzowanej dokumentacji przedsiębiorstwa — polityki wewnętrzne, reguły rotacji zmian, raporty operacyjne. Agent czyta, identyfikuje struktury logiczne i generuje znormalizowany JSON dla dalszych potoków.

Łańcuchy Strukturowanego Rozumowania

Wieloetapowe potoki, gdzie LLM działa jako silnik logiczny: biorąc pod uwagę zestaw ograniczeń, ocenia przypadki i zwraca ustrukturyzowaną decyzję z rozumowaniem.

Kluczowa decyzja architektoniczna: oddzielenie rozumowania od formatowania. Prompt, który pyta “zanalizuj TO I sformatuj jako JSON” pogarsza oba wyniki. Dwa prompty — jeden do rozumowania, jeden do ekstrakcji — produkują znacznie lepsze efekty.


Status

Aktywne badania i osobista eksploracja. Projekt Lakehouse WFM i praca w studiu zostały ukształtowane przez to, czego się tu nauczyłem.