Bezpieczeństwo danych i szacunkowe koszty eksploatacji
W toku wstępnych rozmów na temat rozbudowy ngaty o agenta AI pojawiły się pytania dotyczące poufności instrukcji obsługi. Poniżej zebrano krótkie wyjaśnienie: jak to działa od strony technicznej, jakie gwarancje wynikają z umowy z dostawcą modelu językowego oraz jaki jest szacunkowy koszt eksploatacji.
Aplikacja ngata działa na serwerach Toyota Central Europe w Warszawie od ponad 10 lat. Opisywany agent jest rozbudową tego systemu — baza dokumentów i indeks wektorowy pozostają na tej samej infrastrukturze.
Warunki komercyjne Anthropic (Commercial Terms of Service) wprost zabraniają używania Customer Content do trenowania modeli AI. Zakaz obowiązuje z mocy umowy — niezależnie od dalszych zmian w polityce prywatności.
Treści przesyłane przez API są klasyfikowane jako Confidential Information klienta. Anthropic może je używać wyłącznie do realizacji usługi. W razie naruszenia zobowiązuje się do niezwłocznego powiadomienia.
Dla klientów z Europejskiego Obszaru Gospodarczego stroną umowy jest Anthropic Ireland, Limited — podmiot podlegający prawu irlandzkiemu i unijnemu, w tym RODO.
Ochrona dotyczy wyłącznie kont komercyjnych (API). Konta Free/Pro/Max mogą być używane do trenowania — dlatego system jest oparty na API, nie na interfejsie claude.ai.
Fragmenty instrukcji obsługi przesyłane przez API są objęte wiążącą umownie klauzulą poufności. Anthropic nie może ich używać do trenowania modeli, udostępniać stronom trzecim ani zatrzymywać po zakończeniu sesji. Dokumenty techniczne bez danych osobowych nie podlegają dodatkowo wymogom RODO — co upraszcza całą analizę prawną.
Stroną umowy z Anthropic jest Neweconomy — to Neweconomy przejmuje wynikające z niej zobowiązania wobec TCE, a Anthropic pełni rolę podwykonawcy. TCE nie wchodzi w żadną bezpośrednią relację umowną z Anthropic.