Trust & AI Governance
Kritische Einwände proaktiv beantwortet: AI-Einsatz, Datensicherheit, regulatorische Einsetzbarkeit.
AI-Einsatzprinzip
AI unterstützt Text- und Analysearbeit. Entscheidungen und Freigaben bleiben beim Nutzer. Keine automatischen Bewertungen oder Zertifizierungsentscheidungen.
Scoring, Status-Berechnung und Risikobewertungen sind deterministisch. AI wird nicht in kritischen Entscheidungspfaden eingesetzt. AI-Ausgaben werden strukturell validiert.
Audit-Metadaten pro AI-Aufruf: Modell, Tokens, Kosten, Dauer, Input/Output-Hashes. Trennung in kurzlebige und langlebige Auditinformationen.
Datenminimierung
Nur der notwendige Kontext pro Use Case wird an AI-Modelle übergeben. Keine vollständigen Datensätze.
Begrenzte Eingabegrößen pro Anfrage. Verhinderung unkontrollierter Datenübertragung.
Klares Aufbewahrungskonzept für AI-Auditdaten. Differenzierung zwischen operativen und Compliance-relevanten Daten.
Betriebskontext
Bedrock-basierte Provider-Nutzung mit stateless Request-Modell. Kein Session-State auf Provider-Seite.
Striktes Tenant-Scoping auf allen Ebenen. API-Schutzmechanismen gegen Cross-Tenant-Zugriffe.
normly ist kein vollautomatischer Compliance-Entscheider. Menschliche Review bleibt Pflicht. AI-Unterstützung ist ein Werkzeug, keine Abkürzung. Wir kommunizieren das offen — weil Vertrauen in regulierten Umgebungen nicht durch Marketing entsteht, sondern durch Nachvollziehbarkeit.
Live-Demo — wir zeigen Ihnen, wie normly Governance in prüfbare Prozesse übersetzt.