KI in kritischen Prozessen: Wo Autonomie endet

Sobald KI in Prozesse kommt, die echte Auswirkungen haben, verändert sich die Diskussion. Dann geht es nicht mehr um „coole Features“, sondern um Fragen wie: Wer trägt Verantwortung? Was passiert bei Fehlern? Und wie lässt sich im Nachhinein nachvollziehen, warum etwas so entschieden oder ausgeführt wurde?

Kritische Prozesse sind dabei nicht nur „Hochrisiko“ im juristischen Sinn. Kritisch ist vieles, was im Alltag schnell teuer wird: Fristen, Zahlungen, Vertragskommunikation, Genehmigungen, interne Freigaben, personenbezogene Daten. Oft sind das Prozesse, die nicht spektakulär wirken, aber ziemlich wichtig sind.

In solchen Prozessen ist Autonomie nicht grundsätzlich falsch. Aber sie muss begrenzt sein. Und zwar nicht nur „gefühlt“, sondern operational: Es muss klar definiert sein, wo Autonomie endet.

Ein hilfreicher Ansatz ist, Autonomie als Stufen zu betrachten:

  • Stufe 1: Vorarbeit
    KI strukturiert Informationen, prüft Vollständigkeit, macht Vorschläge. Der Mensch entscheidet.
  • Stufe 2: Ausführung unter Regeln
    KI darf klar definierte Aktionen ausführen (z. B. Ablage, Zuordnung, Statuswechsel), aber nur innerhalb fester Leitplanken.
  • Stufe 3: Ausführung mit Freigabe
    KI bereitet vor, führt aber erst nach menschlicher Freigabe aus.
  • Stufe 4: Vollautonomie
    KI handelt ohne Freigaben. Diese Stufe ist in kritischen Prozessen selten sinnvoll, weil das Risiko schwer kontrollierbar ist.

Der wichtigste Punkt: Die Grenze sollte nicht dort liegen, wo „es sich gut anfühlt“, sondern dort, wo eine Organisation bereit ist, die Folgen zu verantworten. Das ist keine rein technische Entscheidung, sondern eine Governance-Frage.

Wenn man das sauber definiert, entsteht ein realistischer Weg: KI übernimmt Arbeit, aber nicht unkontrolliert. Genau diese Mischung sorgt dafür, dass Systeme überhaupt akzeptiert werden – gerade in Bereichen, in denen Vertrauen wichtiger ist als Tempo.