“Unternehmen wissen oft nicht, wo diese Systeme implementiert sind, wer sie nutzt und wie autonom sie sind”, meint Pablo Riboldi, CISO beim Softwareanbieter BairesDev. Das sei Schatten-KI(-Agenten) zuträglich, was weitere Probleme nach sich ziehe: “Wenn Sicherheitsteams nicht wissen, dass KI-Agenten im Einsatz sind, die in Echtzeit Entscheidungen treffen oder auf wise Systeme zugreifen, bleiben auch damit verbundene Sicherheitsrisiken oder Schwachstellen im Verborgenen.”
Auch Reena Richtermeyer, Partnerin bei der auf KI spezialisierten Anwaltskanzlei CM Regulation, hält mangelnde Transparenz in Zusammenhang mit Agentic AI für risikobehaftet: “Diese Risiken sind nicht nur im Safety-Bereich zu verorten. Governance- und Compliance-Probleme sowie operative Risiken kommen noch hinzu. Das kann wiederum zu Vertrauensverlust bei Mitarbeitern oder Associate führen – und dann die KI-Einführung behindern.”
Viele Agentic-AI-Systeme sind in der Lage, ohne menschliche, beziehungsweise manuelle Eingriffe zu “handeln”. Diese Fähigkeit ist jedoch nicht nur innovativ, sondern stellt an sich auch ein Safety-Risiko dar, wie Sean Joyce, beim Beratungsriesen PwC für die Bereiche Cybersecurity und Datenschutz zuständig, erklärt: “Wenn Zielsetzungen für KI-Agenten schlecht definiert oder mehrdeutig sind, können diese gegen die Sicherheits- oder Ethikstandards eines Unternehmens verstoßen.”



