Sonntag, 30. November 2025
Stoicera Press
Established 2025 // Stoicera Press

AUSTRIAN
BUSINESS.

MARKET_INTELLIGENCEIntelligence Dossier

Der Algorithmus im Aufsichtsrat: Haftung im Zeitalter autonomer Entscheidungen

Warum der digitale Co-Pilot Ihr größtes Haftungsrisiko ist – und nicht Ihre Rettung.

29. November 2025
6 min Lesezeit

Es ist still geworden in den Beletagen zwischen Donaukanal und Industriezeile. Zu still. Wer heute in die Sitzungszimmer der heimischen Großunternehmen und Stiftungen blickt, sieht weniger rauchende Köpfe und mehr leuchtende Tablets. Das ist per se keine schlechte Entwicklung, Effizienz ist schließlich das Mantra, das wir uns seit der Erfindung der Dampfmaschine vorbeten. Aber es hat sich eine gefährliche Bequemlichkeit eingeschlichen, getarnt als technologischer Fortschritt.

Wir starren auf Dashboards. Wir nicken ab, was uns die Predictive Analytics Software über die Marktentwicklung in Südostasien oder die Liquiditätsengpässe der Tochtergesellschaft in Q3 vorhersagt. Das Problem ist nicht, dass wir der Maschine vertrauen. Das Problem ist, dass wir aufgehört haben, sie zu hinterfragen. Und genau hier, in diesem toten Winkel der menschlichen Aufmerksamkeit, lauert die nächste große Haftungswelle für Geschäftsführer und Aufsichtsräte.

Futuristic boardroom data visualization

Das Szenario: Wenn der Silizium-Würfel fällt

Stellen Sie sich vor, Sie sitzen im Aufsichtsrat eines mittelständischen Automobilzulieferers in Oberösterreich. Der Markt ist volatil, die Margen sind dünn wie Pergamentpapier. Ihr neues, teuer implementiertes KI-System empfiehlt dringend, die Produktion von Komponente A zugunsten von Komponente B einzustellen, basierend auf einer Prognose der Rohstoffpreise und geopolitischen Spannungen. Die Daten sehen valide aus. Die Grafiken sind überzeugend. Sie stimmen zu.

Drei Monate später bricht der Markt für Komponente B ein, während A durch die Decke geht. Der Schaden geht in die Millionen. Die Insolvenz droht.

Wer ist schuld?

Der Softwareanbieter? Vergessen Sie es. Schauen Sie in die AGBs der großen Cloud-Provider und KI-Schmieden; dort wird Haftung für wirtschaftliche Folgeentscheidungen so effektiv ausgeschlossen wie Wasser aus einem U-Boot. Der Algorithmus selbst? Sie können keinen Code verklagen. Bleiben Sie. Der Vorstand. Der Aufsichtsrat. Sie.

Die juristische Falle: Black Box vs. Business Judgment Rule

Wir müssen aufhören, künstliche Intelligenz als Orakel zu betrachten und anfangen, sie als das zu sehen, was sie juristisch ist: Ein Werkzeug. Und wer ein Werkzeug benutzt, ohne dessen Funktionsweise oder Risiken zu verstehen, handelt fahrlässig. Das österreichische Gesellschaftsrecht, insbesondere die Sorgfaltspflicht eines ordentlichen Geschäftsmannes nach § 25 GmbHG oder die Analogie zur Business Judgment Rule im Aktiengesetz, kennt kein "Der Computer hat's gesagt". Die Business Judgment Rule schützt Sie nur, wenn Sie eine unternehmerische Entscheidung auf der Basis angemessener Informationen getroffen haben.

Und hier wird das Eis dünn. Verdammt dünn.

Ist ein Output einer "Black Box", eines neuronalen Netzes, dessen Entscheidungspfad selbst für seine Entwickler oft nicht mehr im Detail nachvollziehbar ist, eine "angemessene Information"?

Wenn Sie nicht erklären können, warum die KI zu diesem Schluss gekommen ist, haben Sie dann wirklich entschieden? Oder haben Sie gewürfelt und hoffen nun, dass der Würfel aus Silizium schlauer ist als Sie? Die Rechtsprechung beginnt gerade erst, sich hier zu formieren, aber die Richtung ist klar: Unwissenheit schützt vor Strafe nicht, und technologische Unmündigkeit schützt nicht vor der persönlichen Haftung. Plausibilitätskontrolle ist das Stichwort, das jedem Organmitglied kalten Schweiß auf die Stirn treiben sollte.

Digital Literacy als Existenzfrage

Wie überprüft man die Plausibilität einer Berechnung, die Millionen von Datenpunkten in Sekundenbruchteilen korreliert? Man kann es nicht mit dem Taschenrechner nachrechnen. Das führt zu einer paradoxen Situation: Je leistungsfähiger die Systeme werden, desto weniger sind wir in der Lage, sie mit klassischen Mitteln zu kontrollieren – und desto höher werden die Anforderungen an die "Digital Literacy" der Entscheidungsträger.

Wer heute noch glaubt, Aufsichtsratsmandate seien Belohnungsposten für verdiente Ex-Politiker oder branchenfremde Honoratioren, der irrt gewaltig. Ein Aufsichtsrat, der den Unterschied zwischen deterministischen Algorithmen und stochastischen Modellen nicht versteht, ist heute ein Sicherheitsrisiko. Er ist ein wandelnder Haftungsfall.

Wir erleben hier eine Verschiebung der Verantwortung, die viele noch nicht begriffen haben. Es geht nicht mehr nur um das Ergebnis der Entscheidung, sondern um das Zustandekommen. Wenn ein Geschäftsführer blind einer Empfehlung folgt, begeht er eine Pflichtverletzung – selbst wenn die Entscheidung am Ende richtig war, war es reines Glück. War sie falsch, ist er dran. Wir scheitern hier nicht an der Komplexität der Technik. Wir scheitern an unserer Angst, dumm auszusehen, wenn wir fragen: "Warum?"

Explainable AI: Keine Daten ohne Begründung

In der Praxis bedeutet das eine massive Aufrüstungspflicht – nicht bei der IT, sondern beim Intellekt. Unternehmen müssen Mechanismen etablieren, die eine "Explainable AI" fordern. Wenn das System sagt "Kauf Firma X", muss es auch sagen: "Weil die Patentdatenbank Korrelationen zu unseren R&D-Zielen zeigt und die Cashflow-Analyse stabil ist." Fehlt diese Begründungsebene, ist der Output für die Vorstandsetage wertlos. Er ist Datenmüll.

Das wirkliche Risiko liegt nicht in einer "bösen" KI, die uns vernichten will. Das ist Science-Fiction für das Kino. Die Realität ist banaler und grausamer: Das Risiko ist die Automation Bias. Die psychologische Tendenz des Menschen, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil oder dem anderer Menschen. Wir sehen einen grünen Haken auf dem Bildschirm und unser kritisches Denken geht in den Standby-Modus. In einem Flugzeugcockpit kann das tödlich sein. Im Sitzungssaal einer AG vernichtet es Kapital und Karrieren.

Die Reaktion der Versicherer

Versicherer reagieren bereits. Die D&O-Versicherungen (Directors and Officers Liability Insurance) schauen mittlerweile sehr genau hin. Die Fragebögen werden länger. Haben Sie Prozesse implementiert, um algorithmische Entscheidungen zu validieren? Gibt es eine menschliche Letztentscheidung ("Human in the loop")?

Wenn Sie hier "Nein" ankreuzen oder ins Stottern geraten, steigen Ihre Prämien, oder der Versicherungsschutz für Cyber- und KI-Risiken wird exkludiert. Dann haften Sie mit Ihrem Privatvermögen für den Fehler eines neuronalen Netzes, das 2024 von einem Praktikanten in Kalifornien trainiert wurde.

Schlussfolgerung: Der Mut zum Steckerziehen

Wir müssen uns von der romantischen Vorstellung verabschieden, dass Technologie uns die Last der Verantwortung abnimmt. Das Gegenteil ist der Fall. Technologie potenziert die Verantwortung, weil sie den Hebel verlängert, mit dem wir auf die Realität einwirken. Ein Fehler in einer Excel-Tabelle war ärgerlich. Ein systemischer Fehler in einem KI-gestützten Strategie-Tool ist fatal.

Für den Wirtschaftsstandort Österreich, der traditionell eher abwartend auf disruptive Technologien reagiert, ist das eine doppelte Falle. Wir neigen dazu, Dinge entweder zu ignorieren oder sie, wenn sie unvermeidbar werden, unkritisch als "alternativlos" zu übernehmen. Beides wird in diesem Fall bestraft. Die Lösung liegt in einem radikalen Pragmatismus.

Wir brauchen Vorstände und Aufsichtsräte, die unbequem sind. Die den Stecker ziehen, wenn sie die Antwort nicht verstehen. Die akzeptieren, dass "Bauchgefühl" (was oft nichts anderes ist als internalisierte Erfahrung) ein valider Kontrapunkt zu Datenmodellen sein kann.

Am Ende des Tages darf im Protokoll nicht stehen: "Das System hat empfohlen..." Dort muss stehen: "Wir haben unter Berücksichtigung der Systemanalyse entschieden, dass..." Der Unterschied sind nur ein paar Worte. Aber diese Worte entscheiden darüber, ob Sie nach der Krise noch einen Job haben oder ob Sie sich mit dem Masseverwalter und der Staatsanwaltschaft unterhalten müssen.

Die Autonomie gehört dem Menschen. Die Haftung auch. Wer das eine an die Maschine abgibt, wird das andere trotzdem nicht los.


Weitere Artikel

MARKET_INTELLIGENCE

Der Mythos der 'Qualität aus Österreich': Eine Analyse der Produktivitätslücke

Die hohen Lohnnebenkosten lassen sich nicht mehr durch 'bessere Qualität' rechtfertigen. Wer Prozesse heute nicht automatisiert, wird morgen nicht mehr wettbewerbsfähig kalkulieren können.

Raphael Lugmayr27. November 2025
MARKET_INTELLIGENCE

Die Illusion der Neutralität: Österreichs digitale Souveränität als strategisches Sicherheitsrisiko

Cloud-Neutralität ist ein Mythos. Die Abhängigkeit von US-Hyperscalern ist keine Effizienz, sondern eine strukturelle Kapitulation der Handlungsfähigkeit.

Raphael Lugmayr27. November 2025
MARKET_INTELLIGENCE

Die Legacy-Falle: Der architektonische Bremsklotz der österreichischen KMU-Wirtschaft

Das Problem ist nicht der Fachkräftemangel. Es ist eine veraltete Daten-Infrastruktur, die Talente in Administration bindet und die Skalierbarkeit strukturell verhindert.

Raphael Lugmayr27. November 2025

Keine Analyse verpassen

Erhalten Sie unsere neuesten Artikel direkt in Ihr Postfach. Kostenlos und jederzeit abbestellbar.

STOICERA

Wissen als Betriebssystem.

Das Austrian Business Mag ist eine Initiative von Stoicera. Wir teilen Forschung und Analysen frei, um Wissen zu demokratisieren und den digitalen Diskurs in Oesterreich zu foerdern.

stoicera.com

Unsere Artikel sind frei zugaenglich und duerfen fuer Forschungs- und Bildungszwecke zitiert werden. Wir verpflichten uns zu wahrheitsgemaeszer Berichterstattung und kennzeichnen redaktionelle Inhalte transparent.

Stoicera GesbR | Allerheiligen im Muehlkreis 7 | 4320 Allerheiligen, Oesterreich
ATU79668824 | www.stoicera.com