Historische Fehlurteile als Maßstab: Was Führungskräfte beim Umgang mit KI falsch einschätzen können

Wer heute Künstliche Intelligenz entweder als irrelevantes Spielzeug oder als universelle Lösung betrachtet, wiederholt einen der folgenreichsten strategischen Irrtümer der Geschichte – und hat womöglich noch nicht einmal bemerkt, dass der Moment der Entscheidung längst begonnen hat.

Historische Fehlurteile als Maßstab: Was Führungskräfte beim Umgang mit KI falsch einschätzen können

Ferdinand Foch, der spätere Marschall von Frankreich, soll um 1910 erklärt haben, das Flugzeug sei ein interessantes Spielzeug, aber militärisch ohne Bedeutung. Wenige Jahre später bestimmte die Luftwaffe den Ersten Weltkrieg mit. Der Guardian zieht diese historische Fehleinschätzung als Warnung für Führungskräfte heran, die Künstliche Intelligenz heute ähnlich vorschnell einordnen – in beide Richtungen: als irrelevant oder als allein seligmachend.


Die Symmetrie des Irrtums

Die eigentliche Lehre aus dem Foch-Beispiel ist weniger einseitig, als sie zunächst erscheint. Nicht nur das Unterschätzen neuer Technologien führt zu strategischen Fehlern – auch das unkritische Überschätzen birgt erhebliche Risiken.

Unternehmen, die gegenwärtig Large Language Models flächendeckend in kritische Prozesse integrieren, ohne deren Schwächen zu kennen, begehen einen strukturell ähnlichen Fehler wie Foch: Sie urteilen auf Basis unvollständiger Informationen unter dem Druck des Moments.

Führungskräfte stehen heute vor einer doppelten Herausforderung: Sie müssen die tatsächlichen Leistungsgrenzen aktueller KI-Systeme realistisch einschätzen und gleichzeitig antizipieren, wie sich diese Grenzen in den nächsten zwei bis fünf Jahren verschieben werden. Beides erfordert technisches Grundverständnis – eine Kompetenz, die in vielen Vorständen und Geschäftsleitungen noch systematisch fehlt.


Entscheidungen unter Unsicherheit

Ein zentrales Problem liegt in der Art, wie Organisationen mit technologischer Unsicherheit umgehen. Historische Analogien zeigen, dass Institutionen dazu neigen, neue Technologien in bestehende Denkmuster zu pressen. Das Flugzeug wurde zunächst als Aufklärungsmittel verstanden – analog zum Kavalleristen.

Ähnliches lässt sich bei KI beobachten: Viele Unternehmen setzen Sprachmodelle primär als bessere Suchmaschinen oder Textbausteine ein, ohne die grundlegend anderen Möglichkeiten zu erschließen, die sich aus autonomeren Anwendungen ergeben könnten.

Die Gefahr besteht nicht im Einsatz selbst, sondern in der konzeptionellen Verengung.

Wer KI ausschließlich durch die Linse bestehender Werkzeuge betrachtet, wird weder ihren gegenwärtigen Nutzen noch ihre künftigen Implikationen zutreffend bewerten können.


Strukturelle Antworten statt punktueller Reaktionen

Was Organisationen aus dieser Analyse ableiten sollten, ist kein Aufruf zur bedingungslosen Adoption, sondern zur institutionalisierten Auseinandersetzung. Konkret bedeutet das:

  • Regelmäßige technische Briefings auf Führungsebene
  • Klar definierte Verantwortlichkeiten für KI-Governance
  • Aufbau interner Expertise, die über Marketing-Versprechen externer Anbieter hinausgeht

Entscheidend ist zudem der Zeithorizont strategischer Planung. KI-Systeme entwickeln sich derzeit in Zyklen von sechs bis zwölf Monaten erheblich weiter. Unternehmen, die ihre KI-Strategie an den Fähigkeiten heutiger Modelle festmachen, ohne Anpassungsmechanismen einzubauen, laufen Gefahr, ihre Positionierung bereits bei der nächsten Modellgeneration überarbeiten zu müssen.


Einordnung für deutsche Unternehmen

Für Entscheider in Deutschland, wo viele mittelständische Unternehmen KI-Investitionen bisher zurückhaltend angegangen sind, ergibt sich eine spezifische Konsequenz:

Die Frage ist nicht mehr ob, sondern mit welcher Tiefe und Systematik man die Technologie in die eigene Wertschöpfung integriert.

Der Fehler von Marschall Foch war kein Mangel an Intelligenz, sondern ein Mangel an strukturierter Auseinandersetzung mit einer noch unvertrauten Technologie. Dieser Fehler lässt sich vermeiden – vorausgesetzt, Organisationen schaffen die internen Voraussetzungen für informierte Urteile, bevor der Markt solche Urteile erzwingt.


Quelle: The Guardian – Don’t make Marshal Foch’s mistake on AI

Scroll to Top