#
Zukunft

Chancen und Risiken

17.10.2025

Künstliche Intelligenz gilt als zukünftiger Produktivitätsmotor. Doch welche Folgen hat sie für Unternehmen, Beschäftigte und Europa im globalen Wettbewerb? KI-Experte Markus Kirchmair sieht ökonomische Chancen, aber auch gravierende gesellschaftliche Herausforderungen. Er fordert mehr Kompetenz und Verantwortungsbewusstsein im unternehmerischen wie privaten Umgang mit KI.

eco.nova: Hand aufs Herz: Haben Sie KI eingesetzt, um dieses Buch über Künstliche Intelligenz zu schreiben? Markus Kirchmair: Ja. Es wäre kaum glaubwürdig gewesen, ein Praxisbuch über den Einsatz von KI zu machen und sich zugleich der KI zu verweigern.

Wie haben Sie KI eingesetzt? Die KI hat mich bei der Strukturierung des Buches unterstützt, um während des Schreibprozesses den roten Faden nicht zu verlieren. KI entwickelt sich ungeheuer dynamisch, weshalb bis zur Veröffentlichung sehr viele Überarbeitungen notwendig waren. Und natürlich hat mich die KI auch bei Recherche und sprachlichem Feintuning unterstützt: Es war mir wichtig, eine möglichst objektive Tonalität hinzubekommen. Scheinbar objektive Dokumente wie jene der EU-Kommission sind auch subjektiv gefärbt, da sie mit gewissen Wünschen angereichert sind. Zum Beispiel heißt es von offizieller Seite, dass der AI-Act den Wettbewerb fördere und die Innovationskraft stärke.

Wann sind Sie zum ersten Mal mit der Künstlichen Intelligenz in Berührung gekommen? Ich habe mich seit meiner Kindheit mit Computern beschäftigt. „Intelligente“ Funktionen haben damals noch nach dem starren Prinzip If...Then...Else – wenn…dann…sonst – funktioniert. Programmierung hat mich schon als Kind fasziniert. Die KI hat sich dann subtiler – und früher – in unseren Alltag eingeschlichen, als man annehmen könnte. Durch banal wirkende Funktionen wie den Vorschlag des nächsten Wortes in Smartphone-Tastaturen bis hin zu fortgeschrittenen Tools in der Grafikbearbeitung. Als OpenAI dann im November 2022 mit ChatGPT die ganze Technologiebranche wachgerüttelt hat, war das auch für mich ein verblüffend großer Entwicklungssprung.

Wie haben Sie KI bzw. Large Language Models zu diesem Zeitpunkt wahrgenommen und inwieweit hat sich Ihre Einschätzung mit der Zeit verändert? Ich habe mich sofort dafür begeistert. Je mehr ich mich damit befasst habe, desto mehr haben sich dann aber auch die Schwächen und Risiken dieser Technologie gezeigt. Noch heute geht es im öffentlichen Diskurs überwiegend um die offensichtlichen, direkten Konsequenzen. Dabei werden allerdings auch viele indirekte Auswirkungen von KI auf Wirtschaft und Gesellschaft oft übersehen.

Können Sie das konkretisieren? Ein Beispiel für indirekte Auswirkungen ist der Entfall der Sprachbarriere. Was wird es für den Arbeitsmarkt bedeuten, wenn man plötzlich mit jedem Menschen auf der Erde in derselben Sprache kommunizieren kann, weil die KI die Übersetzung in Echtzeit übernimmt? Das globalisiert den Arbeitsmarkt. Viele indirekte Konsequenzen sind uns vielleicht noch gar nicht richtig bewusst. Gleichzeitig haben wir auch auf absehbare direkte Konsequenzen noch keine Antworten gefunden. Wenn unsere Produktivitätsgewinne in vielen Bereichen dazu führen, dass wir plötzlich in kürzester Zeit ein Vielfaches leisten können, droht uns ein Ungleichgewicht zwischen Angebot und Nachfrage.

Das würde Produktivitätszunahme bedeuten, der gerade in Europa ohnehin alle hinterherjagen. Ja, aber was bedeutet es für unseren Arbeitsmarkt? Wenn Einzelne mit KI plötzlich die Arbeit von mehreren verrichten, müssen wir auch beantworten, woher die entsprechend höhere Nachfrage kommen soll. Damit Unternehmen ihre Angestellten in diesem kompetitiven Umfeld weiter beschäftigen können, brauchen sie also auch ein entsprechend hohes Wachstum. In diesem Kontext sind auch die anhaltenden Debatten über ein bedingungsloses Grundeinkommen zu sehen. Arbeit hat für viele Menschen auch eine sinnstiftende Funktion. Was heißt das für diejenigen, die in einer hocheffizienten, KI-optimierten Wirtschaftswelt nicht mehr gebraucht werden?

Glauben Sie, dass durch KI schon in den nächsten Jahren mit nennenswerten Umwälzungen in der Arbeitswelt zu rechnen ist?  Ich denke, dass die Konsequenzen weitreichender sein werden, als viele erwarten. Der öffentliche Diskurs ist immer noch stark in Annahmen verhaftet, wonach KI beispielsweise nie kreativ sein könne oder wir künftig als Prompt Engineers arbeiten würden. Beide Sichtweisen halte ich für falsch und überholt. Zumal gerade der niederschwellige Zugang zu KI-Tools ja das Wesen dieser Entwicklung ausmacht. Sie werden immer einfacher zu bedienen und lernen dabei fortlaufend hinzu. Das ist positiv, weil dadurch auch der Zugang zu Wissen demokratisiert wird und man unterschiedslos jedem Nutzer ein sehr mächtiges Werkzeug an die Hand gibt. Zugleich besteht das Risiko, dass durch die Allgegenwart von KI und ihre zunehmende Leistungsfähigkeit das menschliche Wissen und menschliche Fähigkeiten entwertet werden.

Braucht es nicht ein neues Mindset, wenn man so will eine gesellschaftliche Wertedebatte, die menschlicher Arbeit, die mit der zur Verfügung stehenden Arbeitskraft limitiert ist, einen inhärent höheren Wert beimisst als KI-generierter, die fast grenzenlos ist? Das ist eine interessante Idee. Langfristig wird sich allerdings die Frage stellen, ob menschliche Produkte tatsächlich die höher zu bepreisende Qualitätsware sind, wenn das KI-Pendant besser ist.

Vielleicht muss man das von Menschen für Menschen Gemachte aus Prinzip – als Wert an und für sich – höher einschätzen? In Kunst und Handwerk kann ich mir das gut vorstellen. Auch in körpernahen Berufen und der Pflege bleibt der Faktor Mensch im Vordergrund. In vielen anderen Bereichen wird der Markt viel direkter nach dem besten Kosten-Nutzen-Verhältnis suchen. Hier muss es uns gelingen, mit Mensch und Maschine im Tandem den besten Output zu schaffen.

Welche Missverständnisse gibt es rund um die Künstliche Intelligenz in der wirtschaftlichen Praxis? Ein Kernproblem ist, dass KI in Unternehmen oft zu sehr als IT-Thema betrachtet wird. Dabei muss KI als umfassendes Change-Thema ganzheitlich angegangen werden. Es gibt organisatorische Aspekte ebenso wie kommunikative – wie bringe ich eine Kultur im Umgang mit KI unter die Mitarbeiter*innen? Das ist ganz wichtig, weil es nämlich so etwas wie „Shadow AI“ in den Unternehmen bereits heute gibt. Mit Schatten-KI ist der informelle KI-Einsatz von Mitarbeiter*innen im Arbeitsalltag in Unternehmen gemeint, die sich offiziell noch nicht der KI geöffnet haben. Unternehmen bekommen oft gar nicht mit, auf welche Art und Weise und wie intensiv ihre Mitarbeiter*innen KI bereits nutzen. Wird das im Betrieb nicht offiziell geregelt, tun sich auch große Datenschutzrisiken auf. Viele Unternehmen unterschätzen das.

Unternehmen sind folglich gut beraten, sich mit dem Einsatz von KI zu beschäftigen und das Thema in ihre Organisationskultur einzubinden? Genauso ist es. Da spielt auch die Kompetenzpflicht hinein, die im AI-Act der EU angelegt ist. Sie ist eine unternehmerische Sorgfaltspflicht. Unternehmen haben dafür Sorge zu tragen, dass Menschen, die im Arbeitsalltag KI einsetzen, die notwendigen Fähigkeiten haben und auch für die Risiken sensibilisiert sind.

Überwiegen die Chancen oder Risiken beim Einsatz von KI? Damit die Chancen überwiegen, müssen Unternehmen aktiv werden. Das größte Risiko, das ich in der Praxis sehe, ist, vom Mitbewerb abgehängt zu werden, weil man zu schwerfällig, zu langsam, zu unflexibel ist. Gerade kleinere Unternehmen haben oft den Vorteil, dass sie schneller und flexibler reagieren können. Dafür muss man sich intensiv mit KI befassen. Man kann es sich nicht leisten, nicht mitzumachen. Unternehmen, die sich nicht rechtzeitig damit auseinandersetzen, wie sie ihre Arbeitsprozesse mit Hilfe von KI verbessern und effizienter machen, droht schon ein großer Kostennachteil, der sich nicht ohne weiteres durch andere Faktoren kompensieren lässt. Das ist ein Dilemma.

Wie kann man die anderen Risiken im Umgang mit KI beherrschen? Die Risiken sind branchenabhängig unterschiedlich. Es gibt Branchen, die – in unterschiedlicher Ausprägung – disruptiert werden und sich neu erfinden werden müssen. Allen voran die Unterhaltungsindustrie, aber auch meine eigene Branche – die Beratung – ist genauso betroffen wie beispielsweise Verlagshäuser oder Agenturen. Auch Onlineportale erleben gegenwärtig einen Einbruch bei den Besucherzahlen, weil Nutzer*innen zunehmend KI fragen, anstatt Websites selbst zu besuchen. In einer KI-geprägten Umgebung werden viele Unternehmen ihre Geschäftsmodelle überdenken und sich neu positionieren müssen. Darüber hinaus gibt es auch generelle Risiken, die beherrscht werden müssen. Dazu zählen technische Risiken, Sicherheitsrisiken, Recht bzw. Compliance und daran anknüpfend auch Ethik. Setzt man beispielsweise im Recruiting auf KI, besteht die Gefahr, dass ein Bias zu unfairen Verzerrungen in der Bewerberauswahl führt.

Dadurch, dass ChatGPT & Co. eine Art Blackbox sind, lassen sich Biases wohl kaum nachvollziehen, weil man als User keinen Einblick in die Trainingsdaten hat? Ja. Es gibt zwar Expertentools, um Verzerrungen in KI-Modellen aufzuspüren, doch für die Anwender sind Biases oft nicht erkennbar. Grundsätzlich greifen in der KI ethische und rechtliche Themen stark ineinander. Der AI-Act greift viele davon auf. Man kann sich ein Stück weit absichern, indem man den Ansatz „Human-in-the-loop“ verfolgt. Er besagt, dass bei allen KI-Prozessen ein Mensch anleitet und kontrolliert.

Das kritische Urteilsvermögen darf man gerade im Umgang mit Künstlicher Intelligenz nicht an der Türschwelle abgeben? Keinesfalls. Eine kritische Grundhaltung ist wichtig, denn die Regulierung allein wird hier nicht ausreichen.

KI ist nicht gleich KI. Der AI-Act unterscheidet zwischen vier verschiedenen Kategorien. Der AI-Act ist ein risikobasiertes Regelwerk. Je höher die Risiken eingeschätzt werden, desto strenger sind die Auflagen. Transparenz- und Kennzeichnungspflichten greifen besonders dann, wenn die Möglichkeit einer Täuschung oder Irreführung besteht. Beim Einsatz von KI in der Kundenkommunikation muss klar sein, dass es sich um KI-generierte Antworten handelt und KI-generierte Inhalte wie Texte, Bilder, Videos müssen ebenso klar als solche erkennbar sein. Wie streng das tatsächlich ausgelegt wird, bleibt abzuwarten. Trotzdem muss man davon ausgehen, dass sich gerade Akteure mit krimineller Absicht nicht an solche Pflichten halten. Es braucht also ein gesundes Maß an Skepsis, dass theoretisch jedes Bild, jeder Text, jedes Video – auch jede E-Mail und jeder Anruf – KI-generiert sein könnte. Der AI-Act könnte da möglicherweise eine falsche Sicherheit suggerieren, weil eben trotz Regularien längst nicht alles, was nicht als KI-generiert gekennzeichnet ist, tatsächlich echt sein muss.

Der AI-Act der Europäischen Union ist das erste Regelwerk, das den Umgang mit Künstlicher Intelligenz umfassend regelt. Wie bewerten Sie diesen zunächst aus fachlicher und in Folge ökonomischer Perspektive? Der AI-Act enthält viele richtige und wichtige Aspekte. Eine ganze Reihe von KI-Anwendungen, die als inakzeptabel eingestuft werden, werden vom AI-Act verboten. Darunter sind biometrische Kategorisierungssysteme, die sensible Merkmale wie politische oder religiöse Überzeugungen, sexuelle Orientierung oder ethnische Zugehörigkeit nutzen. Die EU verfolgt mit dem AI-Act also ganz klar das Ziel, unsere Grundrechte zu schützen. Andererseits betont man aber auch die Stärkung der europäischen Wettbewerbsfähigkeit und Innovationskraft. Diesbezüglich vernehme ich zunehmend Skepsis. Im aktuellen Kopf-an-Kopf-Rennen zwischen den USA und China spielt Europa bei der KI-Entwicklung – außer in Nischen – leider kaum eine Rolle.

Dann darf die Steigerung der Wettbewerbsfähigkeit und Innovationskraft bei gleichzeitiger Einschränkung des KI-Einsatzes wohl der Kategorie „Wunschdenken“ zugeschlagen werden? Big-Tech aus Europa ist eine Fehlanzeige. Ja. Beim Einfluss der DSGVO auf internationale Anbieter sprach man damals von einem Brüssel-Effekt. Ich vermute, dass man mit dem AI-Act hinsichtlich der internationalen Wirkung ähnlich hohe Ambitionen hatte. Die eigentliche Nagelprobe für den AI-Act sehe ich aber tatsächlich im Hochrisikobereich. Da entscheidet sich, ob der Schutz unserer Grundrechte mit dem AI-Act wirksam gelingt. In anderen Bereichen wie der generativen KI werden hingegen in den USA und China Tatsachen geschaffen, denen sich Europa kaum entziehen kann.

Sie haben in Ihrem Buch der Kompetenzpflicht viel Raum gegeben. Worum geht es dabei? Alle Personen, die KI-Systeme entwickeln, betreiben oder beruflich nutzen, müssen über angemessene Kompetenzen verfügen. Mein Buch ist ein erster Versuch, diese vage Vorgabe zu interpretieren. Man sollte die Kompetenzpflicht in erster Linie einmal als unternehmerische Sorgfaltspflicht verstehen, Mitarbeiter*innen entsprechende Kompetenz im Umgang mit den von ihnen eingesetzten KI-Tools zu vermitteln. Zusätzlich sollten sie auch die ethischen, rechtlichen und technischen Grundlagen verstehen – inklusive Chancen und Risiken. Die Kompetenzpflicht betrifft dabei nicht nur die eigenen Mitarbeiter*innen, sondern auch Partner und Lieferanten. Wer in meinem Auftrag arbeitet und dabei KI nutzt, muss die entsprechenden Kompetenzen haben.

Mit welchen anderen Gesetzesmaterien kann der Einsatz von KI in Unternehmen in Konflikt geraten? Besonders mit der DSGVO, in der Datenminimierung ein Grundprinzip ist. Die KI wird grundsätzlich mit steigender Datenmenge und -qualität besser. Diesen Widerspruch aufzulösen ist nicht immer leicht und relativiert für viele Unternehmen die beabsichtigte Rechtssicherheit. Wer aus datenschutzrechtlichen Überlegungen auf KI verzichtet, muss im Gegenzug möglicherweise Nachteile in Kauf nehmen. Unternehmerische Entscheidungen werden also oft zu einer Risikoabwägung. Auch hinsichtlich Haftung, Urheberrecht und Verbraucherschutz sind noch viele Fragen offen.

Die Wirtschaft ächzt unter der Bürokratie. Kommt mit dem AI-Act noch eine weitere bürokratische Hürde dazu? Das hängt stark davon ab, welcher Risikokategorie die unternehmerischen Aktivitäten zuzuordnen sind. In Hochrisikobereichen gibt es Dokumentations- und Protokollierungspflichten und die Notwendigkeit eines umfassenden Risikomanagements. Da bedeutet die KI-Verordnung tatsächlich zusätzliche Bürokratie. Es ist aber in dieser Regulierungsfrage noch nicht das letzte Wort gesprochen, eine teilweise Aufweichung der Regulierung ist denkbar. Der AI-Act ist ein flexibles Rahmenwerk, das entsprechende Änderungen zulässt.

Wie werden Verstöße gegen den AI-Act sanktioniert? Gerade im Hochrisikobereich und beim Einsatz verbotener Systeme sind die Strafrahmen drakonisch und können bis zu sieben Prozent des weltweiten Umsatzes ausmachen. Das soll abschreckend wirken. In der Praxis wird das tatsächliche Sanktionsmaß von der Schwere etwaiger Verstöße abhängen.

Bei KI-Unternehmen und deren Bewertung bekommt man den Eindruck, dass das Geld abgeschafft ist. Zugleich werden erste Vergleiche mit der Dotcom-Bubblelaut, weil die meisten Unternehmen von der Profitabilität weit entfernt sind. Glauben Sie, dass es zu einer Konsolidierung kommen wird? Platzt die Blase? Aktuell herrscht tatsächlich Goldgräberstimmung. In den USA werden hunderte Milliarden Dollar in gigantische Rechenzentren investiert. Gleichzeitig ist noch immer unklar, wann und in welcher Form sich in diesem hochkompetitiven Umfeld Gewinne erwirtschaften lassen. Wenn sogar OpenAI-CEO Sam Altman nun öffentlich sagt „Someone is going to lose a phenomenal amount of money“ sollten Tech-Investoren vorsichtig werden. Mir persönlich scheint eine Marktkonsolidierung sehr wahrscheinlich. Wichtig ist allerdings, dass man von der möglichen Blasenentwicklung an den Börsen nicht darauf schließt, dass KI nur ein Hype sei. In der breiten Wirtschaft nimmt die Etablierung von KI mit all den zu erwartenden Produktivitätsgewinnen gerade erst Fahrt auf.

Darf man annehmen, dass Sie als KI-Spezialist allgemein eher optimistisch sind, was die Zukunft der Künstlichen Intelligenz betrifft? Ich sehe zwei Seiten: KI mischt die Karten neu. Unternehmen, die sich jetzt aktiv damit befassen, wie sie sich KI strategisch aufstellen, haben allen Grund zu Optimismus. Aber: Nur weil wir in kürzester Zeit um ein Vielfaches produktiver werden, heißt das nicht, dass der Markt im selben Ausmaß und Tempo wächst. Der Wirtschaft stehen also intensive Verteilungskämpfe bevor, bei denen es Gewinner und Verlierer geben wird. In Bezug auf die Gesellschaft lesen wir viel von Utopie- und Dystopieszenarien. Im Idealfall schaffen wir es, irgendwo in der Mitte dieser beiden Extreme herauszukommen.

Eine Gesellschaft kann man ein Stück weit gegen negative Auswirkungen wappnen, wenn man sie gut ausbildet, informiert und sensibilisiert. Ja. Es braucht mehrere Dinge: Kritisches Denken, stetiges Hinterfragen und sich selbst ein Bild von den KI-Tools machen und diese bewusst anwenden. Nur weil die KI immer mehr „denkt“, dürfen wir Menschen nicht das Denken – und besonders das kritische Denken – einstellen.


Interview: Marian Kröll

Um diesen Beitrag weiter zu lesen,
bestellen Sie bitte die aktuelle Printausgabe.

Ausgabe kaufen
Mehr erfahren
news.
letter

Newsletter

Mit dem kostenlosen Newsletter keine spannenden Beiträge mehr verpassen!
Pünktlich zum Erscheinen jeder Ausgabe gibt's vier Artikel in voller Länge.
Jetzt ANmelden
alle.
ausgaben
Mehr erfahren
Wirtschaftsmagazin Oktober 2025
10/2025

Wirtschaftsausgabe Oktober 2025

Jetzt bestellen
Online lesen
Spezial: Wohnen & Lifestyle 2025
09/2025

Spezial: Wohnen & Lifestyle 2025

Jetzt bestellen
Online lesen
Spezial: Kulinarik & Lifestyle 2025
09/2025

Spezial: Kulinarik 2025

Jetzt bestellen
Online lesen
Tirol's Top 500 - Juli 2025
07/2025

Tirol's Top 500 - Juli 2025

Jetzt bestellen
Online lesen
Mehr erfahren
Gebaut von Momentum Brand & Product 🧡💛💚
schließen