KI verändert die Spielregeln der Cybersicherheit
- mb2813
- 17. Dez. 2025
- 7 Min. Lesezeit
A-Trust-Geschäftsführer Markus Vesely zeigt auf, warum autonome AI Agents neue Risiken schaffen, welche Rolle Regulierung und Datensouveränität spielen und welche Sofortmaßnahmen österreichische Unternehmen setzen können, um auch künftig vertrauenswürdig zu bleiben.

Herr Vesely, sie meinten unlängst, die Kombination aus Mensch und Maschine sei aktuell das Gefährlichste im Bereich Cybersicherheit. Welche konkreten Veränderungen beobachten Sie bei KI-gestützten Angriffsmethoden wie Deepfakes, Voice-Cloning oder automatisiertem Social Engineering – und wie gut sind österreichische Unternehmen darauf vorbereitet?
Wir haben es mit einer besonders gefährlichen Entwicklung zu tun, die ich zuallererst noch gar nicht mit den finanziellen Schäden durch eine KI-basierte Cyberkriminalität verbinden möchte. Denn die rasante Weiterentwicklung von Deepfake-KI-Werkzeugen und -Technologien zerstört vor allem Vertrauen: Das Vertrauen in die Informationen, die mir meine Sinne vermitteln; das Vertrauen in die Informationen, die Medien veröffentlichen; und auch das Vertrauen in die digitalen Kommunikationskanäle, die wir geschäftlich oder privat jeden Tag nutzen. Als demokratische Gesellschaft können wir aber nur handlungsfähig bleiben, wenn wir uns im Aushandeln unseres Zusammenlebens durch Gesetze, Vereinbarungen oder Verträge sicher sein können, ein echtes Gegenüber zu haben, das für seine Handlungen Verantwortung übernimmt. In diesem Sinne werden Verfahren, die die Echtheit von Informationen und die verlässliche Zuordnung zu ihren tatsächlichen Urheber:innen ermöglichen, zu einer zentralen Voraussetzung dafür, Vertrauen herzustellen. Da die Tools der generativen KI immer besser, kostengünstiger und benutzerfreundlicher werden, profitieren natürlich auch Cyberkriminelle von deren Effizienz.
Der Missbrauch von synthetischem Content wird in den kommenden Jahren noch viel stärker zu Manipulation, gesellschaftlicher Spaltung und wirtschaftlichen Schäden beitragen.
Was die österreichische Wirtschaft betrifft, sehen laut EY-Cybersecurity-Studie 2025 zwar 47 Prozent der Unternehmen ein hohes Risiko für Cyberangriffe, doch 34 Prozent verfügen über kein festes Cybersecurity-Budget. Da gibt es also noch einiges Verbesserungspotenzial.
Der AI Act schafft erstmals einen klaren Rechtsrahmen für KI in Europa. Wie realistisch ist es nun aus Ihrer Sicht, dass regulatorische Maßnahmen – inklusive technischer Standards – mit dem Innovationstempo der Cyberkriminalität Schritt halten können?
Sowohl technische Standards als auch regulatorische Maßnahmen kommen bei der Dynamik der Cyberkriminalität an ihre Grenzen. Technische Standards erfordern oft umfangreiche Abstimmungsprozesse zwischen unterschiedlichen Branchen, Expert:innengruppen und internationalen Gremien, was ihre Entwicklung und Aktualisierung verlangsamt. Regulatorische Maßnahmen sind meist ebenfalls träge, da sie politisch verhandelt und gesetzlich verankert werden müssen, bevor sie wirksam werden. Dadurch können weder Standards noch Regulierung mit dem rasanten Tempo neuer Angriffsmethoden mithalten. Beides braucht also Zeit, die böswillige Akteur:innen nutzen können, um sich einen Vorsprung zu erarbeiten. Dennoch sind sie wichtige Handlungsanweisungen und Anreize, um die europäische Gesellschaft und Wirtschaft besser auf Cyberbedrohungen vorzubereiten und die Cyberresilienz von Unternehmen und Bevölkerung zu stärken.
Welche Rolle spielen vertrauenswürdige Identitäts- und Signaturdienste – wie jene von A-Trust – künftig im Kampf gegen KI-gestützte Täuschungen? Können starke digitale Identitäten Deepfake-Risiken tatsächlich entschärfen?
Die rasante Entwicklung von Deepfake-Technologien macht herkömmliche Authentifizierungsverfahren immer angreifbarer. Passwortbasierte Systeme bieten dabei oft nicht mehr ausreichenden Schutz.
Die Multi-Faktor-Authentifizierung zieht da eine zusätzliche Sicherheitsebene ein und schützt digitale Identitäten durch mehrere Sicherheitsfaktoren wie Passwörter, Biometrie und Hardware-Token. Klassische Verfahren zur digitalen Identitätsüberprüfung zum Beispiel mittels ID-Verifizierung, Gesichtsabgleich oder Liveness Detection werden inzwischen immer häufiger von KI-generierten digitalen Klonen ausgetrickst. Die Authentifizierung über die österreichische eID – die ID Austria – hingegen bietet keine Angriffsfläche für Deepfakes, da die Identifizierung zur Ausstellung der digitalen Identität ausschließlich persönlich auf einer Behörde erfolgt. Damit ist der Zugang zu Konten, Systemen und persönlichen Daten für eine Identifikation sicher, schnell, kostengünstig und DSGVO-konform möglich.
Immer häufiger werden digitale Doppelgänger von CEOs oder CFOs genutzt, um Transaktionen oder interne Freigaben vorzutäuschen. Welche Maßnahmen müssen Unternehmen ergreifen, um solche „CEO-Fraud-2.0“-Szenarien künftig zuverlässig auszuschließen?
Es sind Berichte zu einigen spektakulären Fällen von Video-Deepfakes in Umlauf, wie etwa aus Großbritannien, bei dem 2024 ein britisches Unternehmen um umgerechnet 25 Millionen Dollar betrogen wurde. Aber nicht nur Video-Deepfakes lassen sich zunehmend automatisiert erstellen, auch Audio-Deepfakes werden zur wachsenden Bedrohung, da schon wenige Sekunden Ausgangsmaterial, etwa aus einer Instagram-Story, genügen. Sie können per Telefon platziert werden, umgehen damit die visuelle Verifikation und können in Echtzeit als Live-Gespräch generiert werden. Ein wesentlicher Faktor ist, dass Menschen nicht darauf programmiert sind, audiovisuelle Evidenz zur hinterfragen, sondern Vertrauen fassen, wenn sie jemanden sehen und hören.
Deshalb ist es notwendig, in Zukunft wesentlich mehr auf die Plausibilität einer Situation zu achten. Also: Ist diese Anfrage im Kontext plausibel? Würde mein Chef oder meine Chefin wirklich eine Überweisung per Video-Call anordnen?
Wählt die Person diesen Messenger-Dienst auch für geschäftliche Anfragen oder ist das ein Ausreißer? Kann ich diese Information über einen zweiten, unabhängigen Kanal verifizieren? Mit einer implementierten „Callback-Kultur“ für sensible Anfragen können Unternehmen diesen Angriffsvektor wesentlich verkürzen.
Gibt es noch andere aussagekräftige Praxisbeispiele?
Ein wenig anders gelagert, aber doch verwandt ist der Fall, in dem sich ein Betrüger im Zuge eines Bauprojekts nach erfolgreichem Social Engineering in den Rechnungslauf eingeloggt und eine Zahlung einer Gemeinde mit einer Fake-Rechnung statt an die Baufirma auf sich umgeleitet hat. Hier hätte neben der rechtzeitigen Schulung des Bediensteten auch eine technische Lösung den Schaden verhindern können. Mit Nutzung eines Qualifizierten Elektronischen Siegels, wie des A-Trust-Firmensiegels, als Herkunftsnachweis wäre die Authentizität der Rechnung beweisbar gewesen. Da sie nach der Besiegelung durch den bzw. die Rechnungsersteller:in nicht nachträglich verändert werden kann, wäre diese Fake-Rechnung als solche erkannt worden. Zusammengefasst sollten Unternehmen und Organisationen ihre internen Sicherheitsprozesse stärken und, wo immer es geht, starke Authentifizierungsformen für sichere digitale Identitäten implementieren.
Wie wird sich die Bedrohung durch KI-basierte Angriffe im staatlich gesteuerten Umfeld weiterentwickeln?
Wir befinden uns derzeit in einem hybriden Krieg, dessen Akteure genügend finanzielle Mittel und das Know-how besitzen, um die böswillige Nutzung von KI voranzutreiben. Mit autonomen AI Agents erweitern sich ihre Möglichkeiten noch, denn diese können Aufgaben eigenständig erledigen, Entscheidungen ableiten und Prozesse steuern.
Sie können etwa automatisierte Phishing-Kampagnen durchführen, bei welchen es immer schwieriger wird, die Fake-Nachrichten zu identifizieren. Auch kann die KI Schwachstellen deutlich zielgerichteter und effektiver ermitteln. Das kann sowohl für die Abwehr als auch leider für den Angriff genutzt werden. So verwendet Ransomware bereits LLMs, um die wertvollsten Daten in der Opfer-Umgebung zu identifizieren. Schon während des Angriffs wird ein eigenes kleines LLM im Opfer-Netzwerk aufgesetzt. Da zur Verteidigung eingesetzte Security-Systeme in dem Fall keinen auffällig großen Datenabfluss verzeichnen, bleibt so eine Attacke auch länger unbemerkt.
Welche indirekten Auswirkungen erwarten Sie für österreichische Unternehmen und Behörden?
Indirekt wird dadurch die Bedeutung der Einhaltung von Regelwerken wie DSGVO, NIS 2, DORA, Cyber Resilience Act oder AI Act vergrößert. Es sollten trotz aktueller Sparnotwendigkeiten genügend Ressourcen zur Verfügung gestellt werden, um ein hohes Maß an Cyberresilienz zu erreichen und zu halten. Dies betrifft sowohl den öffentlichen Bereich als auch die Unternehmen – hier zu sparen, kann recht schnell teuer werden. Mit der zunehmenden Verbreitung hochentwickelter KI-basierter Angriffe – sowohl durch kriminelle Gruppen als auch durch staatlich gesteuerte Akteure – wächst die Bedeutung echter Datensouveränität erheblich. Denn je stärker diese versuchen, Informationsflüsse zu manipulieren oder digitale Identitäten zu kompromittieren, desto wichtiger wird es für Unternehmen und Behörden, kritische Daten ausschließlich unter eigener rechtlicher und technischer Kontrolle zu halten. Lösungen, die auf klar definierte Zuständigkeiten, transparente Prozesse und vertrauenswürdige Infrastruktur setzen, schaffen hier einen entscheidenden Sicherheitsvorteil.
A-Trust verfolgt daher genau diesen Ansatz und betreibt sämtliche Server ausschließlich in Österreich – ein zentraler Faktor, um höchste Sicherheitsstandards, klare Rechtsrahmen und volle Kontrolle über sensible Daten zu gewährleisten.
Sie betonen, dass es derzeit an wirksamen Kontrollinstanzen für Künstliche Intelligenz mangelt. Wie müsste ein solches Kontrollsystem Ihrer Meinung nach aussehen, um tatsächlich Wirkung zu erzielen?
Der AI Act ist ein Schritt in die richtige Richtung, er stellt quasi ein Handbuch verantwortungsvoller KI-Nutzung dar. Zum Beispiel ist darin festgelegt, dass KI-Systeme mit hohem Risiko, etwa bei medizinischen Diagnosen, immer unter menschlicher Aufsicht arbeiten müssen. Das „Human in the loop“-Prinzip grundsätzlich schon von Anfang an im Entwicklungsprozess zu berücksichtigen, wäre für mich ein wichtiger Beitrag, einem Kontrollverlust zu begegnen.
Weiters sollten die Systeme für die Anwender:innen so transparent sein, dass auch Personen ohne besonderes technisches oder KI-Wissen nachvollziehen können, woher die Daten stammen und was dies für die Ergebnisse bedeutet. Hier kommen die KI-Kompetenzen ins Spiel:
Auch die breite Bevölkerung muss befähigt werden, Deepfakes zu erkennen, die Trainingsdaten-Basis zu hinterfragen, zu wissen, welche Gefahren aus einem etwaigen Bias entstehen – und im Fall des Falles Einspruch zu erheben. Diese Bildungsarbeit sollte schon in den ersten Schulstufen beginnen und Teil jedes Curriculums sein.
Gibt es noch weitere sensible Themen, vielleicht auch solche, die üblicherweise noch nicht genügend Awareness haben?
Ein weiteres, im Sinn einer ethischen Nutzung von KI hochbrisantes Thema sind beispielsweise autonome Waffensysteme (AWS). Hier konnte zumindest eine im Oktober 2024 unter anderem von Österreich eingebrachte Resolution einen ersten Impuls setzen. Sie wurde nach anfänglichem Widerstand – auch seitens einiger großer NATO-Staaten – von 161 Staaten angenommen und enthält zwar noch kein sofortiges Verbot oder spezifische Regulierungen für AWS, doch zumindest gibt es jetzt ein internationales Forum für weitere Diskussionen und Verhandlungen. Hier muss meiner Meinung nach intensiv weitergearbeitet werden. All diese bestehenden oder erwünschten Kontrollmechanismen haben jedoch keine Chance auf Wirksamkeit, wenn nicht der entsprechende politische Wille dahintersteht, die Regeln global durchzusetzen. Bis jetzt lassen sich viele große Player nämlich nicht davon beeindrucken.
Welche drei Sofortmaßnahmen sollten österreichische Unternehmen 2025 setzen, um sich gegen KI-gestützte Cyberangriffe zu schützen – und was wird in zwei bis drei Jahren zum Pflichtprogramm gehören, um im digitalen Raum überhaupt noch vertrauenswürdig agieren zu können?
Es sollten vor allem die sogenannten „low hanging fruits“ der Cybersicherheit in den Fokus genommen werden: Für Cyberkriminelle leicht zugänglich oder ausnutzbare Schwachstellen lassen sich oft auch mit einfach durchzuführenden Maßnahmen schnell beheben, um das Potenzial für erfolgreiche Angriffe zu verringern.Die kontinuierliche Schulung der Mitarbeiter:innen, übrigens auch in der Führungsetage, in Sachen Passwortsicherheit, Deepfake-Awareness-Training und KI-Kompetenzen sollte daher zum Alltag gehören. Was das gestiegene Potenzial für CEO-Fraud betrifft, sollten das 4-Augen-Prinzip oder Callback-Mechanismen für sensible Anfragen implementiert werden, um Tempo aus den Transaktionen zu nehmen und Zeit für das Hinterfragen von außergewöhnlichen Anweisungen zu schaffen. Auch das Authentifizierungsmanagement sollte auf die höchste Sicherheitsstufe gebracht werden. Einerseits verstärkt Zero Trust mit der kontinuierlichen Verifizierung, Authentifizierung und Autorisierung von Nutzer:innen und Geräten die Resilienz des IT-Systems, andererseits ermöglichen sichere Identifikations- und Signaturlösungen auch grenzüberschreitende digitale, rechtssichere Workflows. Als wesentliche Maßnahme, um im digitalen Raum vertrauenswürdig handeln zu können und als vertrauenswürdiger Partner wahrgenommen zu werden, sehe ich eine Zertifizierung nach international anerkannten Standards. Sei es eine ISO/IEC 27701-Zertifizierung rund um Anforderungen und Maßnahmen zum Schutz personenbezogener Daten, eine NIS2-Konformitätsprüfung oder TISAX® im Automotive-Bereich, jede Branche und jedes Unternehmen hat da individuelle Rahmenbedingungen und Möglichkeiten.
it&d business Redaktion





Kommentare