Ohne moderne Datengrundlage bleibt KI Stückwerk
- vor 4 Tagen
- 4 Min. Lesezeit
Manfred Traumüller, Geschäftsführer von HPE Österreich, und Dietmar Wiesinger, Vorstand bei CANCOM Österreich, im Business Leader Doppel-Interview über den aktuellen Stand der KI-Readiness bei Daten, über Strategien zur Datenmodernisierung und darüber, wie sie ihre Kunden bei deren Umsetzung mit den nötigen Technologien und Plattformen unterstützen.

KI ist in den Unternehmen angekommen. Viele Projekte aber bleiben hinter den Erwartungen zurück, weil die Datengrundlage nicht reif genug ist. Erst wer seine Daten vereinheitlicht, Silos aufbricht und eine skalierbare Infrastruktur vom Edge bis ins Rechenzentrum schafft, macht aus KI einen echten Business‑Beschleuniger. Davon sind HPE und CANCOM Austria überzeugt. Im Doppelinterview erklären Manfred Traumüller, Geschäftsführer von HPE Österreich, und Dietmar Wiesinger, Vorstand bei CANCOM Austria, wie sie Kunden auf diesem Weg begleiten – und welche Rolle High‑Performance‑Infrastrukturen bis hin zu Supercomputern dabei spielen.
Herr Traumüller, viele CIOs halten ihre Daten bereits für KI‑fähig. Wie realistisch ist dieses Selbstbild?
Manfred Traumüller: Wir sehen eine deutliche Lücke zwischen Anspruch und Wirklichkeit. Viele Unternehmen glauben, ihre Daten seien bereit für KI. In Wahrheit aber fehlt oft die Basis, nämlich eine konsistente, saubere und gut zugängliche Datengrundlage in der nötigen Breite und Tiefe. Das ist fatal, denn in der Folge starten KI-Projekte auf brüchigem Fundament. Nicht der Algorithmus ist also das Problem, sondern die Datenreife. Deshalb sagen wir ganz klar: Der erste Schritt zu erfolgreicher KI ist immer Datenmodernisierung.
Was heißt das ganz praktisch?
Manfred Traumüller: Datenmodernisierung heißt raus aus der Excel‑ und Insellösungs‑Logik, hin zu einer einheitlichen, unternehmensweiten Datengrundlage. Dazu gehört, Daten zu bereinigen, zu klassifizieren, mit Metadaten anzureichern und sie so zu organisieren, dass sie für KI‑Modelle überhaupt nutzbar sind.
Wenn ich meine Daten nicht kenne, nicht verstehe oder ihnen nicht traue, brauche ich über KI‑Mehrwert gar nicht zu reden.
HPE spricht von Data Fabric. Wie sieht so eine Zielarchitektur aus?
Manfred Traumüller: Statt alle Daten physisch in ein zentrales Monster‑System zu kippen, bauen wir eine logische Klammer darüber, eine Data Fabric. Sie sorgt dafür, dass Daten dort bleiben können, wo sie sinnvollerweise liegen, aber trotzdem wie aus einer Hand zugreifbar und nutzbar sind. Das können operative Systeme im eigenen Rechenzentrum und Analyse‑ oder KI‑Workloads in der Cloud sein. Entscheidend ist, dass die Fachbereiche eine konsistente Sicht auf ihre Daten bekommen, egal wo sie physisch liegen. Und wir schaffen mit Lösungen wie HPE GreenLake, HPE Data Fabric und modernem File‑ und Object‑Storage eine hybride Architektur, die sowohl die regulatorischen, als auch die Performance‑ und Kostenanforderungen abdeckt.
Herr Wiesinger, wo klemmt es in der Praxis am häufigsten?
Dietmar Wiesinger:
Die größten Stolpersteine sind selten rein technologisch. Es sind historisch gewachsene Silos. Jede Abteilung hat ihr eigenes Data Warehouse, eigene Definitionen, eigene Wahrheiten.
Klar, dass da der Gesamtblick auf Daten, Datenprozesse und Datenverantwortlichkeiten fehlt.
Unsere Rolle bei CANCOM Austria ist es, diese Komplexität zu sortieren und zu übersetzen. Wir bewerten gemeinsam mit dem Kunden den Reifegrad, definieren eine Zielarchitektur und leiten daraus eine realistische Roadmap ab. Technisch setzen wir dann diese Roadmap mit HPE‑Technologie um – von der Vereinheitlichung der Daten über die Infrastruktur bis hin zu konkreten KI‑Anwendungsfällen, etwa mit eigenen Lösungen wie unserem CANCOM Assistant.

Wie stark beeinflussen hier Regulierungen wie AI Act, Data Act oder NIS2 die Gestaltung moderner Datenplattformen?
Manfred Traumüller: Sehr stark. Und profitieren wird der, der diese Vorgaben als Chance und nicht als Bürde sieht. AI Act und Co. „zwingen“ Unternehmen, sich ernsthaft mit der Herkunft, Transparenz, Qualität und Zugriff von Daten auseinanderzusetzen. Genau das braucht es ohnehin, wenn man KI vertrauenswürdig einsetzen will. Reine Cloud-First‑Strategien geraten dabei an Grenzen. Daher kombinieren viele Kunden heute bewusst Private‑Cloud‑, Edge‑ und Public‑Cloud‑Ressourcen, um Souveränität, Performance und Wirtschaftlichkeit auszubalancieren. Mit HPE GreenLake können wir diesen hybriden Ansatz sehr gut abbilden: Die Daten bleiben dort, wo sie regulatorisch und fachlich hingehören, und die Kunden bekommen trotzdem die Flexibilität eines Cloud‑Betriebsmodells.
HPE baut einige der schnellsten Supercomputer der Welt. Wie zahlt diese HPC‑Kompetenz auf KI‑Projekte in der heimischen Wirtschaft ein?
Manfred Traumüller:
Wenn man Exascale‑Systeme für nationale Forschungseinrichtungen baut wie etwa El Capitan, Frontier oder Aurora in den USA oder Systeme wie LUMI in Finnland, dann lernt man sehr schnell, was es heißt, riesige Datenmengen mit maximaler Rechenleistung zu verbinden.
Genau diese Technologien sind heute auch die Basis für anspruchsvolle KI‑Workloads in heimischen Unternehmen. Niemand muss sich dafür einen eigenen Supercomputer ins Haus stellen, aber die Architekturprinzipien sind dieselben. Über HPE GreenLake können wir solche High‑Performance‑Ressourcen in konsumierbaren Modellen bereitstellen. Das heißt: Unternehmen profitieren von HPC‑Know‑how auf Weltspitzenniveau, ohne selbst in ein Mega‑Rechenzentrum investieren zu müssen.

Viele Unternehmen haben erste KI‑Piloten umgesetzt. Wie gelingt der Sprung von der Spielwiese zu mehr?
Dietmar Wiesinger: Das Kernproblem vieler Piloten ist, dass sie zwar durchaus erfolgreich sind, aber isoliert passieren. Ein Chatbot hier, ein kleiner Automatisierungs‑Usecase dort, sind gut. Wenn das aber alles auf unterschiedlichen Datenbasen und Technologien läuft, entsteht kein nachhaltiger Effekt.
Der Wendepunkt wird erst erreicht, wenn Unternehmen ihre KI‑Use Cases bewusst auf einer gemeinsamen Plattform und Datengrundlage planen.
Dann können Modelle, Daten und Services wiederverwendet und skaliert werden, statt jedes Mal bei praktisch Null zu starten.
Wie sieht also eine typische Roadmap aus, wenn ein Unternehmen sagt: „Wir wollen unsere Daten KI‑fit machen und in ein paar Jahren ein breites KI‑Ökosystem im Unternehmen haben“?
Dietmar Wiesinger: In der Umsetzung denken wir von Anfang an in Plattformen, nicht in Einzelprojekten. Wir realisieren erste, sichtbare Leuchtturm‑Usecases wie beispielsweise einen LLM‑basierten Assistenten oder Automatisierung im Service immer so, dass sie skalierbar sind und andere Bereiche nachziehen können.
Parallel dazu bauen wir Betrieb, Security und Monitoring auf, häufig in einem Shared‑Modell aus Kunden‑IT, CANCOM‑Services und einer HPE‑Plattform. Am Ende steht ein lebendes KI‑Ökosystem.
Woran werden Sie erkennen, dass österreichische Unternehmen beim Thema Datenmodernisierung und KI‑Readiness wirklich angekommen sind?
Dietmar Wiesinger:
Wir sind da, wo wir hinwollen, wenn Unternehmen nicht mehr nach einem KI-Tool, sondern nach dem konkreten geschäftlichen Mehrwert, den sie aus ihren Daten und KI holen können, fragen.
Wenn alle diese Richtung konsequent einschlagen, werden wir bald über österreichische Vorzeigeprojekte sprechen, die global als Benchmark gelten. Da will ich hin.
Manfred Traumüller:
Daten‑ und KI‑Strategie sind keine Dinge, die nur in der IT‑Abteilung diskutiert werden dürfen. Sie müssen fixer Bestandteil der Unternehmensstrategie mit klaren Verantwortlichkeiten auf Vorstandsebene werden.
Ich bin überzeugt, dass uns erst das dahinführt, dass wir dann in der Praxis einen echten Drive hin zu einheitlichen Datengrundlage spüren. KI wird dann in vielen Geschäftsprozessen verankert sein, neue datengetriebene Geschäftsmodelle werden. Und dann sind unsere heimischen Unternehmen nicht nur KI-ready, sondern auch bereit für die Zukunft.
it&d business Redaktion





Kommentare