Von: Stephanie Bergwinkl
Du arbeitest seit vielen Jahren an der Schnittstelle von Kognitionswissenschaft, Machine Learning und Künstlicher Intelligenz. Wann hat deine Faszination für KI begonnen? Mein Einstieg geht auf mein Studium der Informatik vor 20 Jahren zurück, in einer Zeit, als Suchmaschinen wie Google/Bing/Yahoo ihren Durchbruch hatten. Über das Studium der medizinischen Informatik kam ich direkt zu angewandten KI-Anwendungen in der Medizin, aber auch in anderen Domänen. 2010 bin ich in den Bereich automatisiertes Fahren mit dem Schwerpunkt Computergrafik eingestiegen. Generative KI gab es damals in der Form noch nicht, aber Deep Learning Methoden wurden bereits angewendet.
Mittlerweile bist du Vorstandsmitglied von Women in AI Austria. Wie bist du zu diesem Verein gekommen – und welche Rolle spielt ihr aktuell beim Projekt KRAISBAU?Ich war bei der Gründung des Vereins dabei, in den Vorstand kam ich dann 2022. Women in AI Austria will u.a. Frauen in der KI stärken und sichtbar machen. Zu Beginn ging es vor allem darum, eine kritische Masse an Menschen zu finden, die sich für das Thema KI in der Bildung, Forschung oder Ethik begeistern. Daraus entstand eine kleine Gruppe von etwa zehn bis fünfzehn Personen, die im Laufe der Zeit immer weiter gewachsen ist.Wir haben uns inzwischen bewusst von der internationalen Organisation gelöst, da wir sowohl finanziell als auch im Branding unabhängig sein wollen. In Österreich haben wir bereits ein Maß an Publizität aufgebaut und können eigenständig agieren.
Beim FFG-Projekt KRAISBAU unterstützen wir bei rechtlichen Fragestellungen sowie beim Wissenstransfer, um komplexe Inhalte verständlich aufzubereiten, d.h. Grafiken erstellen und unser Netzwerk einbringen. So helfen wir, die Baubranche für den Einsatz von KI zirkulär und nachhaltig zu öffnen.
In den letzten zwei Jahren hat das Thema durch Generative KI einen enormen Aufschwung erlebt. Das Interesse am Verein ist deutlich gestiegen, und viele unserer Mitglieder werden inzwischen regelmäßig angefragt.
Welche Risiken siehst du durch die rasante Verbreitung generativer KI?Ein zentraler Punkt sind datenschutzrechtliche Herausforderungen. Besonders problematisch ist, dass personenbezogene Daten, die einmal in Systeme gelangen, oft schwer wieder zu korrigieren oder zu entfernen sind. Das Recht auf Löschung gem. Art 17 der EU DSGVO ist in der Praxis bei KI-Systemen nur schwer durchsetzbar – einmal im System, bleiben Daten oft bestehen.
Ein weiteres Thema sind sogenannte Halluzinationen – also falsche oder erfundene Inhalte, die Large Language Models generieren können. Bei einem Reisevorschlag ist das vielleicht noch harmlos, wenn eine Sehenswürdigkeit empfohlen wird, die es gar nicht gibt. In sicherheitskritischen Bereichen kann das jedoch fatale Konsequenzen haben. Beispielsweise beim autonomen Fahren könnte etwa eine Halluzination falsch interpretiert werden, sodass das System glaubt, ein Objekt befinde sich auf der Fahrbahn. Das kann zu abrupten Bremsmanövern oder gefährlichen Ausweichmanövern führen.
Des Weiteren ist es wichtig, die Ergebnisse der KI generell immer im Gesamtkontext zu betrachten. In den Schulungen, die ich im Bereich AI Literacy unterrichte, betone ich oft: In Kombination mit der Generativen KI im Office Bereich sollte man den eigenen Menschenverstand ebenfalls einsetzen.
Gerade bei neuen KI-Systemen wie OpenClaw, die auf Daten am PC zugreifen, würde ich auch klar davon abraten, sie auf dem eigenen Gerät zu installieren – die Zugriffsrechte sind oft zu umfassend und kaum kontrollierbar. Eine Installation, die in Bezug auf Privacy empfehlen ist, ist jene mit einem Raspberry Pi.
Wird generative KI den Menschenverstand doch irgendwann ablösen?Ein mögliches Risiko im Aufkommen der GenAI besteht darin, dass künftig weniger Junior-Entwickler eingestellt werden. Generative KI kann bei grundlegenden Aufgaben bereits sehr gut unterstützen, hat jedoch wenig Domänenwissen. Das Problem ist jedoch: Wenn wir keine Juniors mehr ausbilden, fehlen uns später die Seniors und das Domänenwissen. Dieses baut sich jedoch nur auf, wenn Menschen tatsächlich in Projekten arbeiten und lernen können.
Deshalb möchte ich hervorheben, dass es zentral ist, dass Menschen lernen müssen, mit der KI und ihren Ausprägungsformen (derzeit die GenAI) zusammenzuarbeiten und sie sinnvoll zu nutzen.
Zurück zur Baubranche: Inwiefern können wir hier schon heute sinnvoll mit der KI zusammenarbeiten und sie nutzen?KI eröffnet der Baubranche heute vielfältige Möglichkeiten. Bestehende Systeme, etwa CAD-Programme, lassen sich durch generative KI intelligenter machen und Planungsprozesse deutlich beschleunigen.
Besonders spannend sind agentenbasierte Systeme: Dabei übernehmen autonome Softwareagenten selbstständig Aufgaben, treffen Entscheidungen und koordinieren Abläufe miteinander. Ein Agent könnte zum Beispiel die Materiallogistik planen, ein anderer Fristen überwachen, ein dritter die Arbeitsschritte auf der Baustelle abstimmen – während Entwickler nur die Rahmenbedingungen festlegen. So lassen sich Routineaufgaben automatisieren, ohne die menschliche Übersicht aus der Hand zu geben.
Auch im Bereich Materialien kann KI wertvolle Unterstützung leisten, etwa indem Baustoffe nachhaltiger hergestellt oder optimal kombiniert werden, um Ressourcen zu sparen.
Im Moment wird KI oft noch parallel genutzt – Planer rechnen im CAD-System und überprüfen die Ergebnisse zusätzlich mit KI-Tools. Vertrauen in die Systeme muss erst aufgebaut werden.
Ist die Baubranche in Österreich beim Thema KI eher Vorreiter oder Nachzügler?Tendenziell gehört die Baubranche derzeit eher zu den Nachzüglern. Im Forschungsbereich sehe ich jedoch großes Potenzial – und genau hier setzt auch das Projekt KRAISBAU an. Solche Projekte können zeigen, welche Möglichkeiten generative KI künftig bietet und wie man ihren Einsatz stärker sichtbar machen kann.
Auf der Baustelle selbst bleibt der Mensch unverzichtbar. Ich sehe noch nicht, dass ein automatisierter Presslufthammer über die Baustelle fährt.
Das wäre ein spannendes Bild - wie sollte sich die Entwicklung von KI aus deiner Sicht zukünftig gestalten?Für mich ist das zentrale Stichwort „Responsible AI“. Wenn wir KI-Produkte entwickeln, müssen wir Verantwortung übernehmen. Systeme müssen gesetzeskonform, ethisch vertretbar und technisch robust sein. Die menschliche Übersicht ist zentral: Menschen müssen jederzeit eingreifen können. Auch beim autonomen Fahren gilt etwa, dass Menschen letztlich die Kontrolle über das System behalten müssen – selbst wenn Fahrzeuge künftig vollständig automatisiert fahren, gibt es Personen, die über eine zentrale Leitstelle eingreifen können. Das gleiche Maß an Vertrauen, das wir heute dem Aufzug entgegenbringen, wird künftig ebenfalls im Bereich automatisierter Mobilität vorhanden sein. Die gesellschaftliche Akzeptanz spielt daher eine wesentliche Rolle. Selbst die beste Technologie wird sich nicht durchsetzen, wenn sie von der Gesellschaft nicht angenommen wird.
Und zum Schluss..was wünscht du dir für die Zukunft von Women in AI Austria?Ich wünsche mir, dass der Verein weiterhin wächst – und dass dieses Wachstum gut gesteuert wird. Wichtig ist, dass wir Menschen gewinnen, die sich für unsere unterschiedlichen Kernthemen engagieren.
In unseren Arbeitsgruppen steckt sehr viel ehrenamtliche Arbeit. Deshalb ist es entscheidend, die vorhandenen Kräfte zu bündeln und Frauen im Bereich KI nachhaltig zu unterstützen und zu fördern.
Dr. DI. Mag. Isabella Hinterleitner M.Sc. studierte Kognitionswissenschaften an der Universität Wien sowie Informatik und Elektrotechnik (Doktorat) an der TU Wien. Sie unterrichtete an mehreren Fachhochschulen und gründete 2020 das Unternehmen Tech meets Legal, das technische Anforderungen mit dem juristischen Rahmenwerk in Innovationsprojekten zusammenbringt. Zudem ist sie Vorstandsmitglied von Women in AI.