KI: Chance mit Nebenwirkungen?
Shownotes
Die Zeiten, in denen dem Begriff der Künstlichen Intelligenz etwas Geheimnisvolles, geradezu Mystisches anhaftete, scheinen passé zu sein. Mittlerweile sind KI-basierte Algorithmen zu gewöhnlichen Akteuren geworden, die den privaten und beruflichen Alltag von Menschen maßgeblich beeinflussen. Und die Fachleute sind sich einig: Künstliche Intelligenz ist gekommen, um zu bleiben.
Weniger Konsens herrscht bei der Frage, ob KI als Segen oder als Fluch zu betrachten ist. Deutlich werden die unterschiedlichen Beurteilungsweisen etwa bei der Betrachtung der Wirkung, die der Einsatz von KI auf die Arbeitswelt hat. Während die einen Effizienzgewinne und wachsende Produktivität ins Treffen führen, warnen andere vor den Folgen von Massenarbeitslosigkeit, wenn intelligente Maschinen menschliche Arbeitskraft obsolet machen. Wie widersprüchlich KI in der österreichischen Unternehmenswelt wahrgenommen wird, zeigt beispielhaft der aktuelle Allianz Risk Barometer 2026. Die Befragung von 3.300 Risikomanagement-Experten ergab, dass Unternehmen KI zunehmend nicht nur als eine leistungsstarke strategische Chance sehen, sondern auch als eine komplexe Quelle für operative, rechtliche und Reputationsrisiken.
Welche konkreten Risiken bestehen bei der Implementierung von KI in Geschäftsprozesse? Wie können Unternehmen unterstützt werden, um KI-Lösungen zu entwickeln, die den regulatorischen Anforderungen entsprechen und gleichzeitig zuverlässig, robust und zukunftssicher sind? Welche Rolle kommt Regelwerken wie dem EU AI Act zu? Antworten auf diese und andere Fragen gibt im Presse-Podcast Stefan Haas, CEO des TÜV Austria.
Das Interview führt Christian Lenoble.
Transkript anzeigen
00:00:00: Dieser Podcast wurde mit Unterstützung unseres Werbepartners finanziert.
00:00:09: Immer wenn eine neue Technologie eingeführt wurde, haben sich zwar Jobprofile verändert, aber letztlich in Summe ist die Beschäftigung deutlich gestiegen und wir haben heute auf dieser Welt viel mehr Beschäftigung als jemals in der Vergangenheit war und es wird auch mit Kai so sein.
00:00:25: Obwohl künstliche Intelligenz enorme Potenziale für Wachstum, Produktivität und Innovation bietet, sind viele Unternehmen bei ihrem Einsatz noch zurückhaltend.
00:00:36: KI gilt schließlich nicht nur als Enabler, sondern auch als Risikofaktor.
00:00:43: Im Presse-Podcast betont Stefan Haas, CEO des TÜV-Ausdreher, die Bedeutung der Aufgabe, neue Technologien sicher verfügbar zu machen.
00:00:54: Ein Gespräch über die Gründe von scheiternen KI-Projekten, notwendigen Regulierungen, die Veränderungen des Arbeitsmarktes
00:01:02: und
00:01:03: eine Abschlussfrage.
00:01:05: Wo ist der Platz des Menschen in einer von KI bestimmten Zukunft?
00:01:10: Das Interview führt Christian Lénobel.
00:01:15: Die Zeiten, in denen dem Begriff der künstlichen Intelligenz etwas Geheimnisvolles und geradezu mystisches Anhaftete, die scheinen passé zu sein.
00:01:24: Mittlerweile sind KI-basierte Algorithmen zu gewöhnlichen Akteuren geworden, die unseren privaten und beruflichen Alltag maßgeblich beeinflussen.
00:01:32: Und man ist sich allseits einig, künstliche Intelligenz ist in diese Welt gekommen, um zu bleiben.
00:01:38: Wo weniger Konsens herrscht, ist die Frage, ob KI die Welt als Segen oder als Fluch heim suchen wird.
00:01:45: Und wovon es abhängig sein wird, wie wir das in der Zukunft trückblickend beurteilen werden, das ist das zentrale Thema unseres heutigen Podcasts.
00:01:53: Ich darf dazu im Präsitonstudio Stefan Haas, CEO des TÜV Austria begrüßen.
00:01:58: Herr Haas, schön, dass Sie da sind.
00:02:00: Vielen Dank, Herr Lobe, für die Einladung.
00:02:02: Ich freue mich schon sehr auf das heutige Gespräch.
00:02:04: Herr Haas, ich habe die zunehmende Allgegenwertigkeit von künstlicher Intelligenz angesprochen.
00:02:09: Im privaten Bereich ist das Filme schon sehr bewusst, also spätestens seit dem Siegelszug von JetGPT.
00:02:15: Was mich interessiert, ist, wie das aus Ihrer Sicht in der Welt der Unternehmern aussieht, vielleicht besonders in Österreich, in welchen Branchen und Bereichen ist künstliche Ent- Diligenz besonders stark schon im Einsatz.
00:02:29: Welche werden in naher Zukunft erobert werden und wo bleiben noch Flächen, wo nur die menschliche Intelligenz vordergründig ist?
00:02:37: Vielen Dank für die Frage, Herr Lenobe.
00:02:39: Ich glaube, man müsste vielleicht anders stellen, wo wird den Künstlichen Diligenz noch nicht eingesetzt oder wird nicht eingesetzt werden.
00:02:47: Diese Liste ist nämlich dann sehr, sehr kurz, weil auch wenn es vielleicht gar nicht in Bewusstsein richtig angekommen ist, KI wird in vielen Bereichen als aktiv verwendet.
00:02:57: Ob die Unternehmer das jetzt wollen oder nicht, die Mitarbeiter verwenden es ohnehin für verschiedene Dinge.
00:03:02: Dokumente übersetzen, Dokumente zusammenfassen, Sprachübertragung in Schriftform.
00:03:10: Es gibt verschiedene Anwohner, die werden sowieso gemacht.
00:03:12: Auch das Generieren von Texten findet alles statt.
00:03:16: Weil es gilt für KI genau das, was für jede andere neue Technologie auch gilt.
00:03:21: Sie wird sowieso verwendet.
00:03:23: Ob sie das jetzt wollen oder nicht, sie wird eingesetzt werden.
00:03:26: Die Frage ist immer nur, wie wird sie eingesetzt?
00:03:28: Und ich glaube, deswegen stimmt das, was Sie gesagt haben, in hohem Maße.
00:03:33: KI ist gekommen, um zu bleiben.
00:03:35: Und auch wenn man es nicht für richtig hält, KI, ist es trotzdem notwendig, sich damit zu beschäftigen, weil wir kommen eben daran nicht vorbei.
00:03:44: und sollten uns genau damit beschäftigen, wie kann ich KE sicher und vernünftig einsetzen?
00:03:50: Das wird auch ein zentraler Aspekt unseres Gesprächs heute sein.
00:03:53: Ich bin bei der Recherche auf ein paar interessante Studien gestoßen, wo sich ein Widerspruch aufgetan hat, weil auf der einen Seite wird überall beschworen, dass künstliche Intelligenz die Industrie revolutioniert, oder dass es zumindest das Zeug dazu hat, also das gesamte Wirtschaftsleben, nicht nur die Industrie.
00:04:09: Die Realität zeigt gleichzeitig, dass die meisten KI-Projekte, aktuelle ihre Potenziale noch nicht entfalten können.
00:04:17: Also es gibt dazu erstaunliche Zahlen von aktuellen Studien, von der US Denkfabrik Brand Corporation, von Frauenhofer McKinsey oder den MIT, demnach scheitern auf Unternehmensebene achtzig Prozent aller KI-Projekte.
00:04:31: Und wenn man von generativer KI spricht, dann sind sogar ninety-fünf Prozent.
00:04:37: Wie ist das zu erklären?
00:04:38: Wirkt ein bisschen paradox auf mich.
00:04:40: Auf den ersten Blick mag das Paradox erscheinen, ist aber nichts anderes als die Geburtsfähnhalt bei der Anwendung einer neuen Technologie, wo man eben in der Anwendung nicht ganz sicher ist.
00:04:53: Jetzt gerade ist.
00:04:53: sehr, sehr kürzlich hat auch die Allianz das letzte Risikoparometer veröffentlicht.
00:04:59: Da wurden soweit ich weiß über zwei tausend Unternehmenslänger weltweit befragt, welche Risiken sie für Beton besonders gefährlich halten.
00:05:08: und Nummer zwei bei allen Risiken ist bereits KI und damit sind nicht nur KI generierte Cyber-Taken gemeint, sondern Reputationsschäden durch den falschen Einsatz von KI, finanzielle Schäden durch den falschen Einsatz von KI oder auch Sicherheitsprobleme durch den Einsatz von KI.
00:05:28: Also es wird mittlerweile genau diese Komponenten auch sehr, sehr intensiv wahrgenommen.
00:05:34: Und das ist ein guter Zeitpunkt, darüber nachzudenken.
00:05:37: Woran liegt es denn, dass die Anwendung dieser KI in manchen Fällen eben so schwierig ist oder nicht zum Gewünschten?
00:05:46: Ergebnis führt.
00:05:47: Vielleicht können wir das ein oder andere Beispiel mal miteinander erörtern, damit das etwas Gegenständiger wird.
00:05:54: Ich nenne also keine Namen, weil ich glaube, das geht jetzt an der Stelle doch dann deutlich zu weit.
00:06:00: Diejenigen, die sie mit dem Thema beschäftigen, kennen das ohnehin.
00:06:04: Sie hatten die LLMs angesprochen, dass beim Einsatz der LLMs halt die Trefferquote besonders klein ist.
00:06:11: Und es hat verschiedene Gründe.
00:06:13: Ein LLM-Large-Language-Models.
00:06:15: Genau, danke für die Erläutung.
00:06:16: Die LLM-Language-Models sind dafür generiert worden, dass man damit Sprachausgraben leisten kann.
00:06:27: Das heißt, diese LLMs überlegen sich, was ist das wahrscheinliche nächste Wort in einer Sprachausgabe, dafür sind sie gebracht und werden trainiert mit typischer Weise irgendwelchen Quellen, die aus dem Internet entnommen werden, die müssen aber nicht alles sachlich richtig sein und sie sind nicht spezifisch.
00:06:45: Wenn Sie dann so ein LLM dazu verwenden, um als Expertensystem zu arbeiten, dann kann schon das eine oder andere auch schiefgehen.
00:06:53: Zum Beispiel ist es vorgekommen, dass ein Anwalt eine gerichtliche Eingabe gemacht hat, die er mit KI generiert hat und hat dort entsprechende Präzidenzfälle zitiert, die es einfach gar nicht gibt.
00:07:07: Und abgesehen davon, dass das natürlich dann zu keinem Erfolg führt, also die Eingabe wird dann wohl nicht berücksichtigt.
00:07:14: Es führt natürlich auch zu einem enormen Reputationsschaden.
00:07:17: Also wie plammabel kann das sein für einen Anwalt, wenn Präzidenzfälle eben erfunden werden in einer Eingabe?
00:07:24: ist aus meiner Sicht die klare Konsequenz daraus, dass sie ein LLM dafür verwendet haben, wofür es einfach nicht gebaut wurde.
00:07:31: Man nennt dieses Faktum das Halluzinieren.
00:07:34: Das Large Language Model wird nie zugeben, dass es das nicht weiß, sondern wird einfach eine sprachlich richtig klingende Antwort ausgeben, auch wenn es kompletter Umfug sein könnte.
00:07:45: Oder ein anderes Beispiel, das auch durch die Medien gegangen ist, ein großes internationales Beratungsunternehmen.
00:07:51: bei einem Beratungsreport offensichtlich auch Krieg eingesetzt und dort kam es auch zu völlig falschen Zitaten, was dann aufgefallen ist.
00:08:00: Und abgesehen davon, dass es einen finanziellen Schaden gab, weil der Kunde natürlich mäßig begeistert war darüber, dass das Ergebnis inhaltlich nicht ganz richtig ist, ist es natürlich auch ein fundamentaler Reputationsschaden, wenn sie als Berater gerufen werden und das, was sie abgeben.
00:08:19: Weißt halt Fehler auf, weil sie KI einsetzen und das nicht Qualität sichern.
00:08:24: Das ist schon eine Schlappe.
00:08:25: Die muss man sich nicht unbedingt leisten wollen.
00:08:28: Oder vielleicht noch ein Beispiel aus einer anderen Ecke.
00:08:32: Open Source Anwendungen in der Software sind durchaus weit verbreitet.
00:08:36: Und da kommt jetzt immer wieder vor, dass Fehlermeldungen von KI-Bots generiert werden.
00:08:43: Und da Open Source Entwickler wird dann mit solchen Fehlermeldungen konfrontiert, die inhaltlich völlig falsch sind.
00:08:49: und wo es eine ganze Zeit lang dauert, um herauszufinden, dass das überhaupt so ist.
00:08:55: Und mit dem Generierer dieser Fehlermeldungen kann man dann auch gar nicht wirklich etwas im verachtlichen Diskurs lösen, weil da ist ein KI-Bot dahinter, mit dem eben ein Austausch nicht möglich ist.
00:09:06: Und dieses automatisierte Erstellen von Dingen ohne Qualitätskontrolle kann halt zu völlig unnötigen Aufwänden führen und bietet halt an der Stelle ein entsprechendes Risiko.
00:09:17: Man nennt übrigens dieses Halluzinieren teilweise auch umgangsspartlich den sogenannten KI.
00:09:22: Gutsch, also im Wiener Raum ist das ein Begriff, den man glaube ich gut kennt.
00:09:27: Gutsch, weil es eben völlig amorf ist, das hat keinen fachlichen Bezug.
00:09:32: Es klingt irgendwie passend, ist aber eben teilweise den Haaren herbeigezogen und für Unternehmern ist sowas natürlich schwierig, weil inhaltlich falsche Dinge zu verwenden, kann eben ein Reputationsrisiko auslösen, kann auch ein finanzielles Risiko auslösen.
00:09:51: Und außerdem haben diese KI-Modelle auch die Angewohnheit, dass sie halt unrefliktiert Datenquellen anzapfen, ohne eben die Quelle möglicherweise zu nennen.
00:10:01: Dann kann es auch zum Verletzen von Corporate kommen, durch Verwendung von Bildern, Videos, Textbausteinen, die eben geschützt sind.
00:10:10: Hodermann kann eben auch gegen Vertraulichkeitsvereinbarungen verstoßen, weil man Dinge veröffentlicht, die eigentlich einer Vertraulichkeitsvereinbarung unterliegen.
00:10:20: Und das sind riesig die Unternehmen eben sehen und deswegen hier sehr sehr vorsichtig sind, was den Einsatz betrifft.
00:10:28: Zum Verständnis sind die Probleme, die Sie jetzt angesprochen haben, sozusagen technischer Natur, weil die LLM-Models schlecht gebaut wurden.
00:10:35: oder hat es viel mehr damit zu tun, dass auf unzureichende Datensätze zurückgegriffen wird, weil das war ja dann wieder ein typisches Problem bei der Anwendung, bei KI-Anwendungen, dass gar nicht die ausreichenden oder die richtig guten Daten zur Verfügung stehen, um etwas Sinnvolles daraus zu formulieren.
00:10:52: Vielen Dank für die sehr, sehr wichtige Frage, Herr Le Nube.
00:10:56: Wenn man sich überlegt, wofür sind diese LLMs gebaut worden und wofür werden sie verwendet, sieht man, dass ja eine große Diskeband ist.
00:11:04: Die LLMs sind eben sehr genierliche Modelle, die sollen sonst alles können.
00:11:09: Und da gibt es halt diesen klassischen Grenzübergang.
00:11:12: Wenn etwas alles kann, kann es halt dann alles nicht sehr gut.
00:11:16: Wenn Sie eine spezielle Expertise benötigen, dann müssen Sie halt ein System entsprechend trainieren.
00:11:22: die LLMs, wie JGPD, ente Like, wenn sie allgemein an Daten gefüttert, mit Unmengen von Daten und können dann sprachlich richtige Antworten geben, aber sie sind halt keine Experten in einem bestimmten Anwendungsfall.
00:11:37: Was möchte ich damit sagen, wenn Sie zum Beispiel eine spezifische Aufgabe haben, wie zum Beispiel das Extrahieren von Informationen aus Dokumenten, die einen bestimmten Klasse unterliegen, dann sollten sie auch ein LLM einsetzen, das genau mit solchen Daten trainiert wird.
00:11:54: Also wir in unserem Unternehmen setzen solche Dinge ein, aber das LLM, das wir verwenden, ist halt dann ausschließlich mit diesen Daten dieser Klasse trainiert, darauf spezialisiert.
00:12:05: Wenn sie so ein Descan sonst nicht, aber das, was es tun soll, dafür ist es halt wirklich geeignet und liefert dann auch entsprechend passende Antworten.
00:12:14: Das heißt, es ist eben nicht so, dass man künstliche Intelligenz als ein allgemeines Werkzeug verwendet, sondern das ist nur der Oberbegriff für ganz speziell spezifisch gebaute Tools, die dann auch für die richtige Aufgabe verwendet werden sollen.
00:12:28: Und da gibt es offensichtlich... Auch ein größeres Problem, weil trotz aller Versprechungen von gesteigerter Effizienz und erhöhter Wettbewerbsfähigkeit, wenn man KI einsetzt, ist es ja so, dass bei vielen Unternehmer noch eine Vornehmend Zurückhaltung herrscht dabei, die offensichtlich auch auf die Fondsicherung zurückgeht.
00:12:48: Nicht zu wissen, ist das das richtige KI-Tool, leistet das wirklich das, was es ist.
00:12:54: verspricht, halluziniert es oder nicht, also all das, was Sie angesprochen haben.
00:13:00: Erklärt das diese Zurückhaltung beim Einsatz oder ist es einfach auch mangelnder, gut teilweise Unternehmertum, bis sich der Dinge in Österreich speziell?
00:13:11: Also ich denke, es ist ein gesunder Mix aus all diesen Themen.
00:13:15: Ein LLM, das allgemein trainiert wurde, kann halt spezifisch keine brauchbaren Antworten liefern, weil wir sind von der allgemeinen künstlichen Intelligenz, die mir wieder mal zitiert wird, aus kurz vor der Tür stehen, sind wir noch ein schöner Stück entfernt.
00:13:29: Der Mensch mit seiner Art der Intelligenz ist sich mit der Lage, verschiedenartigste Aufgaben zu erfüllen, auch wenn sie völlig neuartig sind.
00:13:38: Und davon ist die KI, wie sie heute verwendet wird, noch ein schöner Stück entfernt.
00:13:43: Deswegen braucht es eben die Spezialisierung auf einen bestimmten Anwendungsfall.
00:13:48: Und viel von den Enttäuschungen und dem Scheitern von KI-Bäuchten geht auch zurück, dass man sich dessen halt möglicherweise nicht klar gewößen ist, wie man die KI-Anwendung überlegt hat.
00:13:59: Deswegen kann man nur dringend empfehlen, bevor man sich mit dem Anwenden von KI beschäftigt, sollte man mal ganz klar definieren, was möchte man überhaupt haben, was ist sozusagen der Anwendungsfall und was auch nicht.
00:14:12: und dann dafür entweder das richtige Tool suchen, auswählen, wenn es dafür schon eines gibt, oder wenn man einen Spawn lässt, es dann auch genau für diesen Anwendungsfall zu bauen.
00:14:23: Das ist so, wie wenn Sie ein Werkzeug suchen, wenn Sie ein Loch irgendwo bohren wollen in Holz, nehmen Sie wahrscheinlich keinen Radiergumme, das ist nicht das richtige Werkzeug.
00:14:34: Kann vielleicht auch gehen, wenn Sie viel Zeit haben und viele Radiergummes, aber es ist jedenfalls nicht das richtige Werkzeug.
00:14:40: Und deswegen braucht es hier die passende Auswahl, dann gehen die Dinge auch leichter mit einer höheren Erfolgswahrscheinlichkeit.
00:14:46: Jetzt geht es nicht nur darum, dass man das richtige KI-Werkzeug findet, sondern es geht auch darum, dass man ein Umfeld schafft, indem man ein sicherer und vertrauenswürdiger Umgang damit möglich ist.
00:15:00: Das heißt, man braucht einen Rechtsrahmen.
00:15:02: Das ist das, was man in Europa versucht mit dem EU-EI-Akt, der offensichtlich gleichzeitig für einige eine Abschreckung ist, weil eine große Herausforderung als Rechtsrahmen.
00:15:14: Die Idee dahinter ist ja eine Heere.
00:15:16: Also man will sozusagen eine sichere, vertrauenswürdige KI schafft.
00:15:20: Man will die Risiken minimieren, die Grundrechte schützen und noch dazu Innovationen fördern.
00:15:26: Alles auf einmal, es geht um einheitliche Regeln und Europa soll gewissermaßen so ein Vorreiter für verantwortungsvolle KI sein und will sich hier positionieren.
00:15:36: Die andere Sicht der Dinge ist, dass hier schon wieder überbordende Regulierung am Werk ist und dass man gerade in so einer Innovation sei.
00:15:44: Auf jedem Bereich wieder künstlichen Intelligenz, vielleicht nicht gut daran tut es zu limitieren, noch dazu in der Expansionsphase.
00:15:51: Wie ist da Ihre Sicht der Dinge darauf?
00:15:54: Sie sehen mich mit einem gewissen Amelie Small, weil die Diskussion in Europa über die Überboden der Regulierung ist ja eine epische.
00:16:02: Sie können ja keine Tageszeitung aufschlagen, ohne dass das vorkommt, sehr prominent.
00:16:07: Da ist es wichtig, dass man mal einen kleinen Validity-Check macht, insbesondere zum Thema KI.
00:16:13: Es gibt nämlich auch in den Vorreiter-Märkten, die immer wieder mal als die die leuchtenden Beispiele anwählen, selbstverständlich Regelungen für die Anwendung von KRE, ob das jetzt die USA sind, ob das jetzt China ist oder ob das Indien ist.
00:16:26: Selbstverständlich gibt es dort ebenfalls Regeln.
00:16:29: Eigentlich sogar schon mehr als in Europa, weil der EIEG ist ja ein wenig verschoben worden und ein wenig zahnloser geworden.
00:16:36: Also es entspricht einfach nicht der Realität, dass nur die Europäer sich überlegen, wie sie die Dinge regulieren können.
00:16:44: Und warum ist es so, weil es jeden klar ist, dass diese Technologie auch einen entsprechenden Rahmen braucht, damit man sie vernünftig einsetzen kann.
00:16:52: Und nichts anderes versucht der EIK letztlich zu tun.
00:16:55: Zum Thema Rechtsrahmen.
00:16:57: glaube ich, ist ein Grundsatz mal wichtig zu verstehen, dass derjenige, der Karri einsetzt, in welchem Kontext auch immer für das Ergebnis auch entsprechend haftbar ist.
00:17:08: Das ist eigentlich eine Selbstverständlichkeit.
00:17:10: Das würde nämlich völlig unabhängig von dem Werkzeug für alles andere auch gelten.
00:17:15: Und es gilt natürlich auch für Karri.
00:17:17: Also wenn Sie das einsetzen, sind Sie als derjenige, der es einsetzt, dafür voll und ganz haftbar.
00:17:22: Gibt es auch schon entsprechend aussudizierte Beispiele dafür, Wenn Sie ein Chatbot verwenden, um irgendwelche Analysen zu machen oder wenn Sie ein Beurteilungssystem mit KI verwenden, dass verschiedene Anträge dann gegeneinander gewichtet und das liefert dann eben nicht unparteiische Ergebnisse und Sie diskriminieren jemanden, sehen Sie dafür voll und ganz juristisch verantwortlich und kraftbar.
00:17:49: Und ich denke, das ist auch gut und wichtig so.
00:17:51: Also jedes Tool, das Sie einsetzen, Befreit Sie nicht von der Verantwortung dafür, dass Sie letztlich derjenige sind, der es verwendet.
00:18:00: Es geht immer um den, der das Tool einsetzt, sondern nicht um das Tool selbst.
00:18:03: Und deswegen, glaube ich, ist es nur wichtig und aus meiner Sicht unverzichtbar, dass es dafür auch einen entsprechenden Rechtsnamen gibt.
00:18:10: Der soll letztlich dabei helfen, dass man diese neue Technologie auch sicher und vernünftig einsetzen kann.
00:18:18: Und wenn Sie sich den E-Akt im Detail ansehen, gelten ja die wirklich Taffenanforderung nur dort, wo es wirklich um Hochrisikothemer geht, wo es um persönliche Sicherheit geht.
00:18:31: Solche Themen für einfache Anwendungen ist es letztlich kein besonders schwierig zu erfüllen, das Rechtskonstrukt, sondern Herstellererklärungen, die abzugeben sind etc.
00:18:45: Das sehe ich also die große Mühe nicht und ich denke daher, dass die Diskussion darüber teilweise ein wenig fehlgeleitet ist.
00:18:54: Unternehmen würden nämlich heute schon gut beraten sein, wenn sie sich den Grundgedanken, die sie eignen, zu eigen machen und die KI-Anwendungen, die verwendet werden, eben so einsetzen, dass sie diesem Rechtsrahmen nicht sprechen.
00:19:07: Mit dem Grundverständnis, ich bin dafür haftbar, wenn ich es einsetze, mit all den Konsequenzen, die das hat.
00:19:14: Und wenn das so ist, sollte ich mir eben alle Mühe geben, dass ich so einsetze, dass ich möglichst kein Risiko auslöse damit.
00:19:21: Also kein Risikensinn von Sicherheit, kein Risikensinn von Verletzten, von Besönlichkeitsrechten, von Diskriminierung etc.
00:19:29: Ich denke, es ist ein Selbstverständnis eigentlich und der EIG soll eigentlich nur helfen dabei, dass man genau das erfüllen kann.
00:19:35: Das heißt, diejenigen, die sich darüber beschweren, dass eine übermaßten Regulierung sozusagen die Freiheit, die Freiheit der Innovation beschränkt, denen kann sozusagen entgegnet werden, dass sie auf dem Holzweg sehen ist, ist das das genaue Gegenteil, weil wenn es um Haftbarkeit geht, dann sprechen wir ja auch von der Freiheit, nämlich von der Freiheit nicht geschädigt zu werden, zum Beispiel, das heißt, der Rechtsrahmen sollte eigentlich die Freiheit erhöhen und sie nicht beschränken, wenn ich das richtig verstanden habe.
00:19:59: Eigentlich jeder Rechtsrahmen, den es einführen, bietet mehr auch Rechtssicherheit für alle Akteuren gerade.
00:20:05: für die Unternehmern, die eben Karriereinwendungen einsetzen.
00:20:08: Sonst kann es in einem schlimmsten Fall passieren, dass sie irgendetwas einsetzen.
00:20:13: Es gibt keinen Rechtsrahmen dafür, keine Regeln und sie sind voll und ganz verantwortlich und haftbar dafür und haben auch nichts, auf das sie sich referenzieren können.
00:20:21: Wenn es aber einen Rechtsrahmen gibt, den sie erfüllen, ist es dann zumindest nach europäischen Recht entsprechend schuldbefreiend.
00:20:28: Das ist also in Wirklichkeit die Möglichkeit für Unternehmern sich halt auf sicherem Gelände zu bewegen.
00:20:34: Und man sollte das immer sehen, als das Spiel auf einer Waage, da gibt es immer zwei Waagschalen, auf der einen Seite die unendliche Freiheit, ich kann machen, was ich will, aber dann habe ich auch das entsprechende Risiko dabei, weil ich bin für alles, was ich tue, voll und ganz verantwortlich.
00:20:49: Oder ich habe einen Rechtsrahmen und wenn ich den Einhalte, bin ich halt juristisch auf der sicheren Seite und kann das Risiko dort entsprechend minimieren.
00:20:57: Und genau das ist das europäische Verständnis von Rechtsrahmen und vom wirtschaftlichen Agieren.
00:21:03: Und ich glaube, das ist das richtige System, wenn sie so wollen, dass sich gut bewährt hat.
00:21:08: Übrigens, selbst die großen Verfechter, da künste ich mich nicht mehr, inklusive dem Chef von Open AI, die schreien nach einer Regulierung, weil sie genau wissen, dass ihnen dieses Rechtskontrukt, wenn es eine Regel gibt, nur helfen kann dabei, weil die Riesigen sehen sie nämlich selber auch.
00:21:25: Also selbst die größten Verfechter der KI wollen gerne entsprechende Regeln, weil sie sie für absolut notwendig und verzichtbar halten.
00:21:33: Sie haben vorher angesprochen, dass Europa ja nicht der einzige oder erste Kontinent ist, der hier für einen Rechtsrahmen sorgt und dass es sowohl in den USA und in China auch gewisse Regelungen gibt, um das Ganze zu limitieren.
00:21:47: Was ist das Besondere am europäischen Modell, wie unterscheidet sich es?
00:21:53: Ich glaube, in Europa leiden wir unter dem Thema, dass wir oftmals großartige Ideen haben.
00:21:57: Also, wie wir Dinge organisieren wollen, nur bei der Umsetzung sind wir beteiligerweise nicht so schnell und nicht so konsequent.
00:22:05: In Kinder zum Beispiel beschäftigen wir sich schon mit der normativen Auswingung von Dingen, über die man in Europa erst diskutiert.
00:22:11: Also wie zum Beispiel... Adversarial Attacks bei KI-Systemen.
00:22:17: wie das normativ zu behandeln ist, darüber wird in Europa noch nicht einmal begonnen zu sprechen.
00:22:22: Es gibt zwar wie uns genauso die Technik ist die gleiche, aber das sind die Normungsfragen in China als wesentlich weiter.
00:22:28: Da sind die Chinesen wesentlich konsequent unterwegs und beschäftigen sich damit einer viel viel höheren Geschwindigkeit.
00:22:35: Da gibt es weniger Abstimmungsbedarf unter den Ländern, wenn sie so wollen.
00:22:39: Das ist hier ein Vorteil, aber man nimmt diese Themen zumindest genauso ernst in Europa und ist deutlich weiter, wenn es um die normativen Vorgaben geht.
00:22:48: Ist das also auch nur ein Vorteil oder ein Klischee, dass man in Europa darauf pocht, diejenigen zu sein, die sozusagen die ethische und moralische Komponente mit einbringen?
00:22:58: und was sind... China, weil es ist gerade angesprochen, haben vielleicht nicht so der Fall ist und was uns dann daran auch hindert, das so schnell voranzukommen wie andere, die gerne dem Moral außer Acht lassen können.
00:23:10: Ist das ein Vorurteil oder sehen Sie das bestätigt?
00:23:14: Sind die auf den China?
00:23:15: Das
00:23:16: stimmt.
00:23:16: Es ist jetzt ein schwieriges Thema, das mit KI nur bedingt zu tun hat.
00:23:20: Bleiben wir mal bei dem Thema... Bezogen
00:23:21: auf die künstliche Intelligenz und bezogen auf die Rechtsrahmen, die es in den jeweiligen Ländern gibt.
00:23:26: Bleiben wir mal bei dem Thema KI.
00:23:29: Da waren die Europäer Vorreiter, wie es darum gegangen ist, dass man einen Rechtsrahmen mal definiert.
00:23:34: Bei der Umsetzung sehen wir aber nicht mehr Vorreiter, weil es in Europa einfach deutlich länger dauert als zum Beispiel in China.
00:23:41: Und der Europäer neigt dazu, gerne den Zeigefinger zu erheben und den anderen mitzuteilen, was dort alles nicht so richtig funktioniert.
00:23:50: Da sollte man auch immer die Perspektive finden, dass was aus europäischen Verständnis vielleicht nicht gut ist, mag aus chinesischem oder amerikanischem Verständnis völlig anders zu bewerten sein.
00:24:03: Und man muss immer vorsichtig sein, dass man das eigene Wertegerüst zum universell gültigen Modell macht.
00:24:09: Ich glaube, das ist ein glattes, auf das man sich nur bedingt begeben sollte.
00:24:13: Das möchte ich jetzt auch ausklammern.
00:24:16: Wenn man sich auf die technischen Aspekte konzentriert und die sind überall auf der Welt genau die gleichen, muss man neidlos anerkennen, dass die Chinesen selbstverständlich erkannt haben, dass es da einen Regelungsbedarf gibt und das sind mit ganz anderer Geschwindigkeit dabei, den zu schließen.
00:24:31: Heißt das das Stichwort der verantwortungsvollen KI, dass Europa da keinen Anrecht hat auf ein Alleinstellungsmerkmal?
00:24:40: Nein, schon gar nicht.
00:24:40: Wir müssen ja auch neidlos anerkennen, dass in anderen Geografien zum Thema KI mit deutlich mehr Mittel und deutlich mehr Elanforschung betrieben wird.
00:24:51: Also wir sind hier in Europa nicht Vorreiter, wenn es um generative KI geht.
00:24:57: Wir haben zwar einige Forschungsaktivitäten in diese Richtung, aber das große Kino findet in den USA statt und eben in China, das muss man ganz offen sagen.
00:25:06: Und nachdem alle, die sich mit dem Thema beschäftigen, auch genau wissen, dass sie diesen Rahmen brauchen, ein Regelwerk, werden sie kaum einen finden, dass sich in diesem Märkten mit kein Beschäftigten ist, genau danach schreit, wir brauchen Regeln.
00:25:22: Und deswegen werden die dort auch implementiert.
00:25:24: Bedaulicherweise für die Unternehmen.
00:25:27: in den USA ist es so, dass es keine bundesweite Regelung gibt dafür, sondern die Einzelstaaten in den USA haben eigene Regeln, aber alle haben eben erkannt, ich brauche welche und dann macht man was.
00:25:40: Die Harmonisierung lässt dieses Bezügel noch ein wenig zu wünschen über.
00:25:44: Apropos Regelwerk, Sie haben das Wort Gatsch vorher angesprochen, das heißt ich komme einmal kurz auf Österreich zu sprechen, kann Österreich in diesem Assemble der Welt möchte im internationalen Kontext auch eine Rolle spielen.
00:25:58: Also der TÜV Ausdreher selbst versucht er ja mit dem trusted AI Framework seinen Beitrag zu leisten.
00:26:04: Wenn ich das richtig verstanden habe, geht es dabei um eine Grundlage für eine transparente und reproduzierbare Zertifizierung von KI-Systemen und letztlich um deren sicheren Einsatz.
00:26:14: Können Sie uns dann ein bisschen erklären, was der Hintergrund ist?
00:26:18: Zunächst einmal zu der Frage, ob Österreich eine Rolle spielen kann, dann ganz kleine Antwort selbstverständlich ja.
00:26:24: Österreich hat eine jahrzehnte, jahrhunderte lange Tradition der Ingenieurskunst und des kreativen Denkens neuer Ideen.
00:26:35: Deswegen habe ich keinen Zweifel, dass wir da unseren Platz finden.
00:26:38: Die Frage ist immer nur, wo ist dieser Platz?
00:26:41: Der Platz wird mit Sicherheit nicht dort sein, wo es um diese allgemeinen generativen Kis geht, weil dafür braucht man unwahrscheinlich viel Geld und Rechenkapazität, um diese Modelle zu trainieren.
00:26:54: Und diese Art von Finanzierungsmöglichkeiten werden wir in Österreich und Mit Verlaub auch in ganz Europa so nicht finden, da spielt die Musik eben in den USA und in China.
00:27:05: Aber das muss ja auch nicht sein.
00:27:07: Es gibt viele spezialisierte Anwendungen für Künstliche Intelligenz, wo man nicht so viel Aufwand benötigt, sondern Mehrheit Ingenieurkunst und da haben wir selbstverständlich in Österreich Platz.
00:27:19: Es gibt zum Beispiel die Initiative von Professor Hochreiter, die sich mehr mit der Anwendung für Industriefälle beschäftigt, wo man eben sehr spezifische Modelle entwickelt dafür, dass sie industrielle Aufgaben lösen können und dafür haben wir natürlich ganz andere V-Aussetzungen.
00:27:38: Darum kümmern sich also die großen dieser Welt weniger, weil dort nicht das ganz, ganz große Geld vermutet wird.
00:27:44: Aber da gibt es viele, viele interessante Anwendungen, wo auch österreichische Unternehmen eine Rolle spielen können, oder bin ich überzeugt davon auch spielen werden?
00:27:52: Da ist dann auch eine Universität wie die J. K. Linz, wo der Sepp Hochalter tätig ist, der richtige Platz dafür.
00:27:59: Also abgesehen davon, dass er ein international wirklich hoch anerkanter Fachmann ist.
00:28:05: Hat die JKU eben seit einiger Zeit dort auch ein Spezialstudio unter sich nur mit KI beschäftigt.
00:28:11: Das heißt, wir haben da auch im Ausbildungsbereich wunderbare Grundlagen geschaffen dafür, dass es auch den notwendigen wissenschaftlichen Ingenieursnachwuchs gibt, der diese Themen dann verantreibt.
00:28:22: Und wenn man die Dinge richtig macht und sich die richtigen Anwendungen dafür sucht, dann können wir selbstverständlich in Österreich da eine entsprechende Rolle spielen.
00:28:31: Sie hätten das vorher erwähnt, auch wir versuchen einen Beitrag zu leisten, weil wir sind mittlerweile vor fast hundertfünfzig Jahren gegründet worden, um neue Technologien sich und verfügbar zu machen.
00:28:43: Das gilt natürlich auch heute noch und insbesondere für das Thema Künstliche Intelligenz und deswegen beschäftigen wir uns sehr intensiv mit diesem Thema.
00:28:52: nicht nur in der Zertifizierung oder in der Beurteilung von Systemen, sondern auch in der wissenschaftlichen Arbeit, um sicherzustellen, dass man Systeme im Hochrisikbereich zukünftig zertifizieren kann.
00:29:06: Das sind nämlich noch ungelöste Forschungsfragen, die noch zu lösen sind und wir betreiben deswegen seit einigen Jahren ein großes Forschungsprogramm unter anderem mit der JKO in Lenz, um eben diese Fragen zu klären.
00:29:21: Weil beim Bauen und beim Betrieb von KI-Systemen gibt es im Herausforderungen, denen man sich stellen muss.
00:29:28: Vielleicht darf ich das ganz kurz ausführen.
00:29:31: Wie sieht denn sozusagen der Unteranführungszeichen richtige Ansatz aus, damit man KI erfolgreich einsetzen kann?
00:29:38: Sie haben von den vielen, vielen Misserfolgen berichtet, die es gibt beim Einsatz in wirtschaftlichen Anwendungen.
00:29:46: Da gibt es verschiedene Gründe dafür.
00:29:48: Zunächst einmal sollte man sicherstellen, dass man überhaupt weiß, wofür man die KI einsetzen möchte.
00:29:53: Also die klare Definition des Einsatzzweckes und auch, was die KI leisten soll.
00:30:01: Damit beginnt es nämlich.
00:30:02: Und wenn das nicht gut gemacht ist, dann wird auch das, was dabei rauskommt, nicht oder kaum verwendbar sein.
00:30:09: und dabei passieren aus unserer Sicht und aus unserer Beratungspraxis die allermeisten Fehler, dass man falsche Vorstellungen davon hat, was KI leisten kann, die Anwendung nicht gut definiert und dann kommt halt am Ende auch nicht zu der kaum was vernünftiges raus.
00:30:25: Also definieren das Einsatzzweckes und der Beformensparameter, wie man so schön sagt, was soll die KI leisten.
00:30:34: Dann muss man in der Lage sein, auch die notwendigen Trainingsdaten zur Verfügung zu stellen.
00:30:39: Wenn ich die nämlich nicht habe, entweder nicht in der notwendigen Anzahl oder nicht in der notwendigen Qualität, dann kann ich ein KI-Modell auch nicht trainieren.
00:30:50: Und auch da werden viele Fehler gemacht, weil man entweder nicht ausreichend Trainingsdaten hat oder die Trainingsdaten nicht statistisch unabhängig sind.
00:30:59: Manche generieren nämlich dann Trainingsdaten automatisch und glauben, dass das dann eben hilft, tut es nicht, kann es auch nicht.
00:31:08: Das ist ein elementarer Fehler, der immer wieder gemacht wird.
00:31:12: Und sie müssten auch repräsentativ sein.
00:31:14: Und nur Trainingsdaten zu haben, hilft auch nicht.
00:31:17: Sie müssen die Trainingsdaten dann auch noch bearbeiten.
00:31:19: Das nennt man das Annotieren.
00:31:22: Also vielleicht ein einfaches Beispiel, wenn sie in der Lage sein wollen, aus einem Röntgenbild oder aus einem Datensatz eines Computertomagrafen irgendwelche medizinischen Themen herauszulesen, dann brauchen sie es erst den Experten, der sagt, okay, in dem Bild ist das jetzt ein Tumor und das nicht, etc.
00:31:41: Also diese Dinge, das nennt man dann das Anotieren und anhand dieser anotierten Taten lernt dann das Chaisystem.
00:31:49: Und wenn das nicht gut gemacht ist, hilft ihnen das beste Training nicht, dann kommt irgendwas raus, aber nicht das, was sie sich wünschen.
00:31:56: Da werden auch viele Fehler gemacht, aber wenn sie das richtig machen, Wenn das gut gemacht ist und wenn Sie dann auch die Testdaten entsprechend gut wählen, unabhängig von den Trainingsdaten, auch das ist ein elementarer Fehler, der oft gemacht wird, dann können Sie mit solchen Dingen Ergebnisse erreichen, die den Menschen nicht möglich sind.
00:32:15: Also gerade beim Beurteil von Röntgenbildern, wenn es gut trainierte Kreissysteme sind, können die deutlich mehr als jeder Experte kann und noch viel schneller.
00:32:23: Das heißt eine echte Arbeitserleisterung.
00:32:26: Aber Sie könnten dieses System zum Beispiel nicht verwenden, um jetzt keine Ahnung, irgendwelche anderen Gewebeveränderungen festzustellen, die eben nicht trainiert wurden, sondern das ist ein für einen bestimmten Einsatzzweck definiertes System.
00:32:40: Das kann dann das sehr, sehr gut, besser auch als eine Experte, aber eben nur das.
00:32:46: Und genau diese Limitierung, die sollte man eben im Kopf haben, damit es eben bei der Anwendung nicht zu Fehlern kommt.
00:32:54: Und was auch wichtig ist und was auch heute noch eine offene Forschungsfrage ist, Viele dieser KI-Systeme sind auch Selbstlernern.
00:33:02: Das heißt, sie sind nicht fertig, wenn sie bei ihnen dann zum Einsatz kommen, sondern sie lernen immer weiter.
00:33:07: Und wenn das so ist, müssen sie sicherstellen, dass diese Systeme auch in Betrieb dann noch so funktionieren, wie sie sie eigentlich haben möchten.
00:33:16: Das heißt, sie müssen dieses System überwachen.
00:33:19: Sie brauchen dann ein Monitoring dieser Systeme und genau mit diesem Thema beschäftigen wir uns heute auf der Vorstandsfront.
00:33:26: damit wir eben in der Lage sind, Monitoring anzubieten für keine Systeme, die eben im Einsatz sind.
00:33:34: Da sind wir mittlerweile sehr weit, aber es wird wahrscheinlich noch ein wenig benötigen, bis es dann kommerziell verfügbar ist.
00:33:41: Aber das ist sozusagen die letzte große offene Forschungsfrage, bis man zu einem durchgehenden System kommt.
00:33:46: Also durchgehend heißt, von der Definition des Systems trainieren, testen, bis zum Überwachen.
00:33:54: damit es eben dann zu einem sicheren vernünftigen Einsatz dieser Technologie kommen kann.
00:33:59: Und vielleicht ein Ratschen noch für Unternehmen, wenn man sich mit KI wirklich beschäftigen möchte mit dem Einsatz und selber auch Lösungen erbauen möchte, dann ist es gut, wenn man auch systemische Grundlagen dafür schafft.
00:34:11: Es gibt eben einen Management-System-Standard, der sich damit beschäftigt, ISO Und das ist eine gute Grundlage, damit man das auf ein vernünftiges Fundament stellen kann.
00:34:24: Also da kann ich Unternehmen nur ermutigen, sich mit dem Thema zu beschäftigen.
00:34:29: Und mittlerweile ist dieses Standard nicht nur definiert, sondern es gibt auch schon agredierte Stellen, die eben dann diese Management-Systeme zertifizieren können.
00:34:38: Und wir waren die erste, die im deutschsprachigen Raum dafür agrediert wurde.
00:34:42: Soweit zum Paarstag, Österreichs.
00:34:44: Genau.
00:34:46: Also man wirft ja den Österreicher, machen wir vor, wir wehren zu langsam, aber das stimmt eben gar nicht, sondern die Österreicher tendieren dazu, dass sie halt flexiber sind, vielleicht haben wir nicht beruaktiver und jedenfalls schneller bei manchen Themen als andere und ich glaube, das ist eine Stärke, die die Österreicher haben.
00:35:03: Situationselastisch war, glaube ich, das Wort des Jahres, zweitausend, irgendwas.
00:35:07: Genau.
00:35:07: Ich
00:35:07: finde das richtig.
00:35:08: Interessant, dass Sie das selbst lernen und den Selbsthochheit da angesprochen haben, den ich kürzlich im Interview hatte und der hat gesagt, Zum Thema Monitoring, ein Entwickler von künstlicher Intelligenz weiß nicht, was er entwickelt.
00:35:23: Also er hat sich ein bisschen überspitzt ausgedrückt, aber er arbeitet sozusagen an einer Sache, die dadurch, dass sie auch selbst lernen ist und sich selbst weiterentwickelt, am Ende möglicherweise etwas anderes kann, als am Anfang intendiert war.
00:35:34: Und da spielt, glaube ich, dieser Punkt, den Sie genannt haben, noch mal so wesentlich hinein, nämlich das Testen und Monitoren, ob das auch das gewünschte Ergebnis ist.
00:35:42: Und Daphne, vielen Dank für diese Ergänzung.
00:35:45: Also, wenn selbst Professor Hochreiter das sagt und der zählt nun wirklich zu den WS-Senden, dann darf man das schon für fundiert halten.
00:35:53: Wir können nur darauf hinweisen und dazu einladen, sich mit dem Thema Monitoring zu beschäftigen.
00:35:58: Wir halten das für eine der wichtigen Ofen die Fragen.
00:36:01: Wenn Sie ein selbstlernendes System haben, dann ist eben das Überwachen notwendig, damit Sie sicherstellen können, dass das System das tut, was Sie eben intendiert haben.
00:36:10: Ich möchte nicht sozusagen jetzt gegen Ende des Gespräches ein Thema auslassen, das einfach sehr kontroversiell ist und das medial in Schlagzeilen sehr stark bearbeitet wird, wann immer es um künstliche Intelligenz geht und Wirtschaft, dann geht es darum, um die Frage, ich habe anfangs gesagt Fluch oder Segen, ist jetzt die KI ein Wirtschaftsmotor oder ist im Gegenteil ein Job für Nichter?
00:36:35: Wenn ich mir eine persönliche Perspektive ganz kurz bitte einbringen darf, eine Tochter, die als Simultanteolmenscherin arbeitet in Brüssel, die hat eine langjährige Ausbildung, zählt zu den Guten ihres Fachs und macht sich inzwischen schon Gedanken, was sie als nächster studiert, weil sie glaubt, von Karriers sets zu werden.
00:36:51: Es trifft also auch gut ausgebildete Menschen.
00:36:56: Und jetzt ist es so, man muss also kein Verschwörungstheoretiker sein.
00:37:01: So wollte ich das sagen, um zu fürchten, dass KI auch Probleme auf dem Arbeitsmarkt schaffen kann.
00:37:06: Und da will ich dann auch jemanden zitieren, der als ehemaliger Google Manager und Nobelpreisträger und als KI-Parte titulierte Joffrey hinten.
00:37:17: Und der hat kurz und bündig gesagt, was passieren wird, ist, dass reiche Leute KI nutzen, um menschliche Mitarbeiter zu ersetzen.
00:37:25: Das wird massive Arbeitslosigkeit und einen großen Sprung für die Profite erzeugen.
00:37:30: Ein paar wenige Leute werden dadurch reicher, die meisten anderen, arbeitslos und ärmer.
00:37:35: Das ist jetzt ein bisschen systopisch und vielleicht schwarz auf weiß, aber wie sehen Sie das?
00:37:41: Diese Diskussion ist aus meiner Sicht genau die gleiche.
00:37:44: die damals schon bei der ersten industriellen Revolution stattgefunden hat.
00:37:47: Das auch kreisend mit der Automatisierung.
00:37:50: Damals der Webstülle wird es dann total vorbei sein.
00:37:54: Die Leute werden alle arbeitslos.
00:37:56: Es gibt dann keine Zukunft mehr und wir wissen ja, wie das tatsächlich ausgegangen ist.
00:38:01: Also Technologie ist ja zunächst mal völlig neutral.
00:38:04: Das ist nur die Frage, wie sie eingesetzt wird.
00:38:07: Aber Technologie verändert natürlich auch Industrien.
00:38:10: So wie bei der ersten industriellen Revolution, wo halt viel der mechanischen Arbeit ersetzt wurde durch Automatisierung, sind dann manche Job-Profile sozusagen redundant geworden, aber durch das Wirtschaftswachstum, das generiert wurde, sind viele neue Jobs entstanden.
00:38:27: Und es ist eben genau nicht passiert, was damals vermutet wurde, dass es diese Massenarbeitslosigkeiten gibt, sondern perspektivisch war das so, dass das dazu geführt hat, dass eben deutlich mehr Beschäftigung entstanden ist.
00:38:39: Und, das möchte ich auch dazu sagen, die Art der Beschäftigung, die entstanden ist, war von höherer Qualität, nämlich für die Menschen, für die Betroffenen, als die Arbeit dies davor gegeben hat.
00:38:48: Weil es wieder niemand ernsthaft behaupten wollen.
00:38:52: dass die mechanische Arbeit damals am Webstuhl oder vielleicht auch an Fließbändern, dass die so gut und beschützenswert und sinnfüllend war, dass die BRC für sich selbst gesehen beschützenswert war.
00:39:06: Ich glaube, die Berufsprofile, die es dann als Ersatz dafür gegeben hat, waren alle deutlich attraktiver als das.
00:39:16: Und heute ist es halt anders, wenn Sie zum Beispiel sich überlegen, dass im Bereich der Reinigung jetzt viel automatisierte Maschinen eingesetzt werden, um Teppiche zu saugen, um Flächen zu wischen.
00:39:27: Das ist ja auch keine Tätigkeit, die man ganz ganz oben auf der Beliebtheitskale hat.
00:39:32: Und diese Tätigkeiten werden dann durch Maschinen ersetzt, in denen Karriere eingesetzt wird.
00:39:39: Aber der Wegfall dieser Jobprofile, den halte ich jetzt nicht für das ganz, ganz große Unglück.
00:39:45: Und mit den Impulsen in der Wirtschaft entstehen auch immer neue Beschäftigungen.
00:39:49: Und wenn Sie sich das über die verschiedenen industriellen Revolutionen anschauen, schon immer, wenn eine neue Technologie eingeführt wurde, haben sich zwar Jobprofile verändert, aber letztlich in Summe ist die Beschäftigung deutlich gestiegen.
00:40:02: Und wir haben heute auf dieser Welt viel mehr Beschäftigung als jemals in der Vergangenheit war.
00:40:07: Und es wird auch mit Kaiso sein.
00:40:09: Es werden andere Jobprofile entstehen.
00:40:12: Es werden viele Routinetätigkeiten wegfallen.
00:40:15: Also alles, was Sie heute an repetitiven Tätigkeiten haben, wo irgendjemand Daten überträgt von einem Format in ein anderes oder von Sprache in Text oder Informationen aus Dokumenten extrahiert, das sind streng repetitive Tätigkeiten, wo Sie nicht viel kreatives Element dabei haben und das wird zukünftig zu einem guten Teil durch sogenannte Agentic AI ersetzt werden.
00:40:40: und wird zu entsprechenden Protivitätsgewinnen führen, wenn es gut gemacht ist.
00:40:44: Aber ich sehe das große Unglück nicht, weil ich glaube nicht, dass diese Art von Tätigkeit eben genau die ist, die den Menschen am meisten Spaß macht.
00:40:52: und es wird andere Chopophile geben, die neu entstehen werden, wo sie eben das menschliche Element und auch das menschliche Masern Kredivität und Sozialempfinden benötigt, was die Maschinen halt nicht aufbringen können.
00:41:08: Sie haben gesagt, Sie waren heute schon mal amüsiert über eine negative Vorstellung der Zukunft.
00:41:15: Dann wird es uns umso mehr amüsieren, dass der Selberchöfer hinten gemeint hat, stellt sich die Frage, dass in einer Welt, in der eine kommende Superintelligenz, die per Definition in jedem Felt besser ist als der Mensch, dass in dieser Welt für den Menschen irgendwann auch kein Platz mehr sein wird.
00:41:34: Herr Haas, wo ist unser Platz?
00:41:36: Das ist jetzt ein sehr dystopisches Bild, das Sie malen.
00:41:40: Und mittlerweile ist ja die Anzahl der Hollywood-Filme, die sich mit dem Thema beschäftigen, fast schon wie Sandra Meer, das ist eine Frage, die beschäftigt den Menschen, weil sie den Menschen in Summe in Frage stellen.
00:41:51: Also wozu gibt es uns dann noch, wenn es jemand oder etwas anderes gibt, dass ich alles besser kann als man selbst.
00:41:59: Und das ist eine gute Frage.
00:42:01: Aber Sie hatten vorher angekündigt, dass wir vielleicht ein bisschen philosophisch werden.
00:42:05: Das würde jetzt in diese Richtung gehen.
00:42:07: Ich glaube, dass das aber eine gesunde Frage ist für den Menschen.
00:42:10: Also was macht den Menschen aus?
00:42:12: Wozu gibt es uns?
00:42:13: Und was kann eben eine Maschine für uns erledigen?
00:42:18: Und wo bleibt dann der Platz für uns?
00:42:20: Ich glaube, das ist eine wichtige Frage, aber eine, die vielleicht über den kreis des heutigen Podcasts deutlich hinausgeht.
00:42:27: Ich kann nur jeden einzelnen, jede einzelne dazu eindern, sich genau diese Frage zu stellen.
00:42:31: Was macht mich eigentlich aus?
00:42:32: Wofür bin ich da?
00:42:35: Und was bleibt von mir, wenn eben diese Art von Tätigkeiten dann ersetzt wird?
00:42:39: Und ich bin sicher, wir finden alle unseren Platz, weil es macht den Menschen eben nicht aus, ob er in der Lage ist, in welcher repetitiven Tätigkeiten auszuführen, sondern Es ist die Kreativität, es ist das soziale Empfinden, das den Menschen letztlich ausmacht und vielleicht auch die spirituelle Dimension, aber sicher nicht das Repetitive Ausführen von irgendwelchen Tätigkeiten.
00:43:03: Ja, also wäre es jetzt eine Netflix-Serie, würde ich sagen, Sie haben einen hervorragenden Cliffhanger geliefert.
00:43:08: Ich werde mich also vorbereiten auf unserem nächsten Podcast, wo wir darüber philosophieren werden, wo der Platz und die Rolle des Menschen in der Zukunft ist.
00:43:15: Ich danke herzlich für das.
00:43:16: Ich
00:43:16: danke Ihnen jedenfalls.
00:43:17: Vielen Dank, Ellen Obel.
00:43:20: Das war der Presse-Podcast zum Thema KI ist gekommen, um zu bleiben.
00:43:26: Segen oder Fluch?
00:43:28: Vielen Dank fürs Zuhören.
Neuer Kommentar