Neu "Austrian Intelligence" 1: Die KI und wir
Shownotes
Wie klingt es, wenn die eigene Stimme plötzlich spricht, ohne dass man selbst den Mund aufmacht? In der ersten Folge von „Austrian Intelligence – Wie die KI Österreich verändert“ erzählen Anna Wallner und Melanie Klug die Geschichte hinter Annas synthetischer Stimme – dem ersten KI-Stimmprojekt der "Presse".
Von der Sommerhitze im Aufnahmestudio über Fehlversuche und Lacher bis zu berührenden Reaktionen von Hörerinnen: Diese Episode zeigt, was passiert, wenn künstliche Intelligenz ganz persönlich wird. Und sie stellt die großen Fragen: Kann KI uns wirklich entlasten – oder ersetzt sie uns irgendwann selbst? Was bedeutet „echt“ noch, wenn Stimmen kopiert werden können?
Mit dabei: KI-Pionier Sepp Hochreiter, AI-Consultant Ana Simic, Medienberater Patrick Swanson, ganz kurz sogar Taylor Swift – und natürlich Annas Stimmklon.
Dieser Podcast wird unterstützt von Microsoft Österreich. Sie möchten mehr über unseren Werbepartner erfahren? Hier geht es zur Webseite von Microsoft.
Folge 2 erscheint am Samstag, 25. Oktober 2025 und Folge 3 am Sonntag, 26. Oktober 2025.
Der Podcast von Ana Simic heißt „AI Melange“ und findet sich hier. Patrick Swanson hat das AI Consulting Lab Versogegründet. Mehr zu Sepp Hochreiter hören Sie in Folge 2 und 3.
Leitartikel von Barbara Steinbrenner: Falschnachrichten durch KI: Wenn Algorithmen die Wahrheit verbiegen
"Spiegel"-Titelgeschichte aus September 2025: Killt die KI meinen Job?
Transparenz: Wir haben für diesen Podcast folgende KI-Tools eingesetzt haben: Wir haben die KI-generierte Stimme von Anna Wallner mit Beyond Words zum Sprechen gebracht. Dabei hat uns Sarah Weishäupl geholfen. Wir haben ChatGPT für Titel und Recherche genutzt. Mehrere Transkript-Tools für die Ausarbeitung der einzelnen Interviews, u.a. das Tool vom APA-AOM-Manager. Unser Producer Georg Gfrerer hat für die Musik Suno.ai genutzt und mit Beatoven.ai experimentiert. Für die männliche Stimme im Titel hat er den Stimmengenerator von Soundly genutzt. Und wir haben auch die komplette Bebilderung für die einzelnen Episoden von einer KI erstellen lassen. Hierbei hat uns Erich Kocina, unser Chef vom Dienst geholfen, indem er ebenfalls ChatGPT mit Angaben für Fotos gefüttert hat.
Transkript anzeigen
00:00:00: In Zukunft wird sicher jeder Mensch seinen eigenen Stimmklon haben.
00:00:04: Anna, was redest du?
00:00:06: Wie kann ich dir helfen?
00:00:07: Wir wollten uns doch um unserem Podcast kümmern.
00:00:09: Wie lautet das Thema?
00:00:10: Das weißt du doch, es geht um unserem Podcast.
00:00:13: Halt,
00:00:13: Melanie, halt, halt, halt.
00:00:14: Ich weiß das wirklich, da hast du schon recht.
00:00:16: Aber das, was du da gerade gehört hast, war mein Stimmklon oder meine Stimmklonin, oder wie man auch immer sagen möchte.
00:00:22: Liebe Hörerinnen und Hörer, die Stimme, die sie da im Wechsel mit meiner Kollegin Melanie Kluck gehört haben, das bin schon ich.
00:00:29: Anna Wallner.
00:00:30: Ja, weil irgendwie auch nicht.
00:00:31: Sie klingt jedenfalls schon nach mir.
00:00:34: Und um Sie da jetzt ein bisschen abzuholen, was wir hier mit Ihnen durchspielen, ist es so, vor einem Jahr haben wir in der Presse diese automatisierte Stimme eingeführt und deswegen steht sie auch im Beginn dieser Podcastreihe.
00:00:47: Wir haben einige der Tonaufnahmen ausgekramt, denn um die KI zu füttern, muss der Anna Texte lesen, aber auch wiederkehrende Begriffe einsprechen.
00:00:56: Und das klang dann so.
00:00:57: Chef vom Dienst, Chefin vom Dienst, Chefredakteur
00:01:03: oder so.
00:01:12: So war es am Ende möglich, dass AndersKI Stimme später alle Namen der Redakteurinnen und Redakteure und alle Berufsbezeichnungen richtig
00:01:20: aussprechen kann.
00:01:21: Und so klingt das dann auf unserer Website und in unserer App.
00:01:25: Dieser Artikel wurde von Benedikt Kommender verfasst und wird ihnen von der automatisierten Stimme von Anna Wallner vorgelesen.
00:01:32: Haha, aber sie merken es schon.
00:01:34: mit manchen Namen, wie zum Beispiel Benedikt, tut sie sich immer noch schwer, die gekonnte Anna.
00:01:40: Der Weg zu meinem Stimmklon war auf jeden Fall einfach.
00:01:43: Ich kann mich noch erinnern, ich habe mich an den heißesten Tagen im Sommer zwanzig vierundzwanzig in unser Studio gestellt und tagelang verschiedene Texte eingesprochen.
00:01:52: Das waren also Abbermeldungen, Wetterberichte, Kommentare, Reportagen.
00:01:56: Insgesamt waren das hundert Texte auf Deutsch und Englisch.
00:02:00: Ach, das muss ja ewig gedauert haben.
00:02:02: Gar nicht so lange Melanie, wie man jetzt denken würde.
00:02:05: Alles in allem waren es vielleicht vier, fünf Tage.
00:02:08: Aber die Schwierigkeit hat vor allem darin bestanden, die einzelnen Texte komplett fehlerlos in die KI einzuspielen.
00:02:15: Und als dann der Stimmklonen fertig war und wir ihn auf allen Anwendungen abrufbar gemacht haben, war das zunächst schon ein sehr seltsames Gefühl, eine seltsame Erfahrung für mich.
00:02:26: Etwas, das klingt wie ich, spricht aber Sätze, die ich nie gesprochen habe.
00:02:31: Wie gesagt, das ist ein Jahr her und war auch der Ausgangspunkt für das, was Sie hier ab heute hören können.
00:02:44: Wie die KI Österreich verändert.
00:02:49: Dieser Podcast wird unterstützt von Microsoft Österreich.
00:02:57: Es gab da aber noch ein paar andere Gründe, warum wir zwei Lust bekommen haben, uns in diesem Podcast auf eine KI-Reise durchs Land zu begeben.
00:03:06: Einer davon ist, und das wird niemanden sonderlich überraschen, der Chatbot, ChatGPT, der jetzt schon bald drei Jahre alt wird.
00:03:15: Sprachmodelle gab es davor auch schon viele, aber in November, kam die verbesserte Version des Large Language Models von OpenAI auf den Markt.
00:03:25: Seitdem haben sehr viele der großen Techkonzerne sehr viel Geld in die Anwendung gesteckt.
00:03:30: Vor kurzem wurde bekannt, dass auch Nvidia einhundert Milliarden Dollar in OpenAI investieren will.
00:03:36: Das sind unfassbar hohe Summen.
00:03:38: Jedenfalls der Chatbot zählt heute zu den fünf meistbesuchten Websites der Welt und viele nutzen ihn mittlerweile statt Google.
00:03:46: Sie sehen schon, das Thema zieht superlative an.
00:03:50: Im Silicon Valley spricht man dieser Tage sogar von Beginn eines neuen Zeitalters.
00:03:56: Es vergleicht die neueste KI-Generation mit der Erfindung der Dampfmaschine oder der Elektrizität.
00:04:02: Eines ist klar, das Thema ist groß, es wird bleiben und es wird uns in den kommenden Jahren mehr beschäftigen denn je.
00:04:10: Ob es aber Fluch oder doch eher Segen für uns sein wird, da gibt es höchst unterschiedliche Ansichten.
00:04:15: Genau, weil was uns bei der Recherche aufgefallen ist, der Umgang mit der KI, da bewegt sich immer zwischen Euphorie und Panik.
00:04:22: Ja genau, dazwischen scheint kein Platz zu sein für etwas anderes.
00:04:27: Es liegt vielleicht auch daran, dass die KI einfach so unvorhersehbar ist.
00:04:31: Und das Tempo, ja das ist wirklich rasant, nämlich so rasant, dass wir gar nicht mehr gewusst haben, wann wir diese Stelle hier vom Podcast am besten aufnehmen sollten, damit sie so aktuell wie möglich für sie ist, lieber Hörerinnen und Hörer.
00:04:44: Denn bei Naiteeglich kündigt ein anderer dieser großen Tech-Konzerne irgendeine neue Superfeature an.
00:04:50: So hat zum Beispiel OpenAI vor kurzem gesagt, es will zu einer Plattform für KI-Apps werden und damit macht OpenAI in erster Linie Apple Konkurrenz.
00:04:59: Genau, da passt dazu, dass OpenAI gerade erst seine neue Videogenerierungs-App Sora II präsentiert hat, klarerweise mit einem Video.
00:05:08: was sonst.
00:05:11: In
00:05:19: diesem Clip sieht man einen Avatar von OpenAI-Chef Sam Altmann die Anwendung erklären.
00:05:25: Und die bewegten Bilder, die Personen, die Musik, die stimmen.
00:05:28: Alles hier ist komplett künstlich und sieht dabei aber schon annähernd echt aus.
00:05:34: Was uns dann auch noch aufgefallen ist.
00:05:36: Ständig hat derzeit jemand etwas Schlaues zu KI zu sagen.
00:05:39: Ja, wir ja auch.
00:05:40: Das stimmt.
00:05:41: Vieles davon ist entbeerlich, unsere Sachen hoffentlich nicht, aber manches bringt uns dann doch auch zum Lachen.
00:05:46: Gerade erst vor ein paar Tagen war ein dänischer Vortragender, dessen Name jetzt gar nicht so wichtig ist, aber der war für eine Marketingkonferenz in Wien und da hat er dann erklärt, warum wir uns alle gerade in der sogenannten What-is-this-shit-face befinden.
00:06:01: Das Gute sei, hat man die einmal überwunden, dann würde man die Erkenntnisphase erreichen und die nennt er dann den I totally got this puckt.
00:06:12: Wir bei der Presse neigen generell nicht zu Hysterie oder Übertreibung, wir sehen uns das Thema Nüchtern an.
00:06:18: Wir sagen auch noch nicht, we got this, weil wir lernen und stellen Fragen und wir wollten wissen, wie KI-Reif das Land ist.
00:06:27: Und keine Angst, wir produzieren hier keine AI-Slops.
00:06:30: Für die kommenden drei Folgen unserer kleinen Vermessung des KI State of Mines haben wir ein gutes Tutzend Gesprächspartner getroffen und uns viel umgehört und eingelesen.
00:06:42: Wir sind Anna Wallner, nicht nur Vorlage für die synthetische Presse-Stimme, sondern auch Podcast-Chefin dieser Zeitung.
00:06:49: Und Melanie Kluge, Redakteurin im Wirtschaftsresort.
00:06:55: Also lasst uns loslegen.
00:06:57: Ah ja, und das ist Annas Stimmbott.
00:06:59: Der wird uns auch ein wenig begleiten.
00:07:04: Die bereits kurz angerissenen rasanten Entwicklungen auf dem Gebiet der künstlichen Intelligenz sind längst in der breiten Öffentlichkeit angekommen.
00:07:13: Das sieht man auch in den Medien.
00:07:15: Im September, im September, hat zum Beispiel das deutsche Spiegelmagazin gleich zweimal ein KI-Thema aufs Cover gehoben.
00:07:22: Einmal hat es die Frage gestellt, wie mächtig wird die KI?
00:07:25: Drei Wochen später dann eine andere nämlich, klingt die KI meinen Job.
00:07:30: Es gibt DOKOS, YouTube-Tutorials, LinkedIn-Kurse und How To Prompt Videos auf TikTok.
00:07:37: Natürlich auch Podcasts, eh klar.
00:07:39: Dazu kommen wir vielleicht später noch.
00:07:41: Alles, was da so beschrieben und gefilmt wird, bewegt sich.
00:07:44: Auch das haben wir schon kurze Wen immer zwischen Hype kreieren und Angst schüren.
00:07:52: Bevor wir jetzt aber ins Thema eintauchen, sollten wir erst einmal klären, von welcher künstlichen Intelligenz wir eigentlich reden.
00:07:59: Seit Jahrzehnten nützen wir die klassische künstliche Intelligenz, die anhand von Algorithmen und Mustern Wahrscheinlichkeiten berechnet und uns im Alltag bei so vielen Handgriffen geholfen hat.
00:08:12: Seit drei Jahren reden alle von der generativen KI und von Anwendungen wie Chat, GPT, Mid Journey, Gemini oder Mistral, die alle zusammen neue und originelle Inhalte wie Text, Bilder, Audio, Code und Videos erstellen können.
00:08:28: Und seit gut einem Jahr gibt es auch sogenannte Reasoning-Modelle, die nachdenken können, bevor sie eine Antwort geben und vor allem beim Programmieren und in der Forschung ganz neue Standards erreicht haben.
00:08:41: Man nennt diese Form der KI-Stufe auch Agentic AI.
00:08:44: Auch mit Chat GPT kann man sich seinen eigenen KI-Agenten einrichten.
00:09:04: Das ist Jake Schröder.
00:09:06: Er ist mit seinen hundertelftausend Fans noch so etwas wie ein Geheimtipp auf Instagram.
00:09:12: Dort nennt er sich Frosted Jake und macht aus Alltagsphänomenen kleine Songs am Klavier, so wie diesen hier, den wir gerade hören konnten, über Chat GPT.
00:09:22: Irgendwann sinkt er da an einer Stelle auch, maybe ChatGPD is setting us free or maybe it's a curse.
00:09:28: Die Zahl der regelmäßigen Nutzer dieser Anwendung steigt jedenfalls rasant und lag im September, angeblich schon bei weltweit achthundert Millionen Menschen.
00:09:39: pro Woche.
00:09:40: Und ist damit doppelt so hoch, wie die gesamte Konkurrenz von MetaEI bis Perplexity.
00:09:47: Interessant ist übrigens auch, dass angeblich siebzig Prozent aller Nutzer von generativer KI der TenZ angehören.
00:09:55: Aber zurück zum Thema.
00:09:56: Ich habe die Wiener KI-Expertin Anna Simic gefragt, wieso wir uns eigentlich erst gefühlt seit der Einführung von TET-GPT so viel mit KI beschäftigen.
00:10:07: Ich gebe dir einfach zwei Beispiele.
00:10:08: Die alte KI, die Machine Learning KI, sie ist verlässlich, präzise, sie kann besser mit Daten umgehen, sie kann uns sehr verlässlich Dinge automatisieren und sie wird besser, je mehr Daten wir ihr zuführen.
00:10:23: Und damit sozusagen in einem kontrollierten Umfeld können wir gut zurechtkommen als Menschen.
00:10:29: Die neue KI, die generative KI, Die ist vortrainiert, aber wir wissen nicht so genau, was die genau kann und was sie nicht kann.
00:10:36: Das heißt, die wird nur dann besser, wenn wir sie mehr nutzen.
00:10:40: Man spricht auch von dem Powered by usage, nicht Powered by data.
00:10:43: Und das macht das unterschiedlich.
00:10:45: Wenn ich mich jetzt eine Stunde mit deiner KI auseinandersetze oder zehn Stunden oder zwanzig Stunden, wird sie unterschiedlich gut für mich sein.
00:10:53: Und ich werde besser wissen, was ich da noch mehr damit tun kann, wo sie mich noch besser unterstützen kann, dass ich jetzt bestimmte Recherche machen kann, weil sie wirklich wunderbare Recherchefähigkeiten hat.
00:11:04: Oder dass sie tolle Bilder generieren kann, das haben wir alle jetzt gesehen in den letzten paar Wochen.
00:11:08: Aber ich finde, das ist alles sehr kratzende Oberfläche.
00:11:11: Die wirklich guten, tiefen Funktionalitäten, die finde ich wirklich nur heraus, wenn ich mich mit den Tuls auseinandersetze.
00:11:18: Und keiner kann es genau sagen, es gibt kein Best Practice.
00:11:22: etwas, was wir, vor allem in der Wirtschaft, die wollen immer Best Practice hören.
00:11:26: Best Practice findet man selber heraus, wenn man selber nutzt und dann wird das zu Best Practice.
00:11:30: Anna Simic ist AI Consultant.
00:11:33: Sie war lange bei A-I-Telekom und macht seit einigen Monaten zu Hause an ihrem Küchentisch jede Woche eine Folge ihres Podcasts AI Melange.
00:11:42: Sie hat auch zwei konkrete Tipps für KI-Einsteiger.
00:11:46: Erstens meint sie, man solle damit beginnen, die KI zu nutzen.
00:11:50: Egal wo, egal wie.
00:11:51: Chatbots sind für sie auch ein idealer Einstieg.
00:11:54: Und zweitens, redet sie, man soll sich eine Quelle suchen, mit der man sich selbst auf den neuesten Stand bringt und zwar regelmäßig.
00:12:00: Das kann entweder ein Newsletter sein, ein Podcast, ein Sachbuch oder die Tech und AI-Seiten eines Legacy Mediums, was uns natürlich besonders freut.
00:12:10: Weil wenn man zum Beispiel der Meinung ist, dass die Daten, die man eingibt in ChatGPT für das Training verwendet werden, Das war mal richtig, das ist nicht mehr richtig.
00:12:22: Und das kann man mittlerweile wahnsinnig gut steuern.
00:12:24: Also das ist sozusagen Old News.
00:12:26: Also man sollte irgendwie up to date bleiben.
00:12:29: Sie meint also die Lernwilligkeit und die Lernfreudigkeit.
00:12:32: Das sind die wichtigsten Voraussetzungen für Erfolg bei KI-Anwendungen.
00:12:37: Ja, das sind gute Stichworte, die wir auf unserer Reise mitnehmen.
00:12:43: Ja und einer, der ausgezogen ist, um zu lernen, ist Patrick Swanson.
00:12:48: Er hat im ORF Social Media gemacht.
00:12:50: und sich danach mit einem Journalismus Fellowship nach Stanford begeben.
00:12:54: Heute lebt er in San Francisco und hat das KI-Beratungslabor Verso gegründet.
00:12:58: Damit zeigt er uns Medien, wie und wo wir KI einsetzen können.
00:13:03: Anna, erst bei uns im Studio gewesen, worüber habt ihr den gesprochen?
00:13:07: Ja, Melanie mir ist aufgefallen, dass er eine sehr positive Veranstaltung zur KI hat, was mich jetzt nicht wahnsinnig überrascht
00:13:14: hat.
00:13:15: Aber er sieht dennoch zwei Denkfehler, und zwar bei
00:13:18: uns.
00:13:18: bei den klassischen Medien.
00:13:20: Er sagt die meisten Medienmanager, heute würden glauben, die KI-Helfe uns in erster Linie dabei effektiver zu werden oder personal einzusparen.
00:13:33: Er spricht dann davon, dass wir vor einer Revolution im Nachrichtengebrauch stehen.
00:13:38: In einer Welt, in der Roboter und künstliche Intelligenz aber in der Lage sind ganz vieles vom klassischen Journalismus zu übernehmen, Müsse man, sagt Patrick Swanson, Journalismus aber komplett neu erfinden.
00:13:50: Okay, also du meinst, die KI nicht nur als Effizienztool ansehen.
00:13:54: Genau.
00:13:55: Aber ich würde sagen, wir hören da einfach rein, was er genau gesagt hat.
00:13:59: Das Publikum wird von uns erwarten, dass es auf jede Frage eine personalisierte Antwort in Zukunft bekommt.
00:14:05: Weil das bekommt von Chatchi Pity.
00:14:08: Und wenn wir nur denken, wir machen Nachrichten weiter wie bisher, dann werden wir noch weniger relevant werden, als wir es... Wir kämpfen ja eh schon drum.
00:14:17: Und deswegen ist mein Appell immer, ich würde mir wünschen, dass vor allem Führungspersonen in Newsrooms, Medienmanagerinnen, dass die sich überlegen, wie erfinden wir eigentlich Journalismus neu.
00:14:30: Ja, und den aktuellen Diskurs im deutbrarigen Medienmarkt, der ja immer meistens sehr aufgeladen ist auch mit Fragen der Regulierung und so weiter, den beobachtet Patrick Swanson mit etwas Abstand aus dem Silicon Valley und er sagt,
00:14:43: Der Journalismus hat sich an Technologie verbrannt, die letzten zwanzig Jahre.
00:14:48: Zuerst mit dem Internet,
00:14:50: wo
00:14:50: der Content auf Webseiten gestellt wurde und dann stellt sich heraus, das zersetzt unser Geschäftsmodell langsam und dann wieder mit Social Media.
00:14:58: Und dann haben unsere Inhalte auf Social Media gestellt und die Plattformen haben versprochen, das ist die Zukunft des Nachrichtenkonsums.
00:15:04: geben uns vielleicht auch Geld dafür.
00:15:06: und dann stellt sich heraus, dieses Versprechen wird nicht gehalten.
00:15:09: Und so gibt es jetzt einen Antagonismus und eine Abneigung, glaube ich, der Gegentechnologie, als etwas zu sehen, das auch ein Werkzeug sein kann.
00:15:16: Sondern wir befinden uns eher, glaube ich, in einer Lobby-Diskussion, wo es umgeht, wir sind hier, wir machen Journalismus auf der einen Seite und da drüben sind die Tech-Konzerne, die arbeiten gegen uns, im besten Fall sind sie neutral, das glauben wir auch nicht so wirklich.
00:15:29: Und dann ist es schwer, in einen Punkt zu kommen, zu sagen, okay, vielleicht ist das nützlich.
00:15:33: Das ist dann wirklich eher ein konfrontatives Verhältnis.
00:15:36: Das heißt, ich glaube einfach, die Lektion aus dem Internet und aus Social Media für den Journalismus war, das ist sehr gefährlich.
00:15:44: Und es ist ja auch nicht so unrecht, das ja wirklich passiert.
00:15:47: Und die zweite Seite davon ist, glaube ich, dass es im Journalismus generell, aber es betrifft nicht nur den Journalismus, aber im Journalismus generell, ein Fehlens an Vorstellungskraft gibt und ein Vision, nämlich wir können uns nicht mehr vorstellen, als dass wir den Status quo erhalten.
00:16:06: Man sieht es an so vielen Dingen.
00:16:07: Nur die Redaktionen nicht weiter schrumpfen.
00:16:10: Nur schauen, dass die Presse überlebt und das Standard überlebt und der ORF überlebt.
00:16:16: So wie die Medienlandschaft halt ausgeschaut hat die letzten Jahre.
00:16:19: Wir haben keine Idee mehr davon, wie wär's denn in zehn Jahren viel besser?
00:16:25: Das kann man sich gar nicht mehr vorstellen.
00:16:27: Aber so reden Tech-Unternehmen nicht.
00:16:29: Und ich find, die Ambition ist was uns fehlt.
00:16:33: Gut.
00:16:34: Das mit der Ambitionslosigkeit, das lassen wir nicht so gerne von sitzen.
00:16:38: Österreichische Medien experimentieren ja sehr wohl mit verschiedensten KI-Tools.
00:16:42: Und um sie, liebe Hörerinnen und Hörer, an den Einstieg in diesem Podcast zu erinnern, die synthetische Stimme von Anna Wallner, die gibt sie jetzt auch schon länger.
00:16:51: Und die haben wir während der Arbeit an diesem Podcast auch einer Person vorgespielt, die sich mit Stimme wie keine andere in diesem Lande
00:16:58: auskennt.
00:17:08: Genau, Sie haben Sie vermutlich schon erkannt.
00:17:11: Ich habe Chris Lohner zu uns eingeladen und sie gefragt, wie sie gefällt.
00:17:16: Ja, also für mich klingt es nicht gut.
00:17:19: Weil es fällt die Modulation.
00:17:22: Jeder Mensch hat eine Musik, wenn er spricht.
00:17:25: Jeder Mensch hat eine Melodie, einen bestimmten Duktus.
00:17:28: Und der geht sicher verloren, weil das können die nicht.
00:17:31: Noch nicht.
00:17:33: Nur zu mitschreiben, der walnische Stimmklon gefällt ihr also nicht.
00:17:38: Chris Loner ist heute zweiundachtzig Jahre alt und sie sagt, was sie sich denkt.
00:17:42: Sie selbst leidet der ÖBB seit unglaublichen sechsundvierzig Jahren.
00:17:47: Stimme und Thambre für sämtliche Zugansagen.
00:17:50: Auch die wurde vor fünf Jahren automatisiert und so musste Chris Loner auch in Studio und viele Texte einsprechen.
00:17:58: Sie hat uns erzählt, dass sie damals ein sogenanntes P-Out dafür bekommen hat.
00:18:02: Ich bin einen ganzen Juli jeden Tag im Studio gesessen und habe fünfzehntausend Setze in Englisch und in Deutsch gesprochen.
00:18:09: Und zwar völlig blödsinnige Setze.
00:18:12: Ich esse eis am Himalaya oder so irgendwas.
00:18:15: Und das hat eine deutsche Firma entwickelt und man konnte aus all diesen Worten einfach zwei Silben nehmen und damit andere Dinge machen.
00:18:22: Das heißt also, bevor es diese automatisierte Stimme gab, lief das alles Großheilsanalog ab.
00:18:27: Chris Lohner musste mehrmals pro Jahr ins Studio, um neue Destinationen und Abfahrtszeiten einzusprechen.
00:18:34: Na, ich hatte so vierzig Stunden im Jahr.
00:18:36: Ungefähr.
00:18:37: Auf ab hier, nach dem Fahrt bei Fahrplanwechsel.
00:18:40: Und dann, Anna, hast du ja mit Chris Lohner auch noch über etwas Unvermeidbares gesprochen.
00:18:45: Und zwar, was passieren wird, wenn sie stirbt.
00:18:48: Und jetzt haben sie von dem P.A.
00:18:49: out gesprochen.
00:18:50: Das ist natürlich ein heikles Thema.
00:18:51: Sie müssen mir das jetzt verzeihen, aber... Gibt es auch eine Regelung dafür, was einmal sein wird, wenn sie nicht mehr sind?
00:18:57: Nein, nix, sie werden mich noch hören, wenn ich tot bin.
00:18:59: Das ist ausgemacht.
00:19:00: Ja, das ist das Payout, das ist das Nutzungsrecht forever.
00:19:04: Mir ist wurscht.
00:19:06: Mir ist wurscht.
00:19:07: Auch eine Ansage.
00:19:08: Allerdings.
00:19:09: Aber wir wollen sie noch ein bisschen teilhaben lassen an der Entstehung unseres Stimmklons.
00:19:13: Die Idee dazu hatte Sarah Weisheupel.
00:19:16: Sie leidet unsere Entwicklungsredaktion bei der Presse und hat das irische Unternehmen Beyond Words als Partner für dieses Projekt ausgesucht.
00:19:24: Die stellen uns den Algorithmus zur Verfügung, mit dem die Stimme generiert wird.
00:19:29: Und unsere hauseige, den Entwickler, die implementieren sie in unsere Web-Anwendungen.
00:19:34: Was die größten Herausforderungen dabei waren, erzählt uns Sarah am besten selbst.
00:19:38: Also die größte Herausforderung ist aus meiner Sicht die, dass man ja oft meint, okay, wenn die KI das macht, dann passt das einfach.
00:19:48: Und das stimmt aber leider nicht, nämlich gibt es dann doch viele Dinge, die man der KI anlernen muss.
00:19:56: Und da ist eben das österreichische Spezifikum dann eigentlich schon etwas gewesen, das großen Aufwand verursacht hat, weil eben viele Dinge wie, wie spricht man China aus?
00:20:08: Es ist in Österreich anders als in Deutschland.
00:20:11: Ja, und Melanie, wie diese Stimme dann genau entstanden ist, das haben wir ja schon zu Beginn der Folge erzählt.
00:20:17: Aber weißt du, was besonders schön ist?
00:20:19: Ich bekomme seither immer wieder erzückende Nachrichten von Presseabonnentinnen.
00:20:25: Eine Dame hat zum Beispiel geschrieben, dass sie es ja dann im Spitalsaufenthalt, das Feature sehr, sehr gerne nutzt.
00:20:30: Bei ihr wurde offenbar ein Hörimplantat eingesetzt und da hat sie dann begonnen sich die Artikel vorlesen zu lassen und das hat ihr sogar dabei geholfen, sich mit ihrem Implantat anzufreunden.
00:20:42: Sarah hat uns auch erzählt, dass es viele Unerwartete und interessante Rückmeldungen gab, vor allem zur Qualität der Stimme und von Zielgruppen, die man gar nicht am Schirm hatte.
00:20:53: Man denkt ja doch irgendwie eher an jüngere Zielgruppen vielleicht, aber es gibt auch viele Fans von der Presse, die sich vielleicht mit der kleinen Schrift immer schwerer tun
00:21:06: in Printprodukt.
00:21:07: Und da haben wir auch sehr positives Feedback bekommen, weil es einfach eine Möglichkeit ist, die Presse weiterhin zu konsumieren, auch wenn man sich mit dem Lesen vielleicht schon ein bisschen schwerer tut.
00:21:18: Wobei ich schon ehrlich dazusagen muss, es gibt auch vereinzelt Kritik.
00:21:23: Eine Schauspielerin hat uns gerade erst geschrieben, dass sie es überhaupt nicht packt, wenn mein Stimmklon aus Eigennamen wie dem früheren Burgdärtedirektor, der vor kurzem gestorben ist, Klaus Peimann, einen Pi-Mann macht oder einen Beimann.
00:21:37: Und viele andere Beispiele hat sie auch noch angeführt.
00:21:40: Und ich würde sagen, das ist genau das, was Sarah gerade erwähnt hat, was aber auch Chris Lohner schon gemeint hat.
00:21:45: Die KI kann eben nicht alles, man muss ihr doch noch vieles antrainieren.
00:21:51: Und erlauben Sie mir noch einen Nachsatz, damit wir hier nicht zu naiv oder verblendet rüberkommen.
00:21:56: Der Einsatz von KI-Stimmbots und ähnlichem bringt natürlich auch Gefahren mit sich.
00:22:01: Und zwar solche, die man heute noch gar nicht abschätzen kann.
00:22:05: In Deutschland und Österreich ist es so, dass die Exekutive sich heute schon sorgt, dass in Zukunft immer mehr Betrüger mit gefägten Stimmen Verbrechen begehen könnten.
00:22:15: Da geht es um Identitätsdiebstahl oder Enkelanrufe und Ähnliches.
00:22:20: Darum haben wir uns auch einen Partner gesucht, der uns garantiert hat, dass meine Stimme nicht illegal verwendet werden kann.
00:22:33: Einer unserer Gesprächspartner für diese Reihe ist Zeb Hochreiter.
00:22:36: Der gebütige Deutscher ist der KI-Forscher Österreichs.
00:22:40: Er leitet an der Johannes Keppler Universität, das Institute for Machine Learning, Und er hat seit Jahrzehnte und Jahrzehnte mit NXAI auch ein eigenes Unternehmen.
00:22:49: Da kann er, wie er selbst sagt, mit Private Money mehr umsetzen als an der Universität.
00:22:55: Auch er ist naturgemäß kein Skeptiker von neuen Technologien, aber was wir ihm sehr schätzen, er ist kritisch und folgt nicht blind irgendwelchen Hypes.
00:23:05: Was komplett falsch ist, dass wir uns am Maschinen-Sklafen, wir am Butler bauen.
00:23:10: Das ist dumm.
00:23:10: was es, wir erweitern unser Gehirn, unseren Geist, indem wir auch komplexere Systeme verstehen.
00:23:17: Er sagt uns also, wir sollten die KI nutzen, um die Menschheit weiterzubringen, zum Beispiel für die Bewältigung des Klimawandels oder in der Krebsforschung.
00:23:25: Darum geht es übrigens auch in seinem kürzlich erschienenen populär wissenschaftlichen Buch, Was kann künstliche Intelligenz?
00:23:33: Ja doch die Panik vor Massenarbeitslosigkeit oder einem großen gesellschaftlichen Umbruch, der durch die KI eingeleitet werden könnte, konntet er recht nüchtern.
00:23:42: Das Gleiche hat schon gegeben bei der Einführung der Elektrizität oder beim Zug oder beim Computer.
00:23:47: Der wird uns vernichten und so weiter.
00:23:49: Mal schauen, was sind wirklich Gefahren und was sind Sachen, wo Leute was sagen, aber nichts dahintersteht.
00:23:56: Es werden sich Jobs schon ändern.
00:23:58: Das heißt, früher habe ich mir Bleistätung Papier gemacht, jetzt mache ich es mit dem Computer.
00:24:02: Und jetzt der nächste Ding ist jetzt nämlich halt KI-Methoden auch dazu.
00:24:06: Ich glaube, das sind eher Techniken, die ich meine Toolbox tun muss.
00:24:09: Genauso wie ich Microsoft Word jetzt hernehme.
00:24:11: Nämlich KI für manche Sachen her.
00:24:14: Und KI wird dann, so wie ich jetzt irgendwas programmiert hab, um irgendeine Maschine zu optimieren, wird das KI mir helfen, das zu machen.
00:24:22: Das alles heißt aber nicht, dass Seb Hochreiter nicht auch beunruhigende Entwicklungen erkennt und benennt.
00:24:29: Er sorgt sich, dass uns der Einsatz von KI noch mehr in Bubbles drängen könnte.
00:24:34: Vor allem, wenn es um den Nachrichtenkonsum geht oder darum, wie Menschen manipuliert werden.
00:24:39: Und das sehe ich eine große Gefahr.
00:24:41: Da brauchen wir wieder KI-Methoden, um das zu erkennen, weil als Menschen erkennen wir das nicht mehr.
00:24:45: Und da gibt es einen Hochrüsten von KI-Methoden, die AngriffsKI, die Falschinformation liefert, die AbwehrKI, die die Falschinformation entlarvt.
00:24:54: Aber das ist ja eine große Gefahr.
00:24:56: Ich sage, die KI, wenn man es richtig einsetzt, ist es so wie Auto oder Computer.
00:25:00: Auto hat auch die Mobilität erhöht, aber es gibt auch Verkehrstote.
00:25:04: Es gibt Probleme mit jeder Technologie und es gibt was Gutes.
00:25:08: Man muss ja bloß schauen, dass das für das Gute eingesetzt wird.
00:25:11: Als jemand, der sich nicht auskennt, würde ich sagen, bitte informieren, sich Sachen lesen.
00:25:17: Für jemand, der sich auskennt, sich überlegen oder vielleicht auch eingreifen, dass die KI für gute Sachen einsetzt wird.
00:25:25: Ja, und er erinnert uns daran, dass wir Menschen dafür verantwortlich sind, wie wir die KI einsetzen, nicht die Maschinen.
00:25:32: Sein Bruchratter werden wir in den nächsten Folgen noch ein paar Mal begegnen.
00:25:36: Da erzählen wir Ihnen auch genauer, woran er forscht.
00:25:39: Und er sagt uns, wie die Industrie mit der KI umgeht.
00:25:42: Und
00:25:43: wie er zu Haushaltsrobotern steht.
00:25:46: Aber Melanie, lass mich noch einmal zurück zu Patrick Swanson und den Medien gehen.
00:25:50: Was sagt denn einer, der sich mehr Ambition von uns Medienmacherinnen wünscht?
00:25:55: Eigentlich dazu, dass jemand wie ich meine Stimme zur Verfügung stelle.
00:26:00: Ist das für ihn eine gute Idee oder meint er, dass man sich so eigentlich selber abschafft?
00:26:05: Ja, gute Frage.
00:26:07: Es war in deinem Fall eine gute Idee, weil du ja ein Produkt geschaffen hast.
00:26:10: Das gab es vorher nicht.
00:26:12: Das ist ein offensichtliches Add-on, ein Mehrwert und fürs Publikum ist es schlicht und ergreifend besser.
00:26:18: Das Produkt ist besser.
00:26:19: Jetzt könnte man sagen, okay, dann machen die das jetzt mit allem, dann brauchen sie mich nicht mehr.
00:26:23: Aber das glaube ich nicht, weil ich bin total hoffnungsfroh eigentlich was... Personalities im Medienbereich betrifft und was auch Kunst zum Beispiel betrifft, aber bei Journalistinnen und Journalisten.
00:26:36: Ich glaube, in einem Podcast werde ich dich hören wollen, weil ich über Jahre ein Vertrauen aufgebaut habe zu dir als Journalistin und weil ich weiß, was ich da bekomme.
00:26:46: Wenn ich transparent weiß, okay, das ist jetzt anderweilig das Stimme, die liest mir einen Artikel vor, verstehe ich schon.
00:26:51: Das ist ja auch jetzt nicht etwas, das mit wahnsinnig viel von deinem eigenen Charakter aufgeladen ist.
00:26:57: Das ist ein Vorlesen.
00:26:58: Das andere ist, dass wir jetzt ein Interview miteinander machen und da kommt dann schon Persönlichkeit rein.
00:27:04: Und da kommt, glaube ich, das, was wir als Menschen von Menschen wollen, rein nämlich Emotion und Empathie unter Bezug zu jemandem anderen.
00:27:13: Und ich glaube, das wird das Publikum weiter wollen.
00:27:15: In den USA.
00:27:16: Ich bin riesiger Fan von Ezra Klein.
00:27:18: Bei der New York Times.
00:27:19: Ich will aber Ezra Klein nicht den Podcast in KI hören.
00:27:22: Ich will Ezra Klein hören.
00:27:23: Und ich will hören, wie der über Wörter stolpert.
00:27:26: So wie ich gerade.
00:27:27: Und ich will hören, wie das ... Den Mensch will ich hören.
00:27:30: Und ich glaube das bei Medien.
00:27:32: Und ich glaube das genauso bei Kunst zum Beispiel.
00:27:34: Wir können jetzt schon Taylor Swift Songs KI faken.
00:27:38: Wunderbar.
00:27:38: Es gibt sie.
00:27:39: Millionenfach.
00:27:40: Niemand will sie hören.
00:27:42: Ich will Taylor Swift im Konzert sehen.
00:27:45: Und ich will Taylor Swift ihre Lebenserfahrungen, die sie da aufschreibt, wissen.
00:27:50: Und ich glaube, dass das bleiben wird, weil ich glaube, dass wir zudem immer mehr connecten werden.
00:27:54: Und so bietet es dein Produkt dann, wo es deine Stimme gibt, im Artikel vorlesen.
00:27:59: Und auf der anderen Seite hast du aber dadurch Zeit und die Möglichkeit, einen Mehrwert als Mensch, als Journalistin zu schaffen, eben mit Dingen, wo du mehr Energie und Empathie und dieses alles reinstehst.
00:28:16: Das war die erste Folge von Austrian Intelligence.
00:28:19: So heißt die KI-Reihe der Presse.
00:28:21: Zwei weitere Episoden kommen noch.
00:28:23: Mit den Klängen von Taylor Swift, und zwar von der Echten, leuten wir hiermit das Ende von Kapitel eins dieser KI-Reise ein.
00:28:31: Alle links und weiterführende Tipps finden Sie wie immer in den Show-Notes dieser Folge.
00:28:35: Für Schnitt- und Postproduktion verantwortlich war das Team von Audio-Fundl.
00:28:40: Für heute sagen wir només Tschüss
00:28:41: und auf Wiederhören
00:28:43: und Danke fürs Zuhören.
00:28:46: Na, jetzt haben sie aber schon erkannt, welche Stimme echt war und welche nicht, oder?
Neuer Kommentar