KI-Zertifizierung: Künstliche Intelligenz auf dem Prüfstand

Shownotes

Spätestens seit dem Hype rund um den Chatbot Chat GPT ist künstliche Intelligenz in aller Munde. KI − jenes Teilgebiet der Informatik, das sich dem Ziel verschrieben hat, Maschinen intelligent zu machen − hat die breite Öffentlichkeit in ihren Bann gezogen. Die Gesellschaft steht vor einer technologischen Revolution, deren Ausmaß und Folgen noch schwer einzuschätzen sind.

KI-Systeme verstehen lernen

Der Themenkomplex ist ebenso faszinierend wie für viele noch mysteriös. Wenn ein Taschenrechner innerhalb von Bruchteilen einer Sekunde hochkomplexe Rechnungen ausführt, ist das zwar beeindruckend, aber man spricht dabei nicht von Intelligenz. KI steht vielmehr für die Fähigkeit einer Maschine, menschliche Kompetenzen wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI-Systeme sind dabei in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.

Zertifizierung von KI-Anwendungen

Hat KI das Potenzial, den Industriesektor zu mehr Effizienz, zu geringeren Kosten und höherer Wettbewerbsfähigkeit führen zu können? Und ist KI, die mit potenziell hoch sensiblen Daten arbeitet, dabei vertrauenswürdig und sicher? Im Presse-Podcast nimmt Stefan Haas, CEO des TÜV Austria, zu diesen Themenfragen Stellung, erläutert dabei den Unterschied zwischen schwacher und starker KI sowie zwischen den Konzepten von Machine und Deep Learning und erklärt, warum es so wichtig ist, KI-Anwendungen einer genauen Begutachtung und Zertifizierung zu unterziehen, bevor diese zur Anwendung kommen.

„Nachgefragt: Viertel vor Haas“ ist eine vierteljährliche Podcast-Reihe mit Christian Lenoble („Die Presse“) im Gespräch mit TÜV-AUSTRIA-CEO Stefan Haas. Die nächsten „Viertel vor Haas“- Folgen hören Sie am 18.9. und 27.11. | Folge 1 | tuvaustria.com/viertelvorhaas

Stefan Haas, geboren 1965 in Wien, studierte Maschinenbau an der Technischen Universität Wien und schloss 1994 das Studium mit dem Doktorat der technischen Wissenschaften mit Auszeichnung ab. Seit dem 1. März 2013 ist der Manager und Wissenschaftler, der für seine Forschungs- und Entwicklungsarbeiten mit nationalen und internationalen Preisen bedacht wurde, Vorsitzender des Vorstands (CEO) der TÜV AUSTRIA Holding AG.

Kommentare (1)

grv0815

Bitte nennt das Kind endlich beim Namen und vergesst die Marketing-Begriffe. Die heutige A.I. macht nichts anderes als eine - zugegeben hochdimensionale - Funktion anzupassen. Punkt. Mit Intelligenz hat das nichts zu tun und niemand muss sich davor fürchten. Wer sich unbedingt fürchten will, kann sich vor der Marktkonzentration der Mitspieler fürchten. Auch der Begriff 'deep learning' sollte endlich demystifiziert werden. Schon in den 70ern berechnete ein Student die maximale Anzahl der Schichten eines neuronale Netzes, ab der der Informationsgehalt des zum Lernen eingespielten Feedbacksignals bei Null ankommt. Vor einigen Jahren wurde dieses Paper wiederentdeckt und man erkannte, dass man längst schon zu viele Schichten einsetzte, sprich die unteren, tiefen Schichten gar nichts mehr lernen konnten. Einmal erkannt, konnte der Fehler bald behoben werden, man spielte in manchen Zwischenschichten ein zusätzliches Feedbacksignal ein und das 'deep learning' war geboren. Natürlich kann man nicht einfach das primäre Feedbacksignal verwenden, sonst würde man den Lernerfolg der Vorgängerschichten ignorieren. Aber 'deep learning' ist nur die Ausweitung bekannter neuronaler Lernalgorithmen auf mehr Schichten und sonst nichts. Btw., es wurde noch kein einziger biologischer Organismus entdeckt, der auch nur Anzeichen für einen der verwendeten Lernalgorithmen für neuronale Netzwerke zeigt. Zwar wurde die neuronale Zelle als Baustein der Netze durch biologische Neuronen inspiriert, dennoch verspricht der Name 'neuronale Netze' mehr als er halten kann. Der Entwicklungszweig der 'understandable A.I.' ist so eine Sache für sich. Man versucht, das zu sehen was man sehen will. Wissenschaftstheoretisch ein, naja, Graubereich. Wir sollten uns damit abfinden, dass A.I. nützliche Anwendungen hat, aber nicht für Sicherheit sorgen kann weil sie nicht nachvollziehbar ist. Diese Sichtweise konnten wir bei der FuzzyLogic entwickeln und sollten sie - Hype hin oder her - auch jetzt bei der A.I. entwickeln. LG

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.