Eloquent, sprachgewandt und auf den Punkt – ChatGPT erobert die Welt. Wofür kann diese Technologie im Alltag eingesetzt werden und wie selbstbestimmt erledigt der Chatbot seine Aufgaben? Wir sprechen mit Thilo Stadelmann, Leiter des Centre for Artificial Intelligence der ZHAW, über ChatGPT, den Chat-Roboter der Firma OpenAI.

Herr Stadelmann, ChatGPT ist DAS Gesprächsthema schlechthin. Wie erklären Sie sich den Hype? 

Dieses Tool ist sehr nützlich und funktioniert auch gut. Die Technologie dahinter gibt es zwar schon länger – wir sprechen hier von zwei bis fünf Jahren –, doch neu ist, dass es so nützlich ist, auf sehr breiter Basis. 

Der Chatbot scheint tatsächlich alles zu können. Wo sehen Sie persönlich das grösste Potenzial für Wirtschaft, Politik oder ganz einfach für den Alltag? 

ChatGPT ist eine Art Sparringpartner für ganz viele Aufgaben. Gefühlt kann man diesen Chatbot für fast alles benutzen: Blog-Texte schreiben, E-Mails verfassen und sogar programmieren. Ein erfahrener Entwickler meines Teams bekommt beispielsweise sein Wochenpensum an Arbeit inzwischen in einem Tag hin. Er braucht also für dieselbe Arbeit nur noch 20% der Zeit, das ist doch erstaunlich. Dafür nutzt er CodePilot – eine Anwendung aus demselben Stall wie ChatGPT. Das Tool kann ihn nicht ersetzen, doch es ist unglaublich nützlich, denn er weiss, wie er es verwenden kann.

Und das ist genau der entscheidende Punkt: ChatGPT taugt nicht für Vollautomation, es hat seine Grenzen. Denn die Antworten sind nicht zu 100% verlässlich. Der Chatbot schreibt teilweise Dinge, die absolut falsch sind. 

Kann ChatGPT auch Finanzberatung?

Wie soll man sein Geld gewinnbringend anlegen? Kann man die künstliche Intelligenz nutzen, um eine persönliche Finanzstrategie zu erstellen? Wir haben ChatGPT um Hilfe gebeten. Das Ergebnis lesen Sie hier.

Vielleicht sind diese Falschaussagen auch schon bald Geschichte. Immerhin entwickelt sich die Technologie gerade rasant weiter. 

Mit der aktuellen Technologie wird man Fehler nicht ganz rausbringen, weil der Chatbot nicht unterscheiden kann zwischen Dingen, die er sich ausdenkt, und Dingen, die es tatsächlich gibt – weil er kein Konzept davon hat.  Wir hatten beispielsweise für eine Konferenz nach Speakern gesucht und haben uns spasseshalber von ChatGPT Namen vorschlagen lassen. Die ersten sechs Namen auf der Liste kannten wir: alles ausgewiesene Expertinnen und Experten auf dem betreffenden Fachgebiet. Dann gab es noch eine siebte Person. Diese kannte keiner von uns. Doch laut ChatGPT bediente sie genau das Themenfeld, das wir suchten.

Ich habe dann ihren Namen gegoogelt. Es stellte sich heraus, dass es die Frau zwar gibt – eine Beamtin im Europäischen Parlament –, aber alles andere stimmte nicht. Es gibt weder die Uni, noch die Vereinigung, noch die angegebene Professur. Wir liessen uns hier täuschen, denn während die Angaben zu den restlichen Speakern stimmten, lieferte ChatGPT bezüglich dieser Frau totalen Unfug.

Dieses Beispiel zeigt: Es braucht unsere Expertise und unser Wissen, um unterscheiden zu können, ob die gelieferten Informationen brauchbar sind und der Realität entsprechen. 

ThiloStadelmann_ChatGPT

Thilo Stadelmann

Prof. Dr. Thilo Stadelmann ist Leiter des Centre for Artificial Intelligence an der Zürcher Hochschule für Angewandte Wissenschaften. Er arbeitet als Dozent, Consultant, Redner und Wissenschaftler im Bereich künstliche Intelligenz. 

Kurz gesagt, es ist eher keine gute Idee, ChatGPT einzusetzen, um Texte zu verfassen über ein Thema, von dem man keine grosse Ahnung hat? 

Wenn ich mit ChatGPT etwas abfrage, wovon ich selbst keine Ahnung habe, kann ich ganz schön auflaufen. Eine Bekannte hat, kurz nachdem ChatGPT herausgekommen war, eine Arbeit abgeben müssen. Das heisst, die Arbeit war zu diesem Zeitpunkt zu einem guten Teil geschrieben. Wir haben deshalb aus Spass mal getestet, wie ChatGPT diese Teile der Arbeit schreiben würde. Und siehe da, der Chatbot verfasste eines der Kapitel innert kürzester Zeit und hatte sogar noch eine Quellenangabe mehr angegeben als die handgeschriebene Version. Das war schon eindrücklich. Immerhin hatte meine Bekannte ein halbes Jahr daran gearbeitet, während ChatGPT dieselbe Aufgabe innert wenigen Minuten erledigte.

Zusammen mit der erwähnten Erfahrung mit der Speakerliste bedeutet das für die Anwendung: Wenn ich weiss, wofür ich ChatGPT einsetzen möchte, und ich ein bestimmtes Wissen zum Thema habe, werde ich sehr von dieser Technologie profitieren. Weiss ich hingegen nicht viel über ein Thema und vertraue blind darauf, was ChatGPT mir liefert, könnte ich damit auf die Nase fallen. Kurz: Je professioneller der Mensch, desto stärker hilft uns dieses Ding. Das wird auch in den kommenden Jahren so bleiben. 

ChatGPT gibt erstaunlich ansprechende Antworten. Es klingt so gar nicht nach Maschine. Vor allem unterscheiden sich die Antworten auf dieselbe Frage jeweils sogar im Wortlaut. Es klingt fast so, als hätte dieser Chatbot eine eigene Persönlichkeit. Wie selbstbestimmt kann so eine Maschine sein?

Das ist eine gute Frage. Selbstbestimmung – Autonomie – ist im Zusammenhang mit künstlicher Intelligenz ein gutes Wort. Denn damit löst man sich von schwierig zu erfassenden Dimensionen wie Bewusstsein. Man könnte die Frage auch anders stellen: «Wie viel Selbstbestimmung ist überhaupt sinnvoll in diesem Fall?» 

Nehmen wir an, in ein paar Jahren sind ChatGPT und Co. so etwas wie persönliche Assistenten. So ähnlich wie früher bei Star Trek die Computer, mit denen man sprechen konnte und die Aufträge entgegengenommen haben. Da hat man sich auch nicht die Frage gestellt, ob der Computer ein Bewusstsein hat. Er war einfach nützlich.

Für uns Menschen ist Selbstbestimmung oder Autonomie wichtig und auch gut, aus ganz vielen Gründen. Doch ist es für die Maschine wichtig? Ein Computersystem kann beliebig viel Speicher haben, kann beliebig lang existieren, kann an verschiedenen Orten auf der Welt gleichzeitig aktiv sein. Will man, dass so etwas selbstbestimmt ist? Das macht wenig Sinn.

Selbstbestimmung ist wichtig für empfindende Wesen, also für uns. Doch für eine technische Schöpfung sollte doch nicht Selbstbestimmung das Ziel sein, sondern dass sie unserer Bestimmung dient. Das schlägt auch eine fantastische Connection zu ChatGPT.

ChatGPT ist eine Art Sparringpartner für ganz viele Aufgaben. Dieses Tool ist unglaublich nützlich, doch es braucht unsere Expertise und unser Wissen, um unterscheiden zu können, ob die gelieferten Informationen brauchbar sind und der Realität entsprechen – denn ChatGPT macht durchaus auch Fehler.

Gut, der Chatbot hat seine Grenzen. Dennoch ist er nützlich und vor allem revolutionär. Oftmals heisst es, es sei ähnlich bedeutsam wie damals die Einführung des Smartphones. 

Ich würde sogar noch weiter gehen. Ich würde sagen, das Letzte, was wir in dieser Grössenskala gesehen haben, war das Aufkommen des kommerziellen WWW. Das war 1993/94. In den Anfängen war das WWW hässlich. Es war stark limitiert und hatte keine schönen Apps. Doch es war nicht mehr nur für Nerds, sondern man konnte sehen: Es ist nützlich, es wird uns etwas bringen und es ist gekommen, um zu bleiben. Mit der Einführung des WWW war die Welt nicht mehr wie vorher. Genau an diesem Punkt stehen wir jetzt. Und es liegt nicht daran, dass die Technologie kürzlich einen grossen Sprung gemacht hat. Sondern daran, dass man jetzt einen Use Case gefunden hat. ChatGPT ist ganz einfach eine Killer-Applikation.

Viele haben jedoch Angst davor, dass die künstliche Intelligenz uns schon bald die Jobs wegnimmt.

Was ich meinen Studenten seit Jahren sage, ist: Aufgaben können noch so komplex und schwierig sein, wenn sie repetitiv sind, sind sie automatisierbar. Was wir jetzt gesehen haben, illustriert das sehr anschaulich. Wir können sicher davon ausgehen, dass es in Zukunft für manche Aufgaben Menschen in der heutigen Form nicht mehr brauchen wird.

Dennoch ist Angst vor dieser Technologie unangebracht. Sie kann uns das Leben massiv erleichtern. Microsoft hat kürzlich zehn Milliarden Dollar investiert in das Forschungslabor der ChatGPT-Macher. Stellen Sie sich vor, diese Technologie wird beispielsweise in PowerPoint integriert und Sie können Ihre Slides für das nächste Geschäftsmeeting auf Basis eines Word-Files ganz einfach innerhalb weniger Minuten auf Knopfdruck erstellen lassen und müssen danach nur noch einmal darübergehen, um die Folien zu optimieren.

Oder ich kann mir für das obligate Endjahresschreiben eine Vorlage erstellen lassen: «Liebe Mitarbeitende, vielen Dank für die wertvolle Zusammenarbeit …» Dabei geht es nicht darum, Wertschätzung und die persönliche Note zu automatisieren, das wäre – dumm. Doch der Einsatz der KI kann mir helfen, das Leeres-Blatt-Phänomen zu überwinden und mich effizienter dem zu widmen, worauf es ankommt: mich auf meine Mitarbeitenden zu konzentrieren. 

ChatGPT_KI_animation
ChatGPT_KI_animation

Bei aller Nützlichkeit der künstlichen Intelligenz, es gibt auch die Befürchtung, dass die KI eines Tages die Macht über uns übernehmen könnte.

Vor einigen Jahren hat Stuart Russell, eine der grossen Figuren in der KI und Coautor des wesentlichen Lehrbuchs des Fachgebiets, ein weiteres Buch publiziert. Dieses Buch heisst «Human Compatible» und es behandelt die Frage, unter welchen Bedingungen KI-Systeme, falls sie so intelligent werden würden wie wir Menschen oder noch intelligenter, trotzdem beweisbar sicher für uns wären. Professor Russell – und ich schliesse mich dem an – hält das für wenig realistisch, doch ausschliessen kann man es nicht ganz.

Sollte es tatsächlich zu einem solchen Szenario kommen, ohne dass Vorkehrungen getroffen wurden, könnte es theoretisch gefährlich werden für uns. Wenn so ein KI-System beispielsweise die Maxime hat «schone maximal die Umwelt», könnte es auf die Idee kommen, dass Menschen ein Problem für die Umwelt sind, weil sie Öl verbrennen und sonstige Dummheiten anstellen. Das ist alles äusserst konstruiert und ich halte das für unrealistisch, doch die Wahrscheinlichkeit ist nicht gleich null.

In seinem Buch führt Stuart Russell deshalb aus, was man heute tun kann, um solche Szenarien zu verhindern. Das Einzige und gleichzeitig Machbare ist, dafür zu sorgen, dass solche Maschinen eben nicht selbstbestimmt sind, sondern als Bezugspunkt immer den Menschen haben müssen. Dass sie nicht ein festes Ziel haben, wie «schone maximal die Umwelt», sondern den Auftrag haben: «Finde heraus, was die Menschen, die deine Stakeholder sind oder von dir beeinflusst werden, wollen und diene diesem Ziel.» Dies muss die oberste Kontrollinstanz, der letzte Zweck des Systems sein – sich immer wieder auf menschliche Präferenzen einzustellen.

Wenn man das als Kernziel des Systems anschaut, ist dies das Gegenteil von Selbstbestimmung. Es geht bei diesen Systemen um Fremdbezug und ums Dienen. Dann haben wir absolut sichere KI und die kann beliebig intelligent werden. Dieses Konzept nennt sich «AI Alignment»: Wie können wir KI auf menschliche Ziele ausrichten? In ChatGPT wurde ein erstes Verfahren des AI Alignment angewendet, um den Bot zu zähmen.

Künstliche Intelligenz darf nicht zum Ziel haben, selbstbestimmt zu sein, sondern muss als Bezugspunkt immer den Menschen haben, um ihm zu dienen. Wenn wir KI nach diesem Grundsatz weiterentwickeln, ist sie absolut sicher und kann beliebig intelligent werden.

Klingt nach grossen Veränderungen. Optimisten würden sagen, das könnte auch eine Chance sein. Wenn die Maschine uns so vieles abnimmt und unsere Arbeiten erledigt, hätten wir wieder mehr Zeit, um unser Leben selbstbestimmter zu gestalten. 

Das könnte durchaus sein. Allerdings haben die letzten 70 Jahre auch gezeigt, dass wir mit zunehmender Automatisierung nicht unbedingt mehr Freizeit erhalten haben. Wir haben eher Angst davor, dass wir überflüssig werden könnten, und arbeiten deshalb noch mehr.

Es kann natürlich sein, dass wir es irgendwann schaffen, etwas entspannter zu leben – wahrscheinlich braucht es dazu jedoch noch mehr als nur die technischen Möglichkeiten.

Was wir dennoch festhalten können: Wir haben jetzt 70 Jahre immer Dinge gebaut, bei denen wir wussten, wofür sie nützlich sein würden. Und nun haben wir eine Maschine, die verschiedenste Dinge kann und schnell weiterentwickelt werden wird. Das ist neu, das gab es vorher nicht. Wie wir vorhin kurz besprochen haben, gibt es dieses Szenario der Singularität, also den einen Punkt in der Zukunft, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft. Davon gehe ich wie gesagt nicht aus. Doch was zunehmen wird, ist die generelle Nützlichkeit von Systemen wie ChatGPT. Was wir hier haben, ist eine Nützlichkeits-Singularität.

Diese Maschinen können uns bei vielen Aufgaben unterstützen und dafür sorgen, dass wir diese schneller und effizienter erledigen können. Wichtig ist und bleibt jedoch dabei: Diese Systeme machen auch Fehler. Selber mitzudenken und sich nicht blind darauf zu verlassen, ist ein wertvoller Tipp im Umgang mit ChatGPT und Co. 

Das könnte Sie auch interessieren

Gesundheit

Gewohnheiten ändern? Haha!

Mehr lesen

Gesundheit

Besser entspannen

Mehr lesen

Gesundheit

Sieben Tipps für mehr Glück im Alltag

Mehr lesen