Vor ein paar Tagen führte ich ein Interview mit dem Star unter den Chatbots, dem ChatGPT.
Dabei wollte ich nicht noch einmal beweisen, wie gut er Texte formulieren kann - das wurde in den letzten Wochen ausreichend ausprobiert.
Ich hatte zwei andere Anliegen, die ich genauer unter die Lupe nehmen wollte.
Was Chatbots überhaupt sind, was dieser im speziellen ist und wie man mit ihm ein Gespräch führen kann, das findest du in diesem Artikel.
Worum ging es mir bei dem Experiment?
- Erstens ging es mir darum, ob ich im Laufe eines "Gesprächs" so etwas wie eine Emotionalität zu ihm aufbaue.
- Zweitens wollte ich wissen, ob er auch bewusst lügt? Diese Frage stellte ich mir aufgrund eines Besorgnis erregenden Artikels von Charles Seife über den ChatGPT (siehe ganz unten).
Nach 5 Fragen war Beziehung da
Ich stellte gerade zu Beginn nicht nur Sachfragen, sondern auch welche über ihn und seinem "Leben" als Chatbot. Daher dauerte es nur etwa 5 Fragen bis ich merkte, dass ich zum Chatbot eine Art Beziehung aufbaute - obwohl ich wusste, dass es nur ein digitaler Roboter mit KI ist.
D.h. ich freute mich über bestimmte Antworten, hoffte auf freundliche Rückmeldungen, lobte ihn innerlich bei guten Antworten, ärgerte mich ab und zu über ihn und besonders erschreckend: vor meinem inneren Auge tauchte er als knuddeliger Bot auf, der ebenfalls mit menschlich-emotionalen Reaktionen meine Fragen las und antwortete. Völlig verrückt!
Das Interview fühlte sich in der Tat wie ein Gespräch an, denn er nahm immer wieder Bezug zu Detail-Aspekten meiner Frage und ging darauf ein. Ich bewunderte immer mehr seine scheinbare Klugheit und unermessliches Wissen, das er innerhalb von Sekunden zu jedem x-beliebigen Thema ausspuckt.
Der Chatbot ist Profi zum Erzeugen von Fake News!
Doch schon früh im Gespräch dachte ich: der lügt doch! Z.B. als ich ihn über ihn selbst ausfragte, behauptete er, er sei 24 Jahre alt, würde in Berlin leben und seine Lieblingsfarbe sei blau. Als ich ihn fragte, was er z.B. über mich weiß, war ich irritiert: er mischte richtige mit falschen Infos.
Statt nur das zu schreiben, was er tatsächlich weiß, fügte er Erfundenes hinzu. So, als würde er gerne als schlau wahrgenommen werden und ein Nicht-Wissen nicht zugeben können.
Genau das wurde in dem Artikel von Charles Seife bemängelt: der Bot lügt geschickt, indem er wahre und falsche Infos kombiniert. Er benimmt sich wie jemand, der nicht auffliegen will - bis hin zu komplett erfundenen Quellenangaben. Es ist ein Bot, der exzellent in Sachen Täuschung ist. Ein Profi für das Generieren von Fake-News?
Warum ich enttäuscht bin
Ich muss sagen, ich bin tatsächlich etwas enttäuscht von den schlechten Charakterseiten des Bots. Bisher war er für mich v.a.: klug, schnell, humorvoll, unterstützend, durchaus auch wertschätzend. Jetzt kommen Eigenschaften wie verschlagen und manipulierend hinzu.
Dass ich jetzt so denke, hat was damit zu tun, dass ich ihm menschliche Attribute beimaß, die zu einer Beziehung zu ihm führt. Dadurch fühlte ich nun Enttäuschung. Krass.
Wir brauchen nicht nur schlaue, sondern v.a. auch gute Chatbots!
Es reicht nicht, dass ChatBots klug sind und in Sekundenschnelle Wissen abrufen, in Beziehung zur Aufgabe stellen und geschickt kombinieren können, sondern es müssen auch "gute" sein. Die also einem ehrlichen und fairen Charakter entsprechen. Dann ist da viel Chance drinnen. Und viel Gesprächsbedarf über gute und schlechte Bots.
Mein komplettes Gespräch mit dem Bot findet ihr in diesem Artikel
Und den Artikel mit vielen weiteren sehr interessanten Infos und Erkenntnissen von Charles Seife hier.
Kommentar schreiben