ChatGPT macht Furore und wird euphorisch als Siegeszug der KI gefeiert. Zweifellos hat dieser Chatbot der neuen Generation viele Stärken und kann hilfreich sein. Nur einmal mehr wird, wie schon bei der Digitalisierung, auch diese KI-Innovation unkritisch gehypt. Welches die zahlreichen Gefahren und Risiken sind und wo Vorsicht geboten ist, verrät dieser Beitrag.
Viele dieser Fragen betreffen direkt und indirekt auch das Human Resource Management. Man denke nur an Selektionsverfahren, das Recruiting, Stellenbeschreibungen, Arbeitszeugnisse, Kündigungen, People Analytics, Job-Interviews, Mitarbeiter- und Analysedaten und viele Bereiche mehr.
Die 20 Gefahren von ChatGPT
- Warum stellt niemand die Frage nach der Berechtigung, mit Daten und Wissen anderer zu handeln und diese zu verwerten (Urheberrecht)?
- Was tut man dagegen, bei wichtigen Fragen und Problemen nicht mehr zu wissen, ob Informationen nun von Menschen oder von Chat GPT kommen?
- Das individuelle Wissen verliert an Wert, es wird kollektiviert
- Kann es nicht auch sein, dass vor allem junge Menschen das Lernen verlernen werden?
- Gefährdet ist auch der Journalismus, der versucht sein wird, zu so generierten Texten zu greifen
- Was tut der Staat und die Techbranche zur Einschränkung der Anwendungsgebiete?
- Wer haftet für falsche oder irreführende Antworten und Informationen?
- Warum fordert niemand die Transparenz, woher die Daten kommen und wie sie aufbereitet werden?
- Es besteht die Gefahr, die Urteilsfähigkeit zu verlieren, indem man sich nur noch auf Antworten von Chat GPT verlässt.
- Chat GPT entpuppt sich schon jetzt bei gewissen Themen als wissenschaftliche Fake-News-Schleuder
- Chat GPT könnte auch als Waffe missbraucht werden, um das Vertrauen in Rechtsstaatlichkeit und letztlich in die Demokratie zu zerstören.
- Eine solches Instrument privaten Unternehmen zu überlassen, ist fahrlässig und unverantwortlich, vor allem wenn zweifelhafte Personen wie Musk involviert sind.
- ChatGPT verfügt über manchmal eminent wichtige Fähigkeiten wie Empathie, soziale Verantwortung, differenziertes Denkvermögen, Berücksichtigung situativer Gegebenheiten und vieles mehr nicht.
- (Zu) Hart geht eine Datenwissenschaftlerin mit Chat GPT ins Gericht: Sie sei nichts anderes als «automatisch generierter Blödsinn», der manchmal richtig und manchmal falsch sei.
- Der jetzt schon immer mehr abnehmende zwischenmenschliche Dialog könnte weiter reduziert werden
- Chat GPT steht vermutlich erst am Anfang seiner Entwicklung. Was geschieht, wenn der Mensch die Kontrolle verliert und Entscheidungen nicht mehr nachvollzogen werden können?
- Menschliche Intelligenz kann nur noch eingeschränkt beurteilt und auch vorgetäuscht werden
- Es wurde bereits nachgewiesen, dass Chat GPT Quellen frei erfindet, die gar nicht existieren
- Vor allem junge Menschen könnten immer mehr die Fähigkeit verlieren, selbstständig zu denken und Probleme zu lösen.
- Die Hacker- und Manipulations-Gefahren sind ebenfalls nicht zu unterschätzen.
Die Grenzen von ChatGPT
Man muss auch die Leistungsfähigkeit und Intelligenzleistung von ChatGPT relativieren: ChatGPT erbringt keine eigene kreative Intelligenz, sondern – etwas böse ausgedrückt – wiederkäut bestehendes Internet-Wissen und bringt es lediglich in eine dialogfähige und komprimierte Form. Chat GPT ist sozusagen eine Imitations- und Plagiatsmaschine – oder noch etwas böser – ein stochastischer Papagei -, die mit bereits vorhandenen und von Menschen erarbeiteten Daten gefüttert wird – dessen sollte man sich bewusst sein. Eine klare Schwäche von ChatGPT ist auch, dass er nicht zwischen Fakten, Fake und Fiktion unterscheiden kann.
KI ist eher maschinelles Lernen
Was man sich auch bewusst sein sollte: ChatGPT ist abhängig von der Qualität und Anzahl der Quellen, auf die es zugreift und von den Trainingsdaten, mit dem es gefüttert wird. Sind in diesen Inhalte nur spärlich vorhanden, falsch oder veraltet, fallen auch die Resultate ungenügend oder zuweilen sogar falsch aus. Streng genommen ist schon der Begriff Intelligenz in der KI nicht korrekt und ein Marketingterminus. Es handelt sich bei korrekter Beurteilung von ChatGPT viel eher um maschinelles Lernen.
ChatGPT reproduziert vorhandene Texte
Was im Internet am häufigsten thematisiert wird und in als vertrauenswürdig geltenden Quellen enthalten ist (Wikipedia), ist für den Chatbot nur deshalb oft auch das Korrekte und Richtige, worauf man sich verlassen kann. Stellt man dem Textgenerator – als den man ChatGPT ja auch bezeichnen kann oder soll – anspruchsvolle Fachfragen oder wünscht sich kreative Lösungen, stösst er schnell an seine Grenzen und bleibt doch recht oberflächlich und plattitüdenhaft – und kann sogar ins Halluzinieren verfallen. Solche Antworten sollte man also immer überprüfen – umso wichtiger sie sind, desto genauer. Die Antworten kommen oft auch sprachlich mechanisch daher, da ChatGPT einem typischen programmierten Antwort-Muster folgt.
Expertenwissen und Kreatives liefert ChatGPT unbefriedigend
Sind Fragen anspruchsvoll oder betreffen komplexe Themen, stösst man ebenso schnell an die Grenzen von ChatGPT. Er ist daher auch nicht fähig, „out of the box“ zu denken und zu argumentieren, sondern reproduziert vorhandene Texte in der Form statistischer Wahrscheinlichkeiten. Das ist so gesehen auch keine Intelligenz, auch wenn sie als künstlich gesehen wird. Problematisch ist natürlich auch, dass einmal mehr Techkonzerne dominieren, welche sich jeder demokratischen und politischen Kontrolle und Verantwortlichkeit entziehen. Amüsant und nur am Rande von Bedeutung: Sagt man ihm, dass man seine Antworten anzweifelt, kann er zickig reagieren und seine Frager sogar beleidigen :-).
Nachlassende Qualität und Zuverlässigkeit
Aktuell nimmt auch die Qualität von Antworten tendenziell ab. Dies hat unter anderem damit zu tun, dass ChatGPT Fakes nicht von Facts unterscheiden kann und sich so immer wieder auch mit eigenen Falschinformationen inzestartig füttert. Deshalb ist es auch nicht erstaunlich, dass die Nutzung von ChatGPT abnimmt.
Problematisch ist auch, dass die KI immer wieder auch (menschliche) Vorurteile widerspiegelt, die im riesigen Datensatz erfasst wurden. Zudem generiert ChatGPT auch bei heiklen Themen durch das recht hohe Sprachniveau plausibel klingende Unwahrheiten, die zur unkritischen Akzeptanz verleiten. Es ist also besonders bei wichtigen Informationen grösste Vorsicht geboten. Wer der KI eine schwierige Frage stellt, ohne die Antwort auf deren Korrektheit zu überprüfen, oder diese anderswo zu verifizieren oder nachzurecherchieren, muss sich bewusst sein, Falschinformationen erhalten zu können.
Soll man KI wirklich privaten Techkonzernen überlassen?
Dies ist ein weiterer Aspekt, der unbedingt berücksichtigt werden sollte. Schon der Missbrauch bei sozialen Medien mit Fakenews und Manipulationen zeigte, wie schnell auch demokratische Werte gefährdet werden können. Noch stärker gilt dies für eine, wenn sie ausser Kontrolle oder in die Hände diktatorischer Regimes gerät. Überdies sind Techkonzerne weder in der Lage noch legitimiert, über dermassen mächtige Tools mit weit reichenden gesellschaftlichen Auswirkungen zu entscheiden. Mit anderen Worten: KI muss reglementiert werden. Mit dem Artificial Intelligence Act arbeitet die EU bereits daran und hat erkannt, dass man diese nicht den USA überlassen darf.
Die positiven Aspekte von ChatGPT
Auch wenn man ChatGPT mit kritischer Distanz und notwendiger Skepsis beurteilen und nicht kritiklos dem Hype verfallen sollte – man darf die erstaunlichen Fähigkeiten und den gewaltigen Entwicklungssprung dieser Chatbot-Generation nicht unterschätzen. Auch in den üblichen Kulturpessimismus zu geraten, der nur Gefahren und Risiken, aber die Chancen und das Potenzial nicht sieht, ist der falsche Weg. Überzeugend und nutzenstiftend sind beispielsweise:
- Das unglaubliche Tempo, mit dem ChatGPT Antworten liefert
- Die erstaunliche Dialogfähigkeit von Antworten und Chats
- Die sprachlich fast immer fehlerfreie Kommunikation
- Der Grad der Korrektheit und Strukturierung der Antworten
- Je nach Fragestellung die Differenzierungsfähigkeit und Objektivität
Es wird am Schluss vermutlich so sein, dass wir diese Entwicklung nicht verbieten und ablehnen sollten, sondern lernen müssen, damit umzugehen und den Chatbot als Werkzeug zu sehen, das uns eher unterstützt als bedroht. Nur dieses Lernen wird immer anspruchsvoller und spaltet unsere Gesellschaft wohl noch mehr eine Zweiklassengesellschaft, als dies jetzt schon der Fall ist: Eine Minderheit, die weiss, wie damit umzugehen und ChatGPT zu hinterfragen versteht und eine Mehrheit, die es verlernt zu lernen und das Denken an den Chatbot abdelegiert.
Übrigens: Dieser Text wurde ohne jegliche Assistenz des Chatbots verfasst :-). Wir hoffen, Sie glauben uns das und erkennen anzunehmende Unterschiede. Auch das untenstehende E-Book der HR-Mustertexte wurde ohne jede ChatGPT-Assistenz verfasst.
“von denen niemand spricht” und “Nur einmal mehr wird, wie schon bei der Digitalisierung, auch diese KI-Innovation unkritisch gehypt. Welches die zahlreichen Gefahren und Risiken sind und wo Vorsicht geboten ist, verrät dieser Beitrag.”
Sorry, aber das hat nichts mit gutem Journalismus zu tun, sondern mit billigem Clickbaiting. Die Risiken von KI sind in aller Munde.
ChatGPT hätte diesen Artikel weniger emotional aufgepusht und damit letztlich besser geschrieben als der Autor.
Hilfreiche Einschätzung!
Hervorragend!
Weitsichtig!
Danke!
Werden nicht schon seit vielen Jahren mit Textbausteinen kommuniziert, wo mehr oder weniger automatisch auf Kundenanfragen geantwortet wird? Erstellen Schüler und Studenten nicht schon seit dem Googlezeitalter ihre Regerate und Ausarbeitungen durch zusammenkopieren von Texten, die sie im Inteenet finden? Für mich nicht so viel anders als eine Ki, die wie ChatGPT Texte generiert.. man muss es in jedem Fall gut reviewen, über- und bearbeiten.