Suche

Gebärdensprache DGS-Button Leichte Sprache LS-Button
Erweiterte Suche

Ariadne Pfad:

Inhalt

Bildung + Innovation Das Online-Magazin zum Thema Innovation und Qualitätsentwicklung im Bildungswesen

Erschienen am 16.11.2023:

„Der Mensch muss moralischer Kompass sein.“

KI in der Wissens- und Kreativarbeit
Das Bild zum Artikel
Bildrechte: Prof. Dr. Eva Bittner

Das Interesse an generativer Künstlicher Intelligenz (KI) ist groß. Doch was kann KI in der Wissens- und Kreativarbeit leisten? Wo liegen ihre Potenziale und Grenzen? Die Online-Redaktion von „Bildung + Innovation“ sprach mit Prof. Dr. Eva Bittner, Leiterin der Arbeitsgruppe Wirtschaftsinformatik, Sozio-Technische Systemgestaltung (WISTS) an der Universität Hamburg, über generative KI-Modelle wie ChatGPT, seine Hauptanwendungsfelder und die Rolle des Menschen als kritischer Betrachter und Gestalter.


Online-Redaktion: Frau Bittner, Sie beschäftigen sich in Ihrer Forschung auch mit generativer KI, was genau ist das?

Bittner: Generative KI kann mithilfe von Modellen Texte, Bilder oder andere Medien erzeugen. Ein bekanntes Beispiel ist das Sprachmodell GPT bzw. dessen Anwendung ChatGPT. Derartige Modelle werden vereinfacht gesagt mit sehr großen Datenmengen aus dem Internet und verschiedenen Büchern darauf trainiert, einen begonnenen Satz mit den wahrscheinlichsten Begriffen, die in diesem Trainingskorpus vorhanden sind, fortzusetzen. Es produziert nicht selbst innovative Texte, weil es auf das begrenzt ist, womit es trainiert ist, aber bei GPT sind das schon sehr große Datenmengen aus denen die Texte generiert werden.

Online-Redaktion: Was können diese generativen KI-Modelle in der Wissens- und Kreativarbeit leisten?

Bittner: Wir sehen sowohl in unserer eigenen Forschungstätigkeit als auch in vielen Studien, dass es derzeit insbesondere zwei Anwendungsfelder von generativer KI in der Wissens- und Kreativarbeit gibt. Das eine ist die Impulsgebung. Vor allem dort, wo es um erste Impulse und nicht unbedingt um faktische Korrektheit geht, sondern es auch etwas verrückt sein darf, ist KI gefragt. Solche Impulse können ja für die Kreativarbeit durchaus inspirierend sein. Aktuelle Studien belegen diesen Trend, wie die Studie der Boston Consulting Group (BCG). Sie hat herausgefunden, dass rund 90 Prozent der Nutzenden durch GPT ihre Kreativität und ihre Ideenfindung verbessern konnten. Das deckt sich mit unseren Erfahrungen. Nur knapp zehn Prozent der Menschen waren in den Tests kreativer als GPT4, das heißt aber auch, dass zehn Prozent der Menschen noch kreativer sind. Die allerbesten Ideen kommen im Schnitt dann vielleicht doch von Menschen. Man darf keine überhöhten Erwartungen an die generative KI stellen. Es wird ihr irrtümlich schnell nachgesagt, dass sie viele Arbeitstätigkeiten revolutionieren oder den Menschen darin ersetzen kann. Das sehe ich eher nicht, aber es gibt im Arbeitsumfeld viele Tätigkeiten, für die sie ein guter Impulsgeber sein kann.

Online-Redaktion: Was ist das zweite Anwendungsfeld?
 
Bittner: Das zweite Anwendungsfeld sehe ich in der Übernahme von Routineaufgaben. Wir haben beobachtet - und das zeigt auch die BCG-Studie -, dass die Wissensarbeitenden generative KI auch zur Effizienz- und Leistungssteigerung nutzen, indem sie Routinearbeiten wie z.B. Texte/Inhalte in eine andere Struktur zu bringen, aus Stichpunkten Fließtexte zu machen oder umgekehrt, Texte zu kürzen, zu verlängern, diese in andere Sprachen zu übersetzen oder auch Visualisierungen von der KI generieren lassen.

Online-Redaktion: Gibt es auch etwas, was die generative KI nicht so gut kann?

Bittner: Ja, die bisherigen Systeme sind nicht dafür gemacht, neues Wissen zu generieren, faktische Zusammenhänge korrekt zu reproduzieren oder ganze wissenschaftliche Quellen als Stück zu betrachten. Deshalb setzen sie auch Sätze oder Texte zusammen, die ohne Kontext sind und nicht real existieren. Es liegt in der Natur der generativen Modelle, Dinge zu erfinden. Da kommen dann zum Teil lustige Sachen heraus. Wenn man nach einer wissenschaftlichen Quelle fragt, wird ggf. ein Zitat generiert, das vielleicht Konzepte mehrerer Autor*innen kombiniert und eine Quellenangabe dazu erfindet, die sehr wahrscheinliche Autor*innennamen erwähnt, aber keine, die mit dieser Domäne zu tun hätten. GPT ist kein Wissenssystem, sondern ein Sprachsystem und für sprachliche Zwecke auch sehr gut geeignet. Aber wenn es für Zwecke genutzt wird, die nicht im Sinne des Systems sind, bringt es Ergebnisse hervor, die man nicht erwartet. Es kann auch nicht gut rechnen. Wir beobachten auch, dass manche Menschen GPT als Suchmaschine nutzen, weil man durch die Chatintervention das Gefühl hat, Fragen stellen zu können. Das funktioniert nur begrenzt, weil es sehr auf numerische Daten trainiert ist und auch kein aktuelles Wissen als Basis hat. Das heißt, die erzeugten Fakten sind nicht immer korrekt. Hier braucht man als Mensch die Expertise, den Inhalt bewerten zu können.

Online-Redaktion:
Das heißt, der Mensch sollte die Ergebnisse immer noch einmal überprüfen, damit keine Fehlinformationen übernommen werden?

Bittner: Der Mensch sollte die Ergebnisse auf jeden Fall kontrollieren und braucht dafür eine starke Kompetenz. Alle Inhalte müssen immer kuratiert werden und darüber muss ich mir als Nutzer*in im Klaren sein. In der BCG-Studie kam heraus, dass viele Nutzende unbesehen übernommen haben, was die KI vorgeschlagen hat. Das sollte auf jeden Fall vermieden werden. Ein Sprachmodell, wie ChatGPT, hat kein Verständnis für die Welt oder für Fakten. Es ist nicht dafür gebaut worden, Fakten zu produzieren oder zu reproduzieren, d.h. ich als Expert*in muss immer die Hoheit über die faktischen und inhaltlichen Themen behalten. Natürlich werden diese Systeme besser, weil sie mithilfe der Nutzungserfahrungen nachtrainiert und nachkuratiert werden, auch Unternehmen können sie auf ihre Anwendungsdomänen abstimmen. Aber das Grundproblem, dass generative KI nicht deterministisch, sondern mit Wahrscheinlichkeiten arbeitet, kein Verständnis für die Inhalte hat und deshalb auch immer wieder Fehler und Falschinformationen entstehen, bleibt. Auch die Veraltung ist ein Problem. Das System ruft die Informationen ab, mit denen es trainiert wurde. GPT 4 zum Beispiel enthält Daten bis zum Jahr 2022. Aktuelle Ereignisse oder der Bezug zu Realpersonen existieren in diesem Grunddatensatz nicht. Wird es nach bestimmten Personen gefragt, „denkt“ sich das System ggf. etwas aus, weil es den Namen kennt, weil es strukturell ähnliche Zusammenhänge im Datensatz hat und generiert das, was aus dem sprachlichen Fundus am wahrscheinlichsten erscheint. Das müssen Anwender*innen einschätzen können. Gerade ChatGPT wurde in den letzten Monaten aber auch schon deutlich bescheidener und benennt im Chat nun häufig selbst seine Grenzen.

Online-Redaktion: Gibt es noch weitere kritische Punkte?

Bittner: Eine Kritik an GPT ist, dass es aus großen Datenmengen aus dem Internet trainiert ist, im Internet aber natürlich sehr viele digitale Daten zur Verfügung stehen, die nicht kuratiert sind. Es gibt im Netz viel Diskriminierendes, Sexistisches, Rassistisches, viel Hatespeech. Man kann sich nicht darauf verlassen, dass der Output, den man bekommt, den ethischen Standards entspricht, die man anlegt. Das System verfügt über keine ethischen Standards und die Datenbasis ist recht intransparent. Hier muss man das Ergebnis, das ChatGPT liefert, immer noch einmal beurteilen: Möchte ich das so repräsentieren, ist das die Sprache, die ich verwenden möchte, sind das Inhalte, zu denen ich stehe. Ich habe mir zum Beispiel Visualisierungen für einen Vortrag machen lassen zu dem Stichpunkt „scientist“, das an sich genderneutrale englische Wort für Wissenschaftler*in. Angezeigt wurden aber nur Bilder von männlichen Personen, weil es das Wahrscheinlichste ist und das System mit Wahrscheinlichkeiten arbeitet. Das System ist sprachlich ausgesprochen eloquent und überzeugend. Man muss immer aufpassen, dass man es nicht als kompetenter wahrnimmt als sich selbst und seinem eigenen Urteil nicht mehr traut. Trotzdem darf man es nicht verteufeln, es ist sehr hilfreich in vielen Dingen und kann uns viel Arbeit erleichtern und uns inspirieren. Wichtig ist nur, kritisch zu bleiben. Der Mensch muss moralischer Kompass sein! Was wir auch sehen, ist, dass es soziotechnische Effekte gibt. Wir haben Studien zum Brainstorming mit KI gemacht und festgestellt, dass es zwar positiv zur Impulsgebung beiträgt, sich aber viele Nutzende auf das System verlassen und dann vielleicht selbst weniger Ideen produzieren.

Online-Redaktion: Welchen Tipp würden Sie geben, um es gut anzuwenden?

Bittner: Tatsächlich animieren wir immer dazu, es auszuprobieren, nicht gleich aufzugeben, wenn aus den ersten Versuchen nicht das zurückkommt, was man erwartet. Man kann viel Einfluss nehmen damit, wie man die Frage stellt und welche Funktionen man eingibt. Das System reagiert auf Basis der menschlichen Eingabe. D.h., die Informationen, die ich in meinen Prompt eingebe, entscheiden darüber, wie gut die Ideen werden, die ich bekomme. Je mehr Content ich gebe, je spezifischer meine Beispiele oder Fragen sind, desto spezifischer wird auch der Output. Deshalb sollte man sich zuvor immer überlegen, wie kann ich das System dazu bringen, sehr spezifisch auf mein Bedürfnis zu reagieren? Das ist eine Kompetenz, die man üben muss, ähnlich wie wir am Anfang die Benutzung der Suchmaschine geübt haben. Das ist bei den generativen Systemen ähnlich. Man muss sich selbst darin trainieren, mit der KI effektiv zusammenzuarbeiten, ggf. auch in längeren Konversationen gemeinsam und iterativ am Ergebnis zu arbeiten. Dann kann die KI auf mehr Inhalte zugreifen und präzisere Antworten liefern.



Prof. Dr. Eva Bittner ist Professorin für Wirtschaftsinformatik, insbesondere für sozio-technische Systemgestaltung an der Universität Hamburg. Sie forscht zu Themen der Zusammenarbeit von Mensch und KI. Besonders beschäftigt sie sich mit der Gestaltung von Kollaborationsprozessen und -praktiken für wissensintensive Tätigkeiten unter Einsatz der Möglichkeiten moderner IKT. Eva Bittner leitet die KI-Nachwuchsgruppe „HyMeKI“ zur Hybridisierung von menschlicher und künstlicher Intelligenz in der Wissensarbeit durch Arbeitsteilung, Zusammenarbeit und kollaboratives interaktives Lernen von Menschen und KI-basierten Assistenzsystemen und wirkt im deutschen Expertennetzwerk „Plattform lernende Systeme“ in der Arbeitsgruppe für Arbeit, Qualifikation und Mensch-Maschine-Interaktion mit.

Autor(in): Petra Schraml
Kontakt zur Redaktion
Datum: 16.11.2023
© Innovationsportal

Ihr Kommentar zu diesem Beitrag. Dieser Beitrag wurde bisher nicht kommentiert.

 Weitere Beiträge nach Innovationsgebieten (Archiv).

Die Übernahme von Artikeln und Interviews - auch auszugsweise und/oder bei Nennung der Quelle - ist nur nach Zustimmung der Online-Redaktion von Bildung + Innovation erlaubt.

Die Redaktion des Online-Magazins Bildung + Innovation arbeitet journalistisch frei und unabhängig. Die veröffentlichten Beiträge bilden u. a. auch interessante Einzelmeinungen zum Bildungsgeschehen ab; die darin zum Ausdruck gebrachte Meinung entspricht nicht notwendig der Meinung der Redaktion oder des DIPF.

Inhalt auf sozialen Plattformen teilen (nur vorhanden, wenn Javascript eingeschaltet ist)

Teile diese Seite: