Generative Künstliche Intelligenz - ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft?

Generative Künstliche Intelligenz - ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft?

von: Sabine Seufert, Siegfried Handschuh

Schäffer-Poeschel Verlag, 2024

ISBN: 9783791062211 , 264 Seiten

Format: ePUB

Kopierschutz: Wasserzeichen

Mac OSX,Windows PC für alle DRM-fähigen eReader Apple iPad, Android Tablet PC's Apple iPod touch, iPhone und Android Smartphones

Preis: 39,99 EUR

eBook anfordern eBook anfordern

Mehr zum Inhalt

Generative Künstliche Intelligenz - ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft?


 

4.3 Zusammenarbeit mit intelligenten Assistenzsystemen: Formen, Intensitäten, Rollen, Aufgabenteilung


In der Vergangenheit wurde für die Arbeitsteilung zwischen Menschen und Maschinen häufig das sogenannte »Leftover«-Prinzip angewendet (Wesche und Sonderegger 2019). Gemäß diesem Prinzip übernehmen Menschen nur die Aufgaben und Funktionen, die aus technischen oder wirtschaftlichen Gründen nicht automatisiert wurden bzw. nicht automatisiert werden können (Hancock, 2014). Demgegenüber besagt das kompensatorische Prinzip, dass Funktionen auf der Grundlage der jeweiligen Stärken und Schwächen von Menschen und Computern zugewiesen werden sollten (Wesche & Sonderegger, 2019). Insbesondere in einem solchen kooperativen Zusammenwirken wird das große Produktivitätspotenzial technischer Entwicklungen im Bereich von KI und Robotik gesehen (Brugger & Kimmich, 2017).

Im Folgenden betrachten wir dieses kooperative Zusammenwirken von Menschen und intelligenten Assistenzsystemen genauer. Dabei gehen wir zunächst auf unterschiedliche Vorschläge zur Konzeptualisierung dieses Zusammenwirkens ein: Aufgabenkomplexität und Kooperationstypen, Stufenmodelle der Zusammenarbeit sowie auch Rollen, die KI-basierte Assistenzsysteme in Mensch-Maschine-Teams übernehmen. Darüber hinaus betrachten wir Aspekte der Akzeptanz von KI in Entscheidungssituationen.

4.3.1 Aufgabenkomplexität und Kooperationstypen


Ausgehend von Traumer, Oeste-Reiss und Leimeister (2017) haben Bittner, Oeste-Reiss und Ebel (2019) eine Taxonomie für die Unterscheidung von Typen der Zusammenarbeit von Menschen und Maschinen vorgeschlagen. Dabei werden zwei Dimensionen unterschieden: einerseits der Grad der Komplexität von Aufgaben (u. a. basierend auf der Anzahl der interagierenden Akteure, der Qualität der Kommunikation zwischen Akteuren oder der Dauer der Interaktion), andererseits die Ausprägung der Interaktion im Hinblick darauf, wer mit wem kooperiert (Tabelle 4.2).

Bittner et al. (2019) führen drei Beispiele für Mensch-Maschine-Kollaboration an und verorten diese in diesem zweidimensionalen Raum. Sie sehen Assistenzsysteme für autonomes Fahren als ein Beispiel für Mensch-Maschine-Kollaboration mit hoher Aufgabenkomplexität. Als Beispiele für Mensch-Maschine-Kollaboration bei Aufgaben mittlerer Aufgabenkomplexität sehen sie zum einen sprachbasierte Lernassistenten und zum anderen Chatbots als Unterstützer bei der Ideengenerierung und Ideenelaboration (Bittner et al., 2019, S. 41–45).

 

 

Wer arbeitet mit wem zusammen?

 

 

Maschine-Maschine-Kollaboration

Mensch-Maschine-Kollaboration

Mensch-Mensch-Kollaboration

Ausprägung der Komplexität von Aufgaben

Gering

  • Übergabe von Daten via Schnittstelle

  • Navigation im Verkehr mit Navi-Gerät

  • Arbeitsteiliges Erstellen einer Präsentation getrennt nach Abschnitten (2 Beteiligte)

Mittel

  • Platinenbestückung auf einer Fertigungsstraße

  • Chatbots als Unterstützer für Ideenelaboration

  • Chatbots als Lernassistenten/Tutoren

  • Kollaboratives Erstellen aller Abschnitte einer Präsentation (2 Beteiligte)

Hoch

  • Cyberphysisches Produktionssystem

  • Entwicklung und Einsatz von Systemen für autonomes Fahren

  • Kollaboratives Erstellen aller Abschnitte einer Präsentation (viele Beteiligte)

Tab. 4.2: Taxonomie zu Aufgaben und Interaktionsformen im Bereich maschinelles Lernen und Mensch-Maschine-Interaktion sowie Beispiele (Quelle: eigene Darstellung nach Traumer et al., 2017; Bittner et al., 2019)

4.3.2 Stufen der Intensität der Zusammenarbeit


Neben den gerade skizzierten Typen der Kooperation von Menschen und intelligenten Maschinen können auch Intensitätsgrade der Zusammenarbeit unterschieden werden. Ein Stufenmodell zur zunehmend engen Zusammenarbeit von Menschen und intelligenten Assistenzsystemen haben Sowa, Przegalinska und Ciechanowski (2021) vorgeschlagen. Sie unterscheiden die nachfolgend aufgeführten Stufen:

Abb. 4.1: Stufen der Intensität der Zusammenarbeit bzw. der Integration von Menschen und intelligenten Assistenzsystemen (Quelle: eigene Darstellung nach Sowa et al. 2021, S. 136)

Ein ähnliches Stufenmodell unterscheidet Grade der Automatisierung und Konsequenzen für die Rolle von Menschen in verschiedenen Umgebungen (Parasuraman, Raja, Sheridan & Wickens, 2000). Beispiele für unterschiedliche Grade der Automatisierung sind etwa die Stufen (teil-)autonomen Fahrens von Fahrzeugen oder die Stufen der Unterstützung von Mediziner:innen bei Diagnostik und Behandlung durch Expertensysteme (Topol, 2019). Für den Bildungsbereich hat Molenaar (2022) ein sechsstufiges Modell der Automatisierung formuliert, dessen Pole durch die Modalitäten »Lehrperson steuert allein« einerseits und »vollständige Automatisierung ohne Kontrolle durch den Menschen« andererseits markiert werden. Dazwischen sind verschiedene Zwischenstufen verortet, beispielsweise »bedingte Automatisierung«, bei der die KI-basierte Lerntechnologie ein Set an Aktivitäten steuert, wobei die Lehrperson beiläufig beaufsichtigt und jederzeit die Steuerung wieder übernehmen kann.

4.3.3 Mensch-Maschine-Teams: Rollen von Assistenzsystemen/Robotern


In der Leadership- und Teamforschung hat sich in den letzten Jahren die Sicht darauf, wer als Teammitglied zu sehen ist, verändert. Die meisten bisher vorliegenden Definitionen von Teams gehen von »zwei oder mehr Individuen« aus. Im Zusammenhang mit den Entwicklungen im Bereich KI werden neu auch KI-basierte Assistenzsysteme und Roboter als Teammitglieder gesehen (»Technology as a Teammate«, vgl. Larson & DeChurch, 2020).

Larson und DeChurch zeigen darüber hinaus, wie sich die Perspektiven auf den Einsatz von digitalen Technologien im Kontext von Teamführung in den letzten 30 Jahren verändert haben. Mit Blick auf digitale Technologien als »Teammitglieder« (z. B. in der Form von Robotern oder KI-Anwendungen) formulieren sie unter anderem die folgenden Anforderungen an das Führungshandeln (2020, S. 11–12):

  • Teamleitungen fördern die Akzeptanz von KI-Anwendungen sowie Verhaltensweisen, die einer effektiven Zusammenarbeit von Menschen und Maschinen förderlich sind;

  • Teamleitungen fördern ein gemeinsames Verständnis aller Beteiligten im Hinblick auf die Limitationen von intelligenten Maschinen und an welchem Punkt die menschlichen Teammitglieder wieder die Kontrolle übernehmen müssen.

Siemon (2022) macht einen Vorschlag für vier mögliche Rollen von KI-basierten Systemen (»AI-based Teammates«) in Kollaborationsszenarien, wobei diese Systeme als gleichberechtigte Partner gesehen werden:

  1. Koordinator: In dieser Rolle koordinieren KI-basierte Systeme die Arbeit des Teams. Sie sorgen u. a. dafür, dass Aufgaben fristgerecht erledigt werden und Teammitglieder effektiv miteinander kommunizieren.

  2. Kreator: In dieser Rolle steuern KI-basierte Systeme Ideen oder mögliche Lösungen für komplexe Probleme bei.

  3. Perfektionist: In dieser Rolle sind KI-Systeme darauf ausgerichtet, konkrete Aufgaben auf hohem Niveau zu erledigen – beispielsweise Datenanalysen.

  4. Macher: In dieser Rolle treiben KI-Systeme die Erledigung von Aufgaben voran, steuern pragmatische Lösungen bei oder setzen Ideen von Ideengeber:innen um.

Die Ergebnisse dieser Studie legen nahe, dass KI-basierte Teamkollegen nicht unbedingt so viele Fähigkeiten wie möglich haben müssen. Vielmehr ist wichtig, dass sie eine klar definierte Rolle einnehmen und konsequent durchhalten. Wenn dies gegeben ist, können und werden menschliche Teammitglieder den Wert dieser Systeme für die Zusammenarbeit erkennen und nutzen, sodass das gemeinsame Potenzial von Menschen und KI ausgeschöpft werden kann (Siemon, 2022).

Wichtig ist aus unserer Sicht, dass Menschen in einem übergreifenden Sinn in der Führungsverantwortung sind. Die übergreifenden Zielformulierungen, die ja auf Werturteilen basieren, müssen von Menschen geliefert werden. Und es sind dann auch wir Menschen, die die ­Ergebnisse aus der Zusammenarbeit mit intelligenten Assistenzsystemen verantworten müssen (Ethikbei­ratHRTech, 2019).

4.3.4 Mensch-Maschine-Teams: Sinnkonstruktion, Produktivität, Zufriedenheit, Selbstwirksamkeit


Mittlerweile liegen erste empirische Studien zur Zusammenarbeit von Menschen mit KI-Anwendungen bzw. Assistenzsystemen wie ChatGPT vor. In einer qualitativen Studie haben Einola und Khoreva (2023) untersucht, wie die Zusammenarbeit mit...