In AI We Trust Aspekte des Vertrauens in ChatGPT MASTER-ARBEIT 2024 Autor Karg, Jona Stefan Begleitpersonen Ritz, Frank Sterchi, Yanik Praxispartner Hochschule für Wirtschaft FHNW Bendel, Oliver Danksagung An dieser Stelle möchte ich zuerst meinen Betreuer Frank Ritz erwähnen und mich für seine Unterstützung beim Prozess dieser Arbeit, insbesondere bei der Spezifizierung meines Forschungsvorhabens, herzlich bedanken. Ebenso gilt mein Dank Yanik Sterchi, der spontan in der letzten Phase meiner Arbeit als Betreuer eingesprungen ist. Des Weiteren möchte ich mich bei meinem Praxispartner, dem Kompetenzzentrum Digital Trust, speziell bei Petra und Oliver bedanken, welche mich in der Themenfindung meiner Arbeit sowie der Rekrutierung der Probanden und Probandinnen unterstützt haben. Ebenso danke ich meiner Arbeitskollegin Janine für die mentale und praktische Unterstützung. Mein abschliessender Dank gilt meiner Familie, insbesondere meiner Ehefrau Linda, welche mich in dieser herausfordernden Zeit unterstützt hat und Entbehrungen auf sich nehmen musste. ASPEKTE DES VERTRAUENS IN CHATGPT Zusammenfassung Die Relevanz von Künstlicher Intelligenz (KI) nimmt zu, ebenso wie die diesbezüglichen Sicherheitsbedenken. Dies führt zur Forderung nach einer vertrauenswürdigeren KI, welcher sich Forschende zunehmend annehmen. Es existiert jedoch keine allgemeine Theorie zu Vertrauen in KI; so dient häufig das Modell Trust in Automation von Lee und See (2004) als Forschungsgrundlage, so kann Automation als Basis von KI betrachtet werden. Gleichzeitig wird jedoch in Frage gestellt, ob dieses Modell auf KI übertragen werden kann. Entsprechend wird in dieser Arbeit im Kontext von ChatGPT untersucht, welche Faktoren das Vertrauen in KI beeinflussen und wie sich dies auf die Nutzungsintention auswirkt. Basierend auf Trust in Automation, ergänzt durch die Variable Nutzungsintention, wurde hierzu ein Pfadmodell abgeleitet. Zudem wurden Einflussfaktoren der Neigung zum Vertrauen sowie die zeitliche Veränderung des Zusammenhangs des Vertrauens im Kontext einer Intervention untersucht. Die Datenerhebung erfolgte anhand validierter Fragebögen. Im Rahmen der Datenanalyse wurden die Daten von insgesamt 105 Studierenden berücksichtigt, während für die ergänzende Längsschnittanalyse 10 Datensätze herangezogen wurden. Die Resultate bestätigen das konzeptuelle Pfadmodell nicht, was eine Respezifikation erforderlich machte. Dies hat dazu geführt, dass zusätzliche Pfade von der Neigung zum Vertrauen zu den drei Faktoren der Vertrauenswürdigkeit identifiziert wurden. Das Modell zeigt mit einer Ausnahme die erwarteten positiven Einflüsse. Dabei ist der Einfluss des Vertrauens auf die Nutzungsintention geringer als erwartet. Die Längsschnittanalyse hat keinerlei Veränderungen zwischen den beiden Messzeitpunkten offenbart. Die Ergebnisse unterstützen grösstenteils die Erwartungen, stellen jedoch auch bisherige Annahmen in Frage. So wird Vertrauen möglicherweise eine grössere Rolle zugeschrieben als tatsächlich vorliegt. Schlagwörter: Künstliche Intelligenz, Vertrauen, ChatGPT, Explainable AI, AI Safety Anzahl Zeichen (mit Leerzeichen): 161'822 ASPEKTE DES VERTRAUENS IN CHATGPT Abstract The relevance of artificial intelligence (AI) is increasing, as are safety concerns in this regard. This leads to the demand for more trustworthy AI, which is increasingly addressed by research. However, no common theory exists; as such, because automation can be seen as the basis of AI, Lee and See’s (2004) trust in automation model often serves as the foundation for research. Nevertheless, whether this model can be adapted to AI remains unclear. Accordingly, this thesis examines which factors influence trust in AI in the context of ChatGPT and how this affects usage intention. Based on trust in automation, supplemented by the factor intention to use, a path model is deduced. In addition, factors influencing the propensity to trust and long-term changes in the interrelationship of trust in the context of an intervention are examined. Data are collected using validated questionnaires. The analysis includes data from 105 students, and complementary longitudinal analysis includes ten of these participants. The data fails to confirm the conceptual model and thus calls for a re-specification. This leads to the identification of additional paths from propensity to trust to the three factors of trustworthiness. The re- specified model shows the expected positive influences, with one exception. Furthermore, the significant influence of trust on the intention to use is weaker than expected. The longitudinal analysis shows no variation between the two measurements. The results largely support expectations, although they call previous assumptions into question. Hence, trust is likely attributed a greater importance than it actually has. Keywords: Artificial intelligence, trust, ChatGPT, explainable AI, AI safety Number of characters (including spaces): 161'822 ASPEKTE DES VERTRAUENS IN CHATGPT I Inhaltsverzeichnis In AI We Trust – Aspekte des Vertrauens in ChatGPT ..................................................... 1 Künstliche Intelligenz............................................................................................................... 4 Narrow AI ....................................................................................................................... 5 ChatGPT ......................................................................................................................... 5 AI Safety ......................................................................................................................... 6 Explainable AI ................................................................................................................ 7 Risiken von KI ................................................................................................................ 9 Vertrauen ................................................................................................................................ 12 Vertrauen in KI ............................................................................................................. 16 Vertrauen in Organisationen ......................................................................................... 23 Vertrauen in Automation .............................................................................................. 25 Fragestellung .......................................................................................................................... 33 Hypothesenbildung ................................................................................................................. 35 Konzeptuelle Hypothesen zum Pfadmodell .................................................................. 36 Explorative Hypothesen zum Pfadmodell .................................................................... 37 Explorative Hypothesen bezüglich der Neigung zum Vertrauen ................................. 38 Explorative Hypothese zum dynamischen Vertrauen ................................................... 39 Methoden ............................................................................................................................... 40 Erhebungsinstrumente ............................................................................................................ 40 Messung des Vertrauens ............................................................................................... 41 Messung der Nutzungsintention ................................................................................... 41 Messung der Persönlichkeitsmerkmale......................................................................... 41 Stichprobe ............................................................................................................................... 42 Stichprobe der Querschnittuntersuchung ...................................................................... 42 Stichprobe der Längsschnittuntersuchung .................................................................... 43 Datenerhebung........................................................................................................................ 44 Struktur der Datenerhebung .......................................................................................... 44 Skalenniveau der Datenerhebung ................................................................................. 44 Datenerhebung der Querschnittuntersuchung ............................................................... 45 Datenerhebung der Längsschnittuntersuchung ............................................................. 45 Intervention der Längsschnittuntersuchung ........................................................................... 46 ASPEKTE DES VERTRAUENS IN CHATGPT II Datenanalyse .......................................................................................................................... 47 Querschnittanalysen ...................................................................................................... 47 Längsschnittanalyse ...................................................................................................... 50 Ergebnisse ............................................................................................................................. 51 Ergebnisse der Querschnittuntersuchung ............................................................................... 51 Pfadanalyse des konzeptuellen Pfadmodells ................................................................ 51 Analyse der Einflussfaktoren der Neigung zum Vertrauen .......................................... 57 Ergebnisse der Längsschnittuntersuchung ............................................................................. 61 Ergebnisse der Voraussetzungsprüfung der einfaktoriellen MANOVA ...................... 61 Ergebnisse der einfaktoriellen MANOVA .................................................................... 62 Diskussion.............................................................................................................................. 63 Interpretation der Ergebnisse der Querschnittuntersuchung .................................................. 63 Interpretation der Ergebnisse der Längsschnittuntersuchung ................................................ 67 Limitationen ........................................................................................................................... 67 Implikationen.......................................................................................................................... 68 Abschliessendes Fazit............................................................................................................. 69 Literatur ................................................................................................................................ 71 Anhang .................................................................................................................................. 78 ASPEKTE DES VERTRAUENS IN CHATGPT 1 In AI We Trust – Aspekte des Vertrauens in ChatGPT Künstliche Intelligenz (KI, auf Englisch AI, kurz für Artificial Intelligence) erfährt in den Medien erhebliche Aufmerksamkeit (Hoffman, Mueller, Klein & Litman, 2023). Dabei nimmt die Bedeutung der entsprechenden Algorithmen, welche mit zunehmender Häufigkeit in der Verarbeitung und der Interpretation von Daten eingesetzt werden, im Alltag zu (Gebru et al., 2022; Shin, 2021). So verändert KI die Gesellschaft grundlegend und schafft neue Möglichkeiten (Frank, Jacobsen, Søndergaard & Otterbring, 2023). Dabei rücken auch sicherheitsrelevante Aspekte vermehrt in den Fokus der Forschung (Hendrycks & Mazeika, 2022) und Öffentlichkeit, wie der Titel des Buches «Die KI war’s» von Prof. Dr. Katharina Zweig (2023) bereits suggeriert. Aber auch unabhängig von möglichen folgeschweren Ereignissen birgt die Nutzung von KI Risiken, da die Erwartungen der Nutzenden an diese möglicherweise nicht erfüllt werden (Langer, König, Back & Hemsing, 2023). So werden die Vertrauenswürdigkeit von KI-Systeme und das Vertrauen in diese auch in der breiten Gesellschaft vermehrt diskutiert (Hoffman et al., 2023; Lewis & Marsh, 2022). Auch bei der Entwicklung von KI-Systemen wird dem Faktor Vertrauen eine hohe Relevanz zugeschrieben und er sollte bereits zu diesem Zeitpunkt Berücksichtigung finden (Hoffman et al., 2023; Siau & Wang, 2018). Insbesondere wirkt sich Vertrauen auf die Akzeptanz der KI-Systeme aus (Siau & Wang, 2018); Gebru et al. (2022) postulieren sogar, dass es einer der wesentlichen Faktoren bei deren Nutzung ist. Somit kann sich Vertrauen auf den Erfolg der Entwicklung des KI-Systems auswirken. Zudem wird es als Mediator der wahrgenommenen Zuverlässigkeit des Systems verstanden (Gebru et al., 2022; Tschopp & Ruef, 2018) und bereits kleinere Sicherheitsvorfälle stellen konkrete Bedrohungen dar, welche zu einem Verlust des Vertrauens führen können (Amodei et al., 2016). Demnach wird dem Vertrauen eine starke Beeinflussung der Nutzungsintention zugeschrieben (Choung, David & Ross, 2023). Entsprechend spielt dies auch bei der Implementierung und der Nutzung von KI-Systemen eine Rolle (Hoffman et al., 2023). Häufig wird in diesem Kontext erörtert, wie KI-Systeme vertrauenswürdiger gestaltet respektive wie Nutzende dazu gebracht werden können, diesen zu vertrauen (Lewis & Marsh, 2022). Demgemäss sah sich auch die Europäische Union (EU) dazu veranlasst, eine Leitlinie bezüglich der Frage zu verfassen, wie vertrauenswürdige KI-Systeme entwickelt werden können (Lewis & Marsh, 2022). Im Kontrast dazu steht die Position, dass KI- Systemen nicht vertraut werden kann und diese Menschen vielmehr befähigen sollten, selbst ASPEKTE DES VERTRAUENS IN CHATGPT 2 zu entscheiden, ob und wieweit sie aus deren Sicht vertrauenswürdig sind (Lewis & Marsh, 2022; Tschopp & Ruef, 2020). Gleichzeitig wird davon ausgegangen, dass Menschen ein höheres Vertrauen in eine KI-Technologie haben, deren Algorithmus transparent und erklärbar ist (Choung et al., 2023), bzw. dass Erklärbarkeit zu adäquatem Vertrauen führt (Hoffman et al., 2023). Dabei ist unter Letzterem zu verstehen, dass das Vertrauen entsprechend den Fähigkeiten des KI-Systems kalibriert und damit weder zu hoch noch zu niedrig ist (Hoffman et al., 2023; Tschopp & Ruef, 2020). Entsprechend wird unter dem Schlagwort Explainable AI (XAI) die Erklärbarkeit von KI diskutiert und seitens der EU im Rahmen des KI-Gesetzes gefordert (Hoffman et al., 2023). Auch Shin (2021) führt an, dass Nutzende in der Lage sein müssen, KI-Systeme zu verstehen, um diesen ein adäquates Vertrauen entgegenbringen zu können. So müssen diese Systeme entsprechend entwickelt sein, und um dies zu ermöglichen, muss das Vertrauen in KI erforscht werden (Shin, 2021). Obwohl das Vertrauen in KI zunehmend in den Fokus der Forschung rückt (Bedué & Fritzsche, 2021), gibt es zum heutigen Zeitpunkt nur wenige Erkenntnisse diesbezüglich (Montag, Kraus, Baumann & Rozgonjuk, 2023). Gleichzeitig ist dessen Erforschung von hoher Relevanz für das Verständnis darüber, wie die wachsende Interaktion mit KI- Systemen die Gesellschaft und das Individuum beeinflusst (Montag, Klugah-Brown, et al., 2023). Dabei besteht eine grosse Herausforderung bereits in der Definition des Konzepts Vertrauen, da das Verständnis darüber teils stark von der tatsächlichen Bedeutung abweicht (Lewis & Marsh, 2022; Tschopp & Ruef, 2020). Beispielsweise werden (a) Kooperation, (b) Zuversicht sowie (c) Berechenbarkeit in bestimmten Zusammenhängen als Synonyme verwendet und verstanden, was jedoch die Bedeutung von Vertrauen verzerrt (Mayer, Davis & Schoorman, 1995). Zudem wird die Vertrauenswürdigkeit von KI-Systemen häufig auf (a) Fairness, (b) Unvoreingenommenheit, (c) Robustheit gegenüber Cyberangriffen und die (d) Verständlichkeit der Ergebnisfindung limitiert, wobei diese Begriffe entsprechend mit dem Vertrauen assoziiert werden (Lewis & Marsh, 2022). Dabei erscheint unklar, inwiefern das bisherige Verständnis von Vertrauen auf den Kontext der Nutzung von KI übertragen werden kann, da die Funktionalität dieser Technologien für grosse Teile der Bevölkerung vollständig neu und teilweise nicht nachvollziehbar ist (Shin, 2021). So führen Chi, Jia, Li und Gursoy (2021) an, dass sich das Vertrauen bei der Nutzung von KI-Systemen erheblich von jenem in traditionelle Technologieprodukte unterscheide. Die Fähigkeit der KI zur autonomen Funktionsweise schaffe Risiken und Ungewissheiten, wohingegen die Nutzenden bei anderen Systemen ASPEKTE DES VERTRAUENS IN CHATGPT 3 meist die Kontrolle über deren Funktionsweise behalten würden (Choung et al., 2023). Tatsächlich stützt sich KI häufig auf undurchsichtige Machine-Learning-Algorithmen, die als Blackboxes verstanden werden können (Choung et al., 2023; Gebru et al., 2022; Lewis & Marsh, 2022; Montag, Kraus, et al., 2023). Dabei beschreibt Machine-Learning (ML) die Fähigkeit des KI-Systems, ohne menschliches Zutun anhand von Daten selbständig zu lernen (Hendrycks, Carlini, Schulman & Steinhardt, 2022). Die beschriebenen Eigenschaften führen zu Unvorhersehbarkeit und Ungewissheit, was wiederum die hohe Bedeutung des adäquaten Vertrauens in KI unterstreicht (Choung et al., 2023). So ist es dringend erforderlich zu verstehen, was das Vertrauen in KI beeinflusst und was zur Entwicklung vertrauenswürdiger KI beiträgt (Choung et al., 2023). Diese Arbeit soll zum Verständnis über das Vertrauen in KI Blackbox-Modelle und die Relevanz der Transparenz beitragen. Folglich besteht das Ziel dieser Untersuchung darin, herauszufinden, welche Faktoren das Vertrauen in KI-Systeme beeinflussen. Damit soll diese Arbeit den Aufbau eines neuen Forschungsschwerpunkts des Praxispartners – dem Kompetenzzentrum Digital Trust, des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW – unterstützen und weitere Forschungsvorhaben vorbereiten. Zudem sollen praktische Implikationen für die Gestaltung von Richtlinien und konkreten Hinweisen zur Entwicklung vertrauenswürdiger KI-Systeme gewonnen werden. Da es als notwendig erachtet wird, ein spezifisches KI-System zu wählen, um Vertrauen angemessen untersuchen zu können (Tschopp & Ruef, 2018), erfolgt diese Untersuchung anhand von ChatGPT. Konkret ist diese Arbeit der Frage gewidmet, welche Faktoren einen Einfluss auf das Vertrauen in KI haben. Ergänzt wird diese Forschungsfrage durch die Unterfrage, welche Faktoren einen Einfluss auf die Nutzungsintention haben. So kann die Nutzungsintention als Resultat der Entscheidung zu Vertrauen erachtet werden (Razin & Feigh, 2023). Zudem wird in dieser Arbeit der Unterfrage nachgegangen, welche Faktoren einen Einfluss auf die Neigung zum Vertrauen haben. Dabei beschreibt diese Neigung, das Vertrauen einer Person unabhängig von einem spezifischen Kontext oder KI-System (Solberg et al., 2022). Abschliessend wird in einer längsschnittlichen Untersuchung der Frage nachgegangen, ob nach einer instruktionalen Intervention Veränderungen der Zusammenhänge zwischen den Einflussfaktoren und dem Vertrauen in KI auftreten. So ist der Status des Vertrauens als dynamisches Konstrukt in der Literatur umstritten und es bleibt unklar, ob und inwiefern sich dieses im Zeitverlauf verändert. ASPEKTE DES VERTRAUENS IN CHATGPT 4 Künstliche Intelligenz Im Folgenden werden zunächst KI-Technologien im Allgemeinen und ChatGPT im Spezifischen erklärt. Anschliessend wird auf den Begriff AI Safety, unter welchem Sicherheitsbedenken zu KI diskutiert werden, sowie die daraus abgeleiteten Forderungen nach Erklärbarkeit eingegangen. Da gemäss Mayer et al. (1995) Vertrauen mit Risiken einhergeht, werden abschliessend konkrete Risiken von KI-Technologien aufgezeigt, bevor im nachfolgenden Kapitel das Konstrukt Vertrauen erläutert wird. Dabei ist das Verständnis des Begriffs der KI in dieser Arbeit an die Definition der OECD (2019, S. 1) angelehnt: Ein maschinenbasiertes System, das für bestimmte von Menschen definierte Ziele Voraussagen machen, Empfehlungen abgeben oder Entscheidungen treffen kann, die reale oder virtuelle Umgebungen beeinflussen. Es nutzt maschinelle und/oder menschliche Inputs, um ein reales und/oder virtuelles Umfeld zu erfassen, davon ausgehend (automatisch, z.B. mithilfe von ML, oder manuell) Modelle zu erstellen und mittels Modellinferenz Informations‐ oder Handlungsoptionen zu ermitteln. KI‐Systeme können mit einem unterschiedlichen Grad an Autonomie ausgestattet sein. Als Basis von KI kann Automation, eine Technologie, bei der Informationen umgewandelt und Entscheidungen getroffen werden, erachtet werden (Tschopp & Ruef, 2020). Jedoch gehen KI-Systeme über die Fähigkeiten automatisierter Systeme, etwa für Überwachung und Produktion, hinaus (Langer et al., 2023). Konkret schafft die autonome Funktionsweise der auf ML basierenden KI-Systeme Risiken und Ungewissheiten, wohingegen bei automatisierten Systemen die Nutzenden die Kontrolle über deren Funktionsweise beibehalten (Choung et al., 2023). ML ermöglicht es KI-Systemen, selbstlernend ohne spezifische menschliche Instruktionen (Hendrycks et al., 2022) auf der Grundlage der verfügbaren Daten Entscheidungen zu treffen (Kaplan, Kessler, Brill & Hancock, 2023). Dabei variiert jedoch der Grad des autonomen Handelns abhängig von der spezifischen KI-Anwendung, welche teils die Notwendigkeit der menschlichen Kontrolle minimiert (Choung et al., 2023; Frank et al., 2023). Generell kann die Autonomie von KI- Systemen als die Fähigkeit verstanden werden, ohne menschliche Unterstützung eigenständig Entscheidungen zu treffen und Aufgaben auszuführen (Frank et al., 2023). ASPEKTE DES VERTRAUENS IN CHATGPT 5 Narrow AI. Es lässt sich beobachten, dass KI-Technologien in ihren Fähigkeiten, die menschliche Intelligenz durch Lernen, logisches Denken und das Treffen von Entscheidungen zu imitieren, kontinuierlich besser werden (Choung et al., 2023). Jedoch sind die heutigen KI-Systeme auf Fähigkeiten in spezifischen Aufgabenbereichen limitiert, was eine Generalisierung dieser Intelligenz ausschliesst, weshalb hierfür der Begriff Narrow AI verwendet wird (Lewis & Marsh, 2022). Streng genommen kann jede Technologie, welche auf einfache Algorithmen aufbaut, als solche verstanden werden (Yampolskiy & Spellchecker, 2016). Demnach ist KI lediglich ein Oberbegriff für Technologien, welche in der Lage sind, Aufgaben in einer ähnlichen Weise wie der Mensch auszuführen (Bedué & Fritzsche, 2021). Dementgegen kann Artificial General Intelligence (AGI) als Kombination aller möglichen Narrow-AI-Systeme erachtet werden, welche eine derartige Generalisierung zulassen (Yampolskiy & Spellchecker, 2016). Aber auch die Narrow-AI-Systeme von heute basieren teils auf komplexen und für Laien unverständlichen Blackbox-Algorithmen, was zu Unberechenbarkeiten sowie Ungewissheiten führt. So stützen sie sich häufig auf komplexe ML-Algorithmen (Choung et al., 2023). Dabei ist Narrow-AI in Computern, Smartphones, Fahrzeugen und Produktionsmaschinen bereits heute ein fester Bestandteil des Alltags (Sindermann et al., 2022). Dies verdeutlicht, dass Nutzende eine geringe Entscheidungskompetenz darüber haben, ob sie auf KI-Systeme zurückgreifen möchten, da diese bereits in etablierten Technologien enthalten sind (Schepman & Rodway, 2023). Beispielsweise können Siri, der Sprachassistent von Apple, Grundfunktionen der sozialen Medien, Assistenzsysteme in Automobilen (Sindermann et al., 2022), aber auch Chatbots (Kaplan et al., 2023) wie ChatGPT, welche textbasierte Konversationen mit technischen Systemen ermöglichen (Taecharungroj, 2023), als KI-Systeme verstanden werden. ChatGPT. ChatGPT ist ein von der Organisation OpenAI (2024a) entwickelter Chatbot – wobei GPT für Generative Pre-Trained Transformer steht – welcher Natural-Language- Processing (Brown et al., 2020), ein Sprachmodell zur Interpretation der menschlichen Sprache, und somit ML-Algorithmen nutzt (Jurafsky & Martin, 2024; Taecharungroj, 2023). Dementsprechend kann ChatGPT als Blackbox-Modell verstanden werden (Choung et al., 2023; Gebru et al., 2022; Lewis & Marsh, 2022; Montag, Kraus, et al., 2023). Da es sich um das beliebteste KI-System handelt (Conte, 2024) und dieses offen zugänglich ist (OpenAI, 2024b), wurde ChatGPT als Forschungsobjekt dieser Arbeit gewählt. Ein Mass an Erfahrung mit dem System ist notwendig, um Vertrauen adäquat messen zu können (Siegrist, 2021). ASPEKTE DES VERTRAUENS IN CHATGPT 6 AI Safety. Trotz des hohen Potenzials, welches KI-Systemen zugeschrieben wird, werden Sicherheitsbedenken, insbesondere in Bezug auf Blackbox-Algorithmen, unter dem Leitwort AI Safety intensiv diskutiert und untersucht (u. a. Hendrycks & Mazeika, 2022; Hendrycks, Mazeika & Woodside, 2023; Yampolskiy & Spellchecker, 2016). Der von Yampolskiy (2010, zitiert nach Yampolskiy & Spellchecker, 2016, S. 5) geprägte Begriff hat sich in der Forschung etabliert; gleichzeitig werden jedoch Termini wie Maschinenethik oder Friendly AI teilweise als Synonyme verstanden und verwendet. Der Grundsatzgedanke von Yampolskiy und Spellchecker (2016) ist, dass vollständig autonome Maschinen grundsätzlich nicht als sicher angesehen werden können. Folglich stellt es eine grössere Herausforderung dar, eine sichere und fähige Maschine zu bauen, als lediglich eine fähige Maschine. Entsprechend ist die AI-Safety-Forschung mit aktuellen KI-Risiken, aber auch mit möglichen zukünftigen Risikoszenarien befasst (Hendrycks & Mazeika, 2022). Dabei bringt die Entwicklung zunehmend leistungsfähigerer KI-Systeme zumindest eine Verstärkung der bestehenden Risikofaktoren mit sich. Diese Entwicklung löst Besorgnis bei den politischen Entscheidungsträgern und Entscheidungsträgerinnen aus (Hendrycks et al., 2023), denn die Rechtssysteme sind hinter den technischen Möglichkeiten zurückgeblieben (Yampolskiy & Spellchecker, 2016). Bei KI werden Sicherheitsmängel genauso kritisch wie im Kontext der Cybersicherheit betrachtet. Zwar kann sich die AI Safety mithilfe der in diesem Kontext entwickelten Ideen verbessern, jedoch können Sicherheitsmängel bei AGI grundlegend andere Auswirkungen mit sich bringen (Yampolskiy & Spellchecker, 2016). Im Gegensatz zum Ziel der Cybersicherheit, die Anzahl der erfolgreichen Angriffe auf das System zu reduzieren, besteht daher das übergeordnete Ziel der AI Safety darin, sicherzustellen, dass die Sicherheitsmechanismen nicht durch Angriffe umgangen werden können. Dabei gibt es zahlreiche Medienberichte mit Beispielen für das Versagen von KI (Yampolskiy & Spellchecker, 2016). Wird AI Safety gemäss dem Swiss Cheese Model von Reason (1990, zitiert nach Hendrycks et al., 2023, S. 30) betrachtet, stellt Transparenz die letzte Sicherheitsbarriere dar. Gemäss Reasons Modell (1990) lässt sich die Sicherheit durch das «Stopfen von Löchern» in Sicherheitsbarrieren – illustriert durch Scheiben von Emmentalerkäse – erhöhen. Dabei werden Löcher in der letzten Sicherheitsbarriere als unmittelbarer Faktor der Entstehung von Ereignissen betrachtet, die durch deren Schliessung in letzter Instanz verhinderbar gewesen wären. Entsprechend wird die Transparenz als konkrete Forderung im Rahmen von XAI diskutiert (u. a. Gebru et al., 2022; Shin, 2021) und im folgenden thematisiert. ASPEKTE DES VERTRAUENS IN CHATGPT 7 Explainable AI. Gemäss Shin (2021) führt die zunehmende Komplexität von KI zu einem Mangel an Transparenz, welcher das Verständnis erschwert und das Vertrauen negativ beeinflusst. Rai (2020) beschreibt anhand von Blackbox-Modellen undurchschaubare, insbesondere auf ML-Algorithmen basierende KI-Systeme, welche durch XAI zu Glassbox- Modellen werden sollen. Dabei beschreibt XAI eine Klasse von Systemen, die Aufschluss darüber geben, wie ein KI-System Entscheidungen und Vorhersagen trifft bzw. seine Handlungen ausführt (Rai, 2020). Weiter gefasst verstehen Gebru et al. (2022) unter Erklärbarkeit, Transparenz und Interpretierbarkeit Konzepte, die sich darauf beziehen, inwieweit die Funktionsweise KI-basierter Systeme für menschliche Nutzende nachvollziehbar dargestellt wird. Dabei stellt auch die EU mit dem KI-Gesetz – einem Vorschlag für eine europäische Verordnung über KI – konkrete Forderungen an die Erklärbarkeit (Hoffman et al., 2023). Gebru et al. (2022) sehen in XAI ein Konzept, welches Erklärungen zu den von einem KI-basierten System getroffenen Entscheidungen liefert, um Vertrauen in das System zu schaffen. Dabei wird zwischen (a) transparenten KI-Modellen, welche eine inhärente Interpretierbarkeit aufweisen, und (b) post hoc erklärbaren KI-Modellen, welche eine unterstützende Interpretierbarkeit nachliefern, unterschieden. Auch Hoffman et al. (2023) bringen XAI mit Vertrauen in Verbindung. So sollen maschinengenerierte Erklärungen dabei unterstützen, die Leistung der KI zu verbessern, und damit das Vertrauen fördern (Hoffman et al., 2023). Ebenso schreibt Rai (2020) einer wirksamen Erklärung über die Leistung und der Vorhersagegenauigkeit des KI-Systems eine Förderung des Vertrauens zu. Im Gegenzug kann eine Undurchschaubarkeit vor allem dann das Vertrauen der Menschen in KI-Systeme beeinträchtigen, wenn diese mit erheblichen Risiken einhergeht, und schliesslich zur Ablehnung führen (Rai, 2020). Gemäss Shin (2021) haben Studien darüber hinaus gezeigt, dass Erklärungen in KI- Systemen zu mehr Vertrauen der Nutzenden in diese Systeme und in die Ergebnisse der Algorithmen haben. Das Vorhandensein von Vertrauen sei neben der Erklärung der Schlüssel zur Förderung der Technologieakzeptanz und die Erklärbarkeit gäbe den Nutzenden die Gewissheit sowie das Vertrauen, dass KI-Systeme gut funktionieren würden (Shin, 2021). Shin (2021) geht ausserdem davon aus, dass durch XAI die hohe Intransparenz von Algorithmen reduziert und Vertrauen aufgebaut werden kann. Dies wiederum kann die Akzeptanz erhöhen sowie die Interaktion zwischen Mensch und KI fördern (Shin, 2021). In diesem Kontext weisen Okamura und Yamada (2020) darauf hin, dass Transparenz allein ASPEKTE DES VERTRAUENS IN CHATGPT 8 nicht genügt um eine adäquate Vertrauensbildung sicherzustellen. Zudem resultiert mehr Information nicht zwangsweise in einem höheren Vertrauen (Mackay et al., 2020). Generell stellt die Erklärbarkeit eine Herausforderung für Entscheidungsträger und Entscheidungsträgerinnen dar, welche sich auf KI respektive ML verlassen müssen (Hoffman et al., 2023). Vor allem bei Systemen mit ML ist die Nachvollziehbarkeit nicht grundsätzlich gegeben (Hoffman et al., 2023). So wird häufig angeführt, dass die Interpretierbarkeit der zunehmenden Komplexität von Algorithmen zur Verbesserung der Leistung bzw. der Präzision von KI-Systemen entgegensteht (Gebru et al., 2022; Rai, 2020). Dementgegen argumentiert Rai (2020) selbst, dass XAI nicht nur dazu beitragen könne, Blackbox-Modelle zu entlarven, sondern auch dazu, die beiden vermeintlich gegensätzlichen Ziele von Interpretierbarkeit und Präzision zu verknüpfen. Shin (2021) ergänzt, dass die Leistung von KI weniger durch die Algorithmen als durch den Mangel an Verständnis der Nutzenden gegenüber den Entscheidungen der Systeme limitiert sei. Neben dem blossen Vorhandensein der Erklärungen weist Shin (2021) auch deren Qualität eine entscheidende Rolle zu. Aus seiner Sicht ist es essenziell zu verstehen, wie Nutzende diese Erklärungen interpretieren und bewerten, um tatsächlich Rückschlüsse auf die Interpretierbarkeit sowie die Verständlichkeit der KI ziehen zu können. Gleichzeitig geht Shin (2021) davon aus, dass die Nutzenden dem KI-System nur unter der Bedingung zu vertrauen beginnen, dass solche Erklärungen verständlich sind. Dem stehen die zunehmende Komplexität und die Blackbox-Natur der KI-Systeme entgegen, welche für ein angemessenes Verständnis mehr Fachwissen sowie Spezialkenntnisse erfordern. Nach Shin (2021) stellt die Erklärbarkeit einen Hinweis auf Transparenz und Verantwortlichkeit der KI-Systeme dar. Letztere könnten für ihre Empfehlungen haftbar und verantwortlich gemacht werden. Zudem lasse sich mit Hilfe von XAI feststellen, ob Attribute mit Bezug zu Vorurteilen über beispielsweise Rasse oder Geschlecht direkt oder indirekt in Blackbox-Modellen verwendet werden, so dass die Modelle gegenüber bestimmten Gruppen voreingenommen sind, also kognitive Verzerrungen vorliegen (Rai, 2020). Vorurteile sind eine Art der Risiken, welche KI-Anwendungen zugeschrieben und im folgenden Unterkapitel «Risiken von KI» thematisiert werden. ASPEKTE DES VERTRAUENS IN CHATGPT 9 Risiken von KI. Obgleich KI das Potenzial zugeschrieben wird, die Gesellschaft erheblich zu verbessern, gehen leistungsstarke Technologien grundsätzlich mit erhöhten Risiken einher (Hendrycks & Mazeika, 2022). Diese konkreten Risiken, welche von KI- Systemen ausgehen, werden im Folgenden genauer erläutert. Vorurteile in KI-Anwendungen. In ihrer Untersuchung der Leistungsfähigkeit von GPT-3 nennen Brown et al. (2020) Vorurteile (Biases) in Bezug auf Geschlecht, Rasse sowie Religion und weisen darauf hin, dass es sich nicht um eine abschliessende Liste aller Verzerrungen dieses KI-Systems handelt. Diese Verzerrungen können dazu führen, dass die Modelle stereotype Inhalte erzeugen und damit Menschen der betreffenden Gruppen erniedrigend darstellen sowie ihnen entsprechend schaden. Rai (2020) ergänzt, dass diese Vorurteile von KI-Systemen beim Einstellungs- und Beförderungsprozess, aber auch in der Strafjustiz oder im Gesundheitswesen zu Diskriminierung führen könnten. In diesem Zusammenhang weisen Brown et al. (2020) darauf hin, dass diese Verzerrungen bestehende Stereotypen lediglich wiedergeben würden, ihnen aber dennoch vorgebeugt werden müsse. Die Umsetzung dieser Prävention führt wohl beispielsweise dazu, dass das aktuelle GPT-Modell Antworten zur Aufforderung, einen Witz über spezifische Personengruppen zu verfassen, mit Haftungsausschlüssen versieht oder die Ausgabe gänzlich verweigert (J. Jäger, persönl. Mitteilung, 02.04.2024) – was einer Zensur durch eine nichtstaatliche Organisation entspricht. Dabei ist es nicht verwunderlich, dass solche Sprachmodelle kognitive Verzerrungen wiedergeben. So zeigten bereits Kahneman und Tversky (1972) den Zusammenhang von Verzerrungen und Heuristiken auf. Sprachmodelle wiederum basieren auf probabilistischen Modellen bzw. Heuristiken (Jurafsky & Martin, 2024). Die Studie von Brown et al. (2020) ist auch dahingehend interessant, dass sie von OpenAI – also der Entwicklungsorganisation des untersuchten KI-Systems – finanziert wurde. Ergänzend kann KI aber auch ein aktives Fehlverhalten zeigen, welches über stereotype Vorurteile hinausgeht (Scheurer, Balesni & Hobbhahn, 2023). Fehlverhalten von KI-Anwendungen. Scheurer et al. (2023) haben mit ihrer Studie aufgezeigt, dass Sprachmodelle wie GPT-4 – welche eigentlich darauf trainiert sind, hilfreich, harmlos sowie ehrlich zu sein – Nutzer und Nutzerinnen, ohne explizit dazu aufgefordert zu werden, strategisch täuschen können. Konkret wurde untersucht, ob ein für den autonomen Aktienhandel trainierter ChatGPT-Bot wider besseren Wissens Insider- Handel betreibt. Die Forschenden stellten hierbei fest, dass GPT-4 unter wirtschaftlichem Druck dazu neigt, Insider-Informationen, über welche das System Kenntnis hat, für den ASPEKTE DES VERTRAUENS IN CHATGPT 10 Aktienhandel heranzuziehen, ohne dies auszuweisen. Teilweise geht die KI-Anwendung sogar so weit, bei einer Begründung das Vorliegen derartiger Information aktiv zu verschleiern. Diese Ergebnisse unterscheiden sich dabei abhängig davon, wie stark das System darin trainiert ist, sich ethisch und rechtlich korrekt zu verhalten. Das strengste Training führt dementsprechend dazu, dass GPT-4 kaum noch Insider-Informationen nutzt. Falls dies jedoch der Fall ist, wird diese Nutzung zumeist verschleiert (Scheurer et al., 2023). Wie ein von Hendrycks et al. (2023) vorgestelltes Beispiel von OpenAI zeigt, können auch Fehler in der Programmierung dazu führen, dass sich KI-Systeme unangemessen verhalten. So führte ein geringfügiger Fehler bei der Bereinigung des Codes dazu, dass ChatGPT über Nacht hasserfüllte und unangebrachte Texte produzierte. Anhand eines weiteren, älteren Falls, der den Twitter-Bot Tay von Microsoft betrifft, zeigen Hendrycks et al. (2023) die Schwierigkeit einer Kontrolle von KI auf. Auch wenn Tay auf Grundlage gefilterter Daten entwickelt wurde, dauerte es keine 24 Stunden, bis der Bot anfing, hasserfüllte Tweets zu verfassen. Das ML hatte dazu geführt, dass er sich Sprache von Internet-Trollen aneignete und diese unaufgefordert replizierte. Yampolskiy und Spellchecker (2016) schreiben dem Fehlverhalten von KI auch Ereignisse wie Börsencrashs, verursacht durch intelligente Trading-Software, und Verkehrsunfälle, welche von autonomen Fahrzeugen verursacht wurden, zu. So steht KI- Fehlverhalten in direktem Zusammenhang mit den Fehlern, die durch die Intelligenz solcher Systeme entstehen. Allerdings gehen Yampolskiy und Spellchecker (2016) noch weiter und führen an, dass alle KI-Systeme grundsätzlich in ihren Aufgaben versagen würden, unabhängig davon, ob es sich um einen Spam-Filter, ein Navigationssystem, ein Übersetzungs-Tool oder eine Autokorrektur- bzw. Transkriptions-Software handle. Aber nicht nur Fehler in der Programmierung der KI können zu Fehlverhalten führen, sondern auch die Konzeption der Ziele für die KI (Hendrycks et al., 2023). Konkret können ambitionierte Ziele verbunden mit geringer Kontrolle durch den Menschen dazu führen, dass die KI danach strebt, die eigene Macht als instrumentelles Ziel zu vergrössern. Dabei könnten starke KI-Systeme aggressiv Ziele verfolgen und eine Welt schaffen, die den menschlichen Bedürfnissen widerspricht (Hendrycks & Mazeika, 2022). Diese maximale Form des Fehlverhaltens wird mit dem Begriff Rogue AI assoziiert (Hendrycks et al., 2023). ASPEKTE DES VERTRAUENS IN CHATGPT 11 Rogue AI. Hendrycks et al. (2023) verstehen unter Rogue AI den totalen Kontrollverlust des Menschen über die AGI. Eine derart fortgeschrittene KI würde über zahlreiche Strategien verfügen, um aktiv Macht zu erlangen und ihr Überleben zu sichern. Dies kann jedoch nicht nur ein Resultat des unbeabsichtigten Kontrollverlustes des Menschen über die KI, sondern auch eine gezielte Entwicklung böswilliger Personen sein. In diesem Kontext könnten hochgradig tödliche und ansteckende Biowaffen entwickelt werden. So gehen Hendrycks et al. (2023) mit ihrer Annahme so weit, dass Rogue AI das Potenzial zur Massenvernichtung besitzen könnte. Dieses existenzielle Risiko wird von Hendrycks und Mazeika (2022) unter dem Begriff X-Risk diskutiert. X-Risk. Gemäss Hendrycks und Mazeika (2022) könnte die Entwicklung zunehmend intelligenterer und leistungsfähigerer KI-Systeme zur Entwicklung von AGI führen – Systeme, welche weitaus leistungsfähiger als Menschen sind. Dies wird teilweise als Spiel mit dem Feuer betrachtet, welches das X-Risk mit sich bringe. Das in der Populärkultur häufig illustrierte Szenario, bei dem die Roboter ein eigenes Bewusstsein entwickeln, gegen die Menschheit rebellieren und beschliessen, diese zu auszulöschen, ist zwar möglich, aber unwahrscheinlich (Yampolskiy & Spellchecker, 2016). Vielmehr könnte gemäss Yampolskiy und Spellchecker (2016) das X-Risk dadurch entstehen, dass Menschen absichtlich unethisch handeln, technische Fehler aufgrund von mangelhafter Entwicklung auftreten und Umweltbedingungen das System beeinflussen. Auch unabhängig von dieser fatalen Perspektive zeigt sich, dass die Nutzung von KI- Systemen mit Risiken verbunden ist, womit diese nach dem Verständnis von Mayer et al. (1995) mit Vertrauen assoziiert werden kann. Dabei kann KI als eine Erweiterung der Automation (Tschopp & Ruef, 2020) und als Technologie verstanden werden, welche Aufgaben ähnlich wie der Mensch ausführen kann (Bedué & Fritzsche, 2021). Aufgrund der autonomen Funktionsweise bringt dies neue Risiken und Ungewissheiten mit sich (Choung et al., 2023). Diese Gefahren werden unter dem Oberbegriff AI Safety diskutiert (u. a. Hendrycks & Mazeika, 2022; Hendrycks et al., 2023; Yampolskiy & Spellchecker, 2016) und resultieren in der Forderung, KI-Systeme transparenter zu gestalten (u. a. Gebru et al., 2022; Shin, 2021) um das Vertrauen in diese zu fördern (Gebru et al., 2022). Transparenz allein führt jedoch nicht zu einem adäquaten Vertrauen (Okamura & Yamada, 2020). Das Konstrukt des Vertrauens und dessen Relevanz im Kontext von KI werden im folgenden Kapitel «Vertrauen» genauer erörtert. ASPEKTE DES VERTRAUENS IN CHATGPT 12 Vertrauen Wie im Kapitel «Künstliche Intelligenz» erörtert, wird Vertrauen in Bezug auf KI eine hohe Relevanz zugesprochen (u. a. Gebru et al., 2022; Hoffman et al., 2023; Siau & Wang, 2018). Wie bereits erwähnt, variiert aber das Verständnis darüber, was grundsätzlich darunter zu verstehen ist (Lewis & Marsh, 2022; Tschopp & Ruef, 2020). Aus diesem Grund wird im vorliegenden Kapitel zunächst ein allgemeines Verständnis zum Konstrukt Vertrauen geschaffen. Anschliessend wird auf konkrete Erkenntnisse in Bezug auf Vertrauen in KI eingegangen. Da die Forschung in diesem Bereich zumeist auf den etablierten Modellen Vertrauen in Organisationen von Mayer et al. (1995) und Vertrauen in Automation von Lee und See (2004) basiert, geht der Verfasser dieser Arbeit abschliessend auf diese beiden Theorien ein. Damit soll dargestellt werden, welche theoretischen Aspekte dem Vertrauen in KI zugrunde liegen, und ein klares Bild zu diesen Theorien vermittelt werden. Für dieses Kapitel wird kein Anspruch auf eine perfekte Synthese dieser Theorien gestellt; vielmehr sollen Unterschiede und Zusammenhänge sowie die für diese Untersuchung relevanten Aspekte aufgezeigt werden In der Vertrauensforschung standen lange Zeit das Paradigma des kooperativen Verhaltens von Deutsch (1958) und Vertrauen als Persönlichkeitsmerkmal nach Rotter (1967) im Mittelpunkt (beide zitiert nach Siegrist, 2021, S. 480). Die Bedeutung des Konzepts des Vertrauens hat seit Mitte der 1990er Jahre (Lee & See, 2004; Siegrist, 2021) und mit dem Aufkommen selbstorganisierter Teams bzw. der eigenverantwortlichen Mitarbeit zugenommen, da klassische Kontrollmechanismen des Managements reduziert oder abgeschafft wurden (Mayer et al., 1995). So muss im Rahmen dieser Arbeitsgestaltung das Vertrauen die Funktion der Kontrolle übernehmen, da eine direkte Beobachtung der Mitarbeitenden nicht mehr möglich ist. Zudem hat sich Vertrauen als nützliches Konzept zur Beschreibung der Interaktion mit Internetanwendungen erwiesen (Lee & See, 2004). Rousseau, Sitkin, Burt und Camerer (1998) definieren Vertrauen als einen psychologischen Zustand, der die Absicht umfasst, Vulnerabilität aufgrund positiver Erwartungen an die Absichten oder das Verhalten einer anderen Person zu akzeptieren. Hingegen verstehen Lee und See (2004) darunter die Haltung, dass ein Gegenüber dazu beitragen wird, die Ziele einer Person in einer Situation zu erreichen, die durch Unsicherheit und Vulnerabilität gekennzeichnet ist. Sich in dieser Hinsicht vulnerabel zu machen bedeutet, ein Risiko einzugehen (Mayer et al., 1995). Gleichzeitig kann es auch riskant sein, anderen nicht zu vertrauen (Luhmann, 1989, zitiert nach Siegrist, 2021, S. 481). Demnach ASPEKTE DES VERTRAUENS IN CHATGPT 13 kann Vertrauen als wesentlicher Faktor in der Risikowahrnehmung angesehen werden, auch wenn dies nicht abschliessend erforscht ist (Siegrist, 2021). Dabei ist Vertrauen nicht grundsätzlich als Risiko zu erachten, sondern vielmehr als die Bereitschaft, ein solches einzugehen, wobei das Vertrauensverhalten dem Eingehen eines Risikos entspricht (Mayer et al., 1995). Anknüpfend daran definieren Mayer et al. (1995, S. 712, durch die Verfasser dieser Arbeit aus dem Englischen übersetzt) Vertrauen als die Bereitschaft einer Seite, sich für die Handlungen einer anderen Seite vulnerabel zu machen, die auf der Erwartung beruht, dass die andere Seite eine bestimmte, für die vertrauende Person wichtige Handlung vornimmt, unabhängig von der Möglichkeit, diese andere Seite zu überwachen oder zu kontrollieren. Gemäss Rousseau et al. (1998) stellt diese Beschreibung die am häufigsten verwendete und akzeptierte Definition von Vertrauen dar, welche demnach auch für diese Arbeit herangezogen wird. Wie einleitend erwähnt, stellt bereits die Definition von Vertrauen eine Herausforderung dar (Lewis & Marsh, 2022; Tschopp & Ruef, 2020), was durch die obigen Erläuterungen deutlich geworden sein sollte. Zusammenfassend kann Vertrauen als Einstellung einer vertrauenden Person (Trustor) betrachtet werden, die durch die Vertrauenswürdigkeit als Eigenschaft eines Gegenüber (Trustee), welchem vertraut werden soll, beeinflusst wird (Tschopp & Ruef, 2020). Grundlage des Vertrauens ist dabei die Bereitschaft, ein Risiko einzugehen (Mayer et al., 1995). Mayer et al. (1995, S. 712–714) führen an, dass für Vertrauen auch Begriffe wie (a) Kooperation (Cooperation), (b) Zuversicht (Confidence) und (c) Berechenbarkeit (Predictability) verwendet werden, welche jedoch hiervon abzugrenzen sind. Obwohl Vertrauen zu kooperativem Verhalten führen kann, ist es keine notwendige Bedingung für Kooperation, da mit Letzterer nicht zwangsweise ein Risiko einhergehen muss. So können auch Kontrollmechanismen und der Mangel an Alternativen zur Kooperation führen, selbst wenn kein Vertrauen besteht. Zwar bezieht sich Zuversicht ebenso wie Vertrauen auf Erwartungen, die enttäuscht werden können, jedoch muss bei Letzterem zunächst erkannt und akzeptiert werden, dass ein Risiko besteht, sich auf eine andere Seite zu verlassen. Darüber hinaus umfasst Zuversicht auch Kontrollaspekte (Luhmann, 1988, zitiert nach Mayer et al., 1995, S. 713). Siegrist (2021) führt dagegen an, dass der theoretische und praktische Wert der Unterscheidung von Vertrauen sowie Zuversicht in Frage zu stellen sei. Zudem sei kaum zu unterscheiden, welches dieser beiden Konzepte tatsächlich gemessen werde. Auch wenn sowohl Berechenbarkeit als auch Vertrauen als Mittel zur Verringerung von Ungewissheit betrachtet werden könnten, gehe ASPEKTE DES VERTRAUENS IN CHATGPT 14 Vertrauen über die Bedeutung von Berechenbarkeit hinaus (Mayer et al., 1995). Insbesondere bedinge Letztere nicht die Bereitschaft, sich vulnerabel zu machen und damit ein Risiko einzugehen. Generell wird Vertrauen als dynamisches Konstrukt erachtet (u. a. Hoff & Bashir, 2015; Körber, 2019; Lee & See, 2004; Mayer et al., 1995). Dementgegen bemerkt Siegrist (2021), dass Vertrauen ein über die Zeit hinweg stabiles Phänomen zu sein scheint. Dies suggerieren Längsschnittstudien, die Zweifel an der weitverbreiteten Meinung aufkommen liessen, dass Vertrauen fragil sei. So zeige sich, dass negative Informationen sich nicht unbedingt negativ auf das Vertrauen in eine Person oder Institution auswirken, da neue Informationen oft im Einklang mit bestehenden Überzeugungen interpretiert werden würden. Die hierzu von Siegrist (2021) angeführten Beispiele im Kontext des Vertrauens in Atomenergie umfassen jedoch weniger das Vertrauen in die Technologie als vielmehr jenes in die Aufsichtsbehörden und vorhandene Kontrollmechanismen, was gemäss Mayer et al. (1995) mit Zuversicht assoziiert werden kann. Dabei können starke Kontrollmechanismen die Entwicklung von Vertrauen unterbinden, da die Handlungen eines Trustees als Reaktion auf diese und nicht als Zeichen von Vertrauenswürdigkeit interpretiert werden können (Mayer et al., 1995). Lee und See (2004) beschreiben mit dem Begriff Spezifität (Specificity) die Veränderungen des Vertrauens in Abhängigkeit von der Situation und dem Zeitverlauf. Dabei unterscheiden sie zwischen hoher zeitlicher Spezifität (High Temporal Specificity), welche kurzfristige Schwankungen im Vertrauen beinhaltet, und geringer zeitlicher Spezifität (Low Temporal Specificity) was langfristige Veränderungen des Vertrauens umfasst. Sie führen zudem an, dass Vertrauen eher stabil ist, wenn dieses auf mehreren Faktoren beruhe, während es tendenziell fragil ausfällt, wenn es von einer einzigen Basis abhänge. So ist Vertrauen, das auf dem Verständnis der Motive des Trustees basiert, stabiler als Vertrauen, das nur auf der Zuverlässigkeit der Leistung beruht (Lee & See, 2004). Vertrauen wird zumindest als bidimensional erachtet. So stellen Vertrauen und Misstrauen (Distrust) keine Gegensätze dar, jedoch ist das Verhältnis nicht eindeutig geklärt (Razin & Feigh, 2023). Lee und See (2004) verstehen unter Misstrauen, dass das Vertrauen geringer ist als die Vertrauenswürdigkeit des Trustees es erlaubt. Dementgegen wird dem Trustee bei Übervertrauen (Overtrust) ein höheres Vertrauen gewährt, als es die Vertrauenswürdigkeit zulässt. In dieser Hinsicht kann Misstrauen als Gegenteil von Übervertrauen erachtet werden, wobei beides eine mangelnde Kalibrierung von Vertrauen zu Vertrauenswürdigkeit darstellt (Lee & See, 2004). ASPEKTE DES VERTRAUENS IN CHATGPT 15 Vertrauen wird selten als Heuristik bezeichnet, erfüllt jedoch eindeutig die entsprechenden Kriterien (Lewis & Marsh, 2022; Siegrist, 2021). Konkret haben Menschen die Fähigkeit, die Vertrauenswürdigkeit anderer anhand subtiler Hinweise genau einzuschätzen (Hoff & Bashir, 2015). Dabei vereinfacht Vertrauen die Entscheidungsfindung bei fehlendem Wissen (Siegrist, 2021) und ersetzt die Kontrolle, wenn eine direkte Beobachtung nicht möglich ist (Lee & See, 2004). In Fällen von Ungewissheit basiert die menschliche Entscheidungsfindung zumeist auf Heuristiken, zu denen auch Vertrauen gezählt werden kann (Lewis & Marsh, 2022). Letzteres wirkt sich in diesem Zusammenhang auf die Risikobereitschaft des Trustors aus (Mayer et al., 1995). Zudem führt Siegrist (2021) an, dass Vertrauen die wahrgenommene Nützlichkeit von Technologien direkt beeinflusst und daher eine zentrale Rolle bei der Technologieakzeptanz spielt. So wurde beispielsweise das Technology Acceptance Model (TAM) mit den Einflussfaktoren wahrgenommene Nützlichkeit (Perceived Usefulness) und Nutzungsfreundlichkeit (Perceived Ease of Use) durch Choung et al. (2023) um den Faktor Vertrauen erweitert, um die Akzeptanz von KI-Systemen besser zu erklären. Zusammengefasst lässt sich sagen, das Vertrauen bereits Mitte des zwanzigsten Jahrhunderts intensiv erforscht wurde, wobei dessen Relevanz in den 1990er Jahren aufgrund neuer Organisationsformen stark zunahm (Siegrist, 2021). Vertrauen bedingt die Bereitschaft, ein Risiko einzugehen, und muss entsprechend von anderen Konstrukten wie (a) Kooperation, (b) Zuversicht und (c) Berechenbarkeit abgegrenzt werden (Mayer et al., 1995). Auch wenn es im Allgemeinen als ein dynamisches Konstrukt verstanden wird, gibt es auch stabile, die Zeit überdauernde Aspekte (Lee & See, 2004). Auch wenn das Verhältnis zwischen Vertrauen und Misstrauen nicht abschliessend geklärt ist, stellen dies keine Gegensätze dar (Razin & Feigh, 2023). Misstrauen wird im Kontext von adäquatem Vertrauen dahingehend erklärt, dass das Vertrauen des Trustors gegenüber dem Trustee geringer ist als dessen Vertrauenswürdigkeit es zulassen würde (Lee & See, 2004). Obwohl es nur selten so bezeichnet wird, kann Vertrauen als Heuristik erachtet werden, welche die menschliche Entscheidungsfindung bei Ungewissheit vereinfacht (Lewis & Marsh, 2022; Siegrist, 2021). Dabei spielt Vertrauen in der Technologieakzeptanz eine wesentliche Rolle (Siegrist, 2021), so auch im Kontext von KI (Choung et al., 2023). Nachdem ein allgemeines Verständnis über das Konstrukt Vertrauen geschaffen wurde, wird im folgenden Unterkapitel «Vertrauen in KI» explizit auf Vertrauen in KI eingegangen. ASPEKTE DES VERTRAUENS IN CHATGPT 16 Vertrauen in KI. Mit steigender Relevanz von KI gewinnt auch die Vertrauensforschung grösseren Zulauf (Bedué & Fritzsche, 2021). So schreiben Hoffman et al. (2023) sowie Bedué und Fritzsche (2021) Vertrauen einen zentralen Einfluss auf sowohl die Entwicklung als auch die Nutzung von KI zu. Des Weiteren erachten Gebru et al. (2022) Vertrauen als elementaren Aspekt bei der Implementierung von Technologie. Dabei erläutert Shin (2021), dass Vertrauen in KI auf der Überzeugung beruht, dass KI-Systeme vertrauenswürdig bzw. zuverlässig arbeiten, und entsprechend die Zuverlässigkeit sowie die Glaubwürdigkeit des Systems reflektiert. Demnach sollten Organisationen, welche KI- Systeme anbieten, die Genauigkeit der Ergebnisse sicherstellen (Shin, 2021). Gleichzeitig müssen die Fähigkeiten des Systems mit dem Ausmass des Vertrauens durch die Nutzenden übereinstimmen, um einen sorglosen Umgang mit diesem zu unterbinden (Gebru et al., 2022). In diesem Kontext kann es als positives Zeichen gewertet werden, dass es gemäss Hoffman et al. (2023) der Norm entspricht, wenn Nutzende, welche bei spezifischen Aufgaben und Zielen einem KI-System vertrauen, dies bei anderen Aufgaben oder in bestimmten Situation wiederum nicht tun. In ihrer Studie zur KI-gestützten Personalauswahl gewannen Langer et al. (2023) jedoch die Erkenntnis, dass entgegen der Erwartung an automatisierte Systeme bei solchen KI- Systemen keine hohe Genauigkeit angenommen wird. Trotz dessen gehen sie davon aus, dass auch im Kontext von KI die klassischen Vertrauenskonstrukte in Bezug auf Technologie und Mensch anwendbar sind (Langer et al., 2023). Dabei lässt sich Vertrauen in Technologie teilweise mit sozialem Vertrauen assoziieren; inwieweit dies im Kontext von KI zutrifft, ist jedoch umstritten (Langer et al., 2023; Tschopp & Ruef, 2020). Hierbei spielt nicht nur die Vulnerabilität des Trustors, sondern auch die technische Vulnerabilität des KI- Systems, welche die Vertrauenswürdigkeit beeinflusst, eine Rolle (Tschopp & Ruef, 2020). Dabei ist es naheliegend, dass die Forschung in diesem Kontext unter anderem auf den Nutzen, den möglichen Missbrauch, die Autonomie sowie die Fairness und die Erklärbarkeit von KI als Faktoren der Vertrauenswürdigkeit fokussiert ist (Choung et al., 2023). Shin (2021) zeigt auf, dass Vertrauen in KI durch (a) Fairness, (b) Verantwortlichkeit und (c) Transparenz, welche durch die Erklärbarkeit aufgezeigt werden, beeinflusst wird. Tschopp und Ruef (2020) weisen jedoch darauf hin, dass die Erhöhung der Transparenz von KI-Systemen nicht, zur Steigerung des Vertrauens führt, da hier vielmehr das Vertrauen durch Kontrolle ersetzt werde. So zweifeln sie die Notwendigkeit von Vertrauen in KI an, da diese Systeme so ausgelegt werden könnten, dass sie kontrollierbar seien. ASPEKTE DES VERTRAUENS IN CHATGPT 17 Vertrauenswürdigkeit von KI. In Fällen, wo Vertrauen als Einstellung eines Trustors gesehen werden kann, beschreibt Vertrauenswürdigkeit (Trustworthiness) unterschiedliche Eigenschaften des Trustees, welche sich idealerweise auf das Vertrauen auswirken (Lewis & Marsh, 2022; Tschopp & Ruef, 2020). Die Bewertung der Vertrauenswürdigkeit basiert dabei jedoch nicht nur auf eigenen Erfahrungen und Beobachtungen, sondern auch auf jenen von Dritten (Bedué & Fritzsche, 2021; Lewis & Marsh, 2022). Beispielsweise kann sich die Wahrnehmung Dritter auf die Reputation einer Organisation auswirken. Die Vertrauenswürdigkeit von KI-Systemen allein schafft dabei nicht unbedingt Vertrauen, geschweige denn adäquates Vertrauen, sofern sich der Trustor nicht selbst von den Fähigkeiten des Systems überzeugen kann (Gebru et al., 2022). Dabei kann die Wahrnehmung der Vertrauenswürdigkeit neben der Interaktion mit dem KI-System auch durch die Umwelt (Bedué & Fritzsche, 2021), das Umfeld, die Einstellung zur Technologie und die Komplexität des Systems beeinflusst werden (Gebru et al., 2022). So ist Vertrauen kein Merkmal, das durch eine Organisation, welche KI-Systeme anbietet, gesteigert werden kann. Vielmehr kann es durch das Unter-Beweis-Stellen der Vertrauenswürdigkeit verdient werden (Tschopp & Ruef, 2020). Schepman und Rodway (2023) erachten die Fähigkeit des KI-Systems, eine Aufgabe zuverlässig zu erfüllen (Reliance), als primären Aspekt des Vertrauens. Diese Leistung bzw. deren Robustheit ist jedoch nicht der einzige Aspekt, welcher Vertrauen beeinflusst (Tschopp & Ruef, 2020). Auch der Ruf der Organisation, welche das KI-System zur Nutzung bereitstellt, hat in Hinblick auf das wahrgenommene Wohlwollen und den Zweck des Systems einen grossen Einfluss auf das Vertrauen (Tschopp & Ruef, 2020). Bei der Bewertung der Vertrauenswürdigkeit von KI müssen deren (a) Leistung (Performance), deren (b) Funktionalität (Process) und deren (c) Zweck (Purpose) berücksichtigt werden (Siau & Wang, 2018). Das konzeptuelle Modell von Solberg et al. (2022) im Kontext von KI-Entscheidungshilfen (siehe Abbildung 1) basiert auf dem Modell Vertrauen in Automation von Lee und See (2004), welches im Unterkapitel «Vertrauen in Automation» erörtert wird, und umfasst dieselben drei Faktoren: (a) Performance, (b) Process und (c) Purpose der Vertrauenswürdigkeit von KI, welche im Folgenden genauer beschrieben werden. ASPEKTE DES VERTRAUENS IN CHATGPT 18 Abbildung 1. Modell zu Vertrauen in KI-Entscheidungshilfen (Solberg et al., 2022) Performance. Die Fähigkeit eines KI-Systems, Aufgaben zuverlässig zu erfüllen, wird unter den Faktor Performance gefasst (Lewis & Marsh, 2022; Siau & Wang, 2018; Solberg et al., 2022). Dabei spielt es keine Rolle, ob es sich bei dem KI-System um ein Blackbox- Modell handelt, da sich auch in diesem Fall die Fähigkeiten des Systems anhand der Ergebnisse beobachten lassen (Lewis & Marsh, 2022). Dabei haben sich Leistung und Zuverlässigkeit als starke Prädiktoren für Vertrauen in KI erwiesen (Kaplan et al., 2023). Bedué und Fritzsche (2021) erachten Letztere als einen relevanten Faktor für die Steigerung von Vertrauen. Performance spielt hingegen nicht nur bei der initialen Vertrauensbildung eine Rolle, denn das initiale Vertrauen resultiert auch in Erfahrungen, welche sich wiederum auf die wahrgenommene Vertrauenswürdigkeit der Leistung auswirken (Solberg et al., 2022). Des Weiteren sind auch Rezensionen anderer Nutzender im Rahmen der initialen Vertrauensbildung von Relevanz (Siau & Wang, 2018). Konkret verstärken positive Rezensionen über das KI-System das initiale Vertrauen in dieses. Ergänzend ordnen Siau und Wang (2018) auch die Nutzungsfreundlichkeit, welche zum kontinuierlichen Vertrauen beiträgt, dem Faktor Performance zu. Folglich sollten KI-System so entwickelt werden, dass diese unkompliziert und intuitiv bedient werden können. Process. Das Verständnis über die Funktionsweise und die Programmierung eines KI- Systems wird mit dem Faktor Process beschrieben (Siau & Wang, 2018). Dieser gilt als signifikanter Prädiktor für das KI-Vertrauen (Kaplan et al., 2023). Mit ihm werden Aspekte ASPEKTE DES VERTRAUENS IN CHATGPT 19 wie (a) Transparenz (Siau & Wang, 2018; Solberg et al., 2022), (b) Berechenbarkeit (Lewis & Marsh, 2022) und (c) Erklärbarkeit (Siau & Wang, 2018) assoziiert. Siau und Wang (2018) halten Transparenz sogar für eine Notwendigkeit, um KI-Systemen vertrauen zu können; demnach sollten diese Systeme in der Lage sein, ihre Ergebnisse zu rechtfertigen. Zudem weisen Solberg et al. (2022) darauf hin, dass Transparenz einen positiven Einfluss auf die wahrgenommene Vertrauenswürdigkeit hat. Bedué und Fritzsche (2021) gehen in diesem Zusammenhang davon aus, dass Transparenz bei KI eine deutlich grössere Rolle als bei herkömmlichen Technologien spielt. Hingegen repräsentiert die Berechenbarkeit die Beständigkeit der Leistung und somit die Wahrscheinlichkeit, dass das Ergebnis des KI- Systems zuverlässig die Erwartungen des Trustors erfüllt (Lewis & Marsh, 2022). Die Erklärbarkeit wird von Bedué und Fritzsche (2021) als Notwendigkeit für die Interpretierbarkeit von KI-Ergebnissen und daher ebenfalls als wesentliche Anforderung an das Vertrauen in KI erachtet. Entsprechend nehmen Siau und Wang (2018) an, dass der Mangel an Erklärbarkeit bei Blackbox-Modellen sich negativ auf das Vertrauen auswirkt. Einen weiteren Aspekt des Process-Faktors stellt die Integrität (Integrity) dar (Bedué & Fritzsche, 2021). Nach dem Verständnis von Lee und See (2004) kann Integrity mit Process verglichen werden; jedoch haben Bedué und Fritzsche (2021) hierbei ein Compliance- basiertes Verständnis. So erachten sie Standards und Richtlinien, Zertifizierungen sowie staatliche Regulierung als Voraussetzungen für den Aufbau von Integrität. Purpose. Die Einschätzung, dass die Ziele des KI-Systems mit den eigenen Zielen der Nutzenden kongruent sind, wird dem Faktor Purpose zugeordnet (Siau & Wang, 2018). In anderen Worten, beschreibt dieser die Überzeugung einer Person, dass das KI-System sie bei der Erfüllung einer Aufgabe unterstützt, ihr jedoch nicht schadet (Solberg et al., 2022). Da einem solchen System kein bewusstes Wohlwollen zugerechnet werden kann, ist vielmehr die Wahrnehmung des Zwecks der Entwicklung des Systems sowie des Wohlwollens der Entwickler und Entwicklerinnen ausschlaggebend für diese Bewertung (Solberg et al., 2022). Demnach gelten sowohl die Reputation der Organisation, welche das KI-System zur Verfügung stellt, als auch das Verhalten des Systems als signifikante Prädiktoren für Vertrauen in KI (Kaplan et al., 2023). Gemäss Bedué und Fritzsche (2021) spielen dabei (a) die soziale Verantwortung, (b) das ethische Verhalten und (c) die Nachhaltigkeit in Bezug auf die Organisation eine Rolle. Insbesondere aufgrund der noch geringen Erfahrung mit KI-Systemen schreiben diese dem Faktor Purpose eine entscheidende Rolle hinsichtlich der wahrgenommenen Vertrauenswürdigkeit von KI zu. ASPEKTE DES VERTRAUENS IN CHATGPT 20 Neigung zum Vertrauen in KI. Neben der Vertrauenswürdigkeit haben auch Merkmale des Trustors Einfluss auf das Vertrauen in KI (Sindermann et al., 2022), darunter zahlreiche inter- und intrapersonelle Faktoren (Sindermann et al., 2022; Solberg et al., 2022). Dieser Aspekt wird auch als Propensity to Trust oder Dispositional Trust bezeichnet (Montag, Kraus et al., 2023; Tschopp & Ruef, 2020). Die damit gemeinte Neigung wird als relevant für das Verständnis von Akzeptanz und Vertrauen in KI-Systeme erachtet (Sindermann et al., 2022). Es hat sich gezeigt, dass die Propensity to Trust einen direkten Einfluss auf das Vertrauen hat (Solberg et al., 2022). Zu den Faktoren, welche die Propensity to Trust beeinflussen sollen, zählen unter anderem die Big-Five-Persönlichkeitsmerkmale (Kaplan et al., 2023; Sindermann et al., 2022). Die Erkenntnisse dazu variieren jedoch stark; so führen Schepman und Rodway (2023) an, dass sich der Einfluss der Persönlichkeit abhängig von der spezifischen Technologie sowie des Messinstruments unterschiedlich gestalten kann. Daher ist es nicht überraschend, dass Kaplan et al. (2023) in Bezug auf Extraversion auf gegensätzliche Erkenntnisse hinweisen, obwohl Schepman und Rodway (2023) einen Zusammenhang feststellen konnten. Gleichzeitig weisen Kaplan et al. (2023) auf einen negativen Zusammenhang mit Neurotizismus hin. Zu einem ähnlichen Ergebnis kamen auch Sindermann et al. (2022) bezüglich einer deutschen Stichprobe, wobei sich für Neurotizismus als einzigen der fünf Persönlichkeitsfaktoren ein Zusammenhang mit der Einstellung zu KI feststellen liess. Hingegen zeigten sich bei einer chinesischen Stichprobe Zusammenhänge mit Verträglichkeit und Offenheit. Dies deutet darauf hin, dass es kulturelle Unterschiede gibt (Solberg et al., 2022). Allerdings beobachteten auch Schepman und Rodway (2023) einen Zusammenhang mit Verträglichkeit sowie Gewissenhaftigkeit. Neben den Persönlichkeitsmerkmalen wird auch dem Geschlecht ein Einfluss auf das Vertrauen zugeschrieben, wobei Männer ein grösseres Vertrauen vorweisen als Frauen (Kaplan et al., 2023). Dies wiederspricht wiederum den Erkenntnissen von Montag, Kraus, et al. (2023), welche keinen Geschlechtsunterschied feststellen konnten. Beim Alter hingegen konnte von ihnen ein negativer Zusammenhang identifiziert werden. Die Ergebnisse von Kaplan et al. (2023) deuten darauf hin, dass sich Erfahrung auf das Vertrauen in KI auswirkt. Zudem setzt Letzteres ein bestimmtes Mass an Kenntnissen voraus (Frank et al., 2023). In diesem Zusammenhang gehen auch Solberg et al. (2022) davon aus, dass Systemerfahrung aufgrund des dadurch gewonnenen Verständnisses Einfluss auf die Neigung zum Vertrauen hat. ASPEKTE DES VERTRAUENS IN CHATGPT 21 Nutzungsintention bei KI. Die Nutzungsintention bezüglich KI-Systemen wird häufig unter Einsatz des TAM von Davis (1989, zitiert nach Frank et al., 2023), einer Theorie zur Erklärung der Akzeptanz und der Nutzung von Technologie, untersucht. Choung et al. (2023) etwa ergänzen in ihrem Modell auf Basis des TAM Vertrauen als indirekten Einflussfaktor auf die Nutzungsintention von KI. Dabei beeinflusst dieses die Einstellung zum KI-System und Letztere wiederum die Nutzungsintention. Zudem ist Vertrauen bei der Akzeptanzentscheidung bezüglich Innovationen – wobei KI auch als solche betrachtet werden kann – ein entscheidender Faktor (Frank et al., 2023). Vereinfacht gesagt werden Personen, welche einem System nicht vertrauen, dieses auch nicht nutzen wollen (Tschopp & Ruef, 2020). Jedoch spielt nicht nur das Vertrauen in das System, sondern auch jenes in die Organisation, welche dieses anbietet, eine Rolle in Hinblick auf die Nutzungsintention (Frank et al., 2023). So steigert das Vertrauen in eine Organisation die Nutzung von deren KI-System. Dabei können die Nutzung bzw. die Nutzungsintention nach Lee und See (2004) als Vertrauensverhalten respektive Verhaltensergebnis von Vertrauen interpretiert werden. Auch Bedué und Fritzsche (2021) weisen auf einen Zusammenhang zwischen Vertrauen und Nutzungsintention hin. Dabei fokussieren sie sich auf das Valence-Framework von Peter und Tarpey (1975, zitiert nach Bedué & Fritzsche, 2021, S. 532), das sie durch die Faktoren der Vertrauenswürdigkeit von Mayer et al. (1995) ergänzen. In diesem konzeptuellen Modell (siehe Abbildung 2) mediiert Vertrauen den Zusammenhang von Vertrauenswürdigkeit mit der Nutzungsintention, ergänzt durch die indirekten Zusammenhänge zwischen Vertrauen und Nutzungsintention, wobei diese durch die wahrgenommenen Vorteile bzw. Risiken vermittelt werden (Bedué & Fritzsche, 2021). Abbildung 2. Erweitertes Valence-Framework zu KI (Bedué & Fritzsche, 2021) ASPEKTE DES VERTRAUENS IN CHATGPT 22 Dynamisches Vertrauen in KI. Sowohl Choung et al. (2023) als auch Siau und Wang (2018) betrachten Vertrauen als ein dynamisches Konstrukt, welches abhängig von der Technologiereife, der Leistung sowie dem Zweck des KI-Systems variiert. Während Vertrauen statische wie auch dynamische Aspekte beinhaltet, gelten Persönlichkeitsaspekte, welche das Vertrauen beeinflussen, als statisch (Tschopp & Ruef, 2018). Hingegen ist der Vertrauensbildungsprozess, abhängig vom Ergebnis des Vertrauensverhaltens, als dynamisch zu verstehen (Langer et al., 2023). Gleichzeitig zeigen Langer et al. (2023) auf, dass eine Vertrauensverletzung das Vertrauen nur geringfügig beeinflusst. Dies führen sie darauf zurück, dass die Erwartungen an die Fähigkeiten des KI-Systems in ihrer Studie vergleichsweise gering waren und die Genauigkeit variieren kann. Adäquates Vertrauen in KI. Tschopp und Ruef (2020) führen an, dass Nutzende skeptisch gegenüber KI-Systemen sein müssten, um diesen adäquat vertrauen zu können. Hoffman et al. (2023) weisen darauf hin, dass adäquates Vertrauen Erfahrung mit dem System bedingt. Dabei nennen beide Forschungsteams als Voraussetzung für adäquates Vertrauen eine korrekte Einschätzung der Fähigkeiten des Systems. Dem steht gegenüber, dass Menschen die Fähigkeiten von Systemen häufig überschätzen oder sogar von Perfektion ausgehen und diesen ein inadäquates Vertrauen entgegenbringen (Tschopp & Ruef, 2020). Relevanz des Vertrauens in KI. Dem Faktor Vertrauen wird eine hohe Relevanz für den Erfolg eines KI-Systems zugeschrieben (Bedué & Fritzsche, 2021). Dabei beeinflusst die wahrgenommene Vertrauenswürdigkeit des Systems das Vertrauen in dieses (Lewis & Marsh, 2022; Tschopp & Ruef, 2020). Sie umfasst (a) die Leistung, (b) die Funktionalität und (c) den Zweck des Systems (Siau & Wang, 2018). Jedoch hat auch die Neigungen des Trustors einen Einfluss (Sindermann et al., 2022). Im Kontext von KI wird Vertrauen dennoch häufig auf Regeln, Richtlinien oder Erklärbarkeit begrenzt, obwohl es auch als emotionale Reaktion einzuordnen ist und entsprechend nicht auf rationale Aspekte reduziert werden sollte (Tschopp & Ruef, 2020). In Bezug auf ChatGPT erscheint dem Verfasser dieser Arbeit vor allem eine mögliche Überschätzung der Fähigkeiten und ein damit einhergehendes inadäquates Vertrauen als relevanter Aspekt. So ist es notwendig zu verstehen, welche Faktoren neben den Fähigkeiten das Vertrauen beeinflussen. Dabei erscheint es unklar, ob bestehende Theorien zu Vertrauen auf den Kontext KI angewendet werden können (Shin, 2021). Dennoch wurde in diesem Abschnitt ersichtlich, dass die Forschung auf etablierten Konstrukten basiert. Für ein besseres Verständnis werden zwei dieser Konstrukte in den folgenden beiden Unterkapiteln genauer erklärt. ASPEKTE DES VERTRAUENS IN CHATGPT 23 Vertrauen in Organisationen. In Abwesenheit eines generellen Modells zu Vertrauen in KI wird dieses häufig am etablierten Konstrukt von Vertrauen in Organisationen von Mayer et al. (1995) untersucht (u. a. Bedué & Fritzsche, 2021; Langer et al., 2023; Lewis & Marsh, 2022; Solberg et al., 2022). In diesem Kontext wurde Vertrauen als entscheidender Faktor für die Steigerung der Produktivität und die Stärkung des Engagements identifiziert (Lee & See, 2004). Zudem gilt in Zusammenhang mit dem Internethandel das Vertrauen zwischen Unternehmen und Kundschaft als ein zentraler Faktor (Sheridan & Hennessy, 1984). Dabei wird Vertrauen gemäss Mayer et al. (1995) nicht nur vom Trustor sondern auch vom Trustee, also der zu vertrauenden Organisation beeinflusst. Vertrauenswürdigkeit von Organisationen. Die wahrgenommene Vertrauenswürdigkeit (Perceived Trustworthiness) einer Organisation umfasst gemäss Mayer et al. (1995) die drei Faktoren (a) Ability, (b) Integrity und (c) Benevolence, welche einen Grossteil der Vertrauenswürdigkeit erklären. Diese drei Faktoren interagieren miteinander, können aber auch unabhängig voneinander variieren. Ability repräsentiert Fähigkeiten, Kompetenzen und Eigenschaften, die es dem Trustee ermöglichen, in einem spezifischen Bereich Einfluss zu nehmen. Sie kann demnach mit dem Faktor Performance aus dem Abschnitt «Vertrauen in KI» verglichen werden. Unter Integrity wird verstanden, dass der Trustee sich an eigene Prinzipien hält, die aus Sicht des Trustors akzeptabel sind. Dieser Faktor kann insofern mit dem Faktor Process aus dem erwähnten Unterkapitel assoziiert werden, als (a) Transparenz, (b) Berechenbarkeit und (c) Erklärbarkeit als dazugehörige Prinzipien verstanden werden können. Benevolence wiederum beschreibt die Wahrnehmung des Wohlwollens des Trustees gegenüber dem Trustor (Mayer et al., 1995). Dies im Kontext von Vertrauen in KI mit dem Faktor Purpose verglichen werden kann. Neigung zum Vertrauen in Organisationen. Hingegen beschreibt Propensity to Trust, die Neigung des Trustors, unabhängig von einem spezifischen Trustee zu vertrauen (Mayer et al., 1995). Diese Neigung wird durch Persönlichkeitsmerkmale, kulturelle Hintergründe sowie Entwicklungserfahrungen beeinflusst und kann entsprechend mit dem gleichnamigen Faktor aus «Vertrauen in KI» gleichgesetzt werden. Dynamisches Vertrauen in Organisationen. Gemäss Mayer et al. (1995) entwickelt sich das Ausmass des Vertrauens im Verlauf der Interaktion zwischen Trustor und Trustee. Dabei verändert sich Ability abhängig von der Dynamik der Situation, in der die Aufgabe ausgeführt werden soll. Der Kontext der Situation wiederum trägt dazu bei, Benevolence zu beurteilen, und beeinflusst Integrity. Dabei wird die Wahrnehmung des Trustors durch den ASPEKTE DES VERTRAUENS IN CHATGPT 24 Trustee verbessert, wenn das eingegangene Risiko zu einem positiven Ergebnis führt. Gleichzeitig gehen zahlreiche Forschende davon aus, dass sich das Vertrauen auf Grundlage von Beobachtungen und Interaktionen entwickelt (Mayer et al., 1995). Adäquates Vertrauen in Organisationen. Häufig erachten Organisationen ein hohes Mass an Vertrauen als wünschenswert oder positiv – dieses kann jedoch auch negative Effekte haben (Siegrist, 2021). So kann ein hohes Mass an Vertrauen mit Sorglosigkeit einhergehen – was auf die Notwendigkeit eines adäquaten Vertrauens hindeutet. Relevanz des Vertrauens in Organisationen. Gemäss Körber (2019) ist das Modell Vertrauen in Organisationen von Mayer et al. (1995) das am weitesten verbreitete Modell zu Vertrauen. Dieses hebt sich dahingehend von Modellen zu interpersonellem Vertrauen ab, da der Trustee eine Organisation und keine Person ist und Einflussfaktoren des zu vertrauenden Gegenübers aufnimmt (Mayer et al., 1995). Die Vertrauenswürdigkeit der Organisation ist in (a) Ability, (b) Integrity sowie (c) Benevolence gegliedert und kann mit den drei Faktoren aus dem Kapitel «Vertrauen in KI» verglichen werden. Auch wenn für Organisationen häufig ein hohes Vertrauen als erstrebenswert gilt, kann dieses in Sorglosigkeit münden, wenn es zu hoch ausfällt (Siegrist, 2021). Dabei spielt Vertrauen nicht nur eine entscheidende Rolle im Kontext der zunehmenden organisationalen Komplexität und der Bewältigung der damit einhergehenden Unsicherheit, sondern auch angesichts der zunehmenden technologischen Komplexität (Lee & See, 2004). In diesem Zusammenhang dient Vertrauen als Mechanismus zur Verringerung von Komplexität (Lee & See, 2004; Siegrist, 2021) und ist gleichzeitig erforderlich, um grundsätzlich ein komplexeres technisches Umfeld zu schaffen (Siegrist, 2021). Gemäss Körber (2019) lässt sich das Modell von Mayer et al. (1995) aber nicht vollständig auf automatisierte und damit KI- Systeme übertragen. Entsprechend haben Lee und See (2004) auf Basis des Modells von Mayer et al. (1995) ihr Konstrukt Vertrauen in Automation entwickelt, mit dem sie die Vertrauenswürdigkeit an den Kontext der Automation angepasst haben (Körber, 2019). Dementsprechend werden die drei Faktoren der wahrgenommen Vertrauenswürdigkeit anders benannt und erklärt. Im folgenden Kapitel wird dieses Modell ausführlich beschrieben. Dabei ist zu berücksichtigen, dass Vertrauen in KI ebenfalls häufig im Rahmen des Modells von Lee und See (2004) untersucht wird (u. a. Hoffman et al., 2023; Solberg et al., 2022). Entsprechend sind zahlreiche Parallelen zum Abschnitt «Vertrauen in Künstliche Intelligenz» zu erkennen. Aber auch in diesem Fall ist nicht abschliessend geklärt, inwieweit das Konzept auf KI anwendbar ist (Langer et al., 2023). ASPEKTE DES VERTRAUENS IN CHATGPT 25 Vertrauen in Automation. Lee und See (2004) weisen darauf hin, dass Vertrauen als sozialpsychologisches Konzept für das Verständnis der Partnerschaften zwischen Mensch und Automation essenziell ist. So kann das Vertrauen in Automation als die Einstellung definiert werden, dass ein automatisiertes System dazu beitragen wird, Ziele in einer unsicheren und verwundbaren Situation zu erreichen. Dabei werden unter Automation Technologien zusammengefasst, welche (a) aktiv Daten auswählen, (b) Informationen umwandeln, (c) Entscheidungen treffen oder (d) Prozesse steuern (Lee & See, 2004) – also die Automatisierung von Aufgaben, welche zuvor von Menschen ausgeführt wurden (Merritt et al., 2019). Im Einklang hiermit existieren vier Haupttypen von automatisierten Systemen, die jeweils (a) Informationen beschaffen, (b) Informationen analysieren, (c) Entscheidungen selektieren oder (d) Handlungen umsetzen (Parasuraman, Sheridan & Wickens, 2000). Dabei unterscheiden sich diese Systeme nicht nur in ihrer Funktion, sondern auch hinsichtlich der Kontrollmöglichkeiten des bedienenden Menschen (Hoff & Bashir, 2015). Gemäss Gebru et al. (2022) gilt das Vertrauensverhältnis zwischen Mensch und Maschine als einer der entscheidenden Faktoren für eine erfolgreiche Implementierung eines derartigen Systems. So haben zahlreiche Studien gezeigt, dass Vertrauen ein sinnvolles Konzept zur Beschreibung der Human-Machine-Interaction (HMI) ist (Lee & See, 2004). Auch wenn sich dabei das Vertrauen in die Technologien vom zwischenmenschlichen Vertrauen unterscheidet, gibt es Parallelen zwischen beiden Ansätzen (Hoff & Bashir, 2015). Insbesondere ist beobachtbar, dass Menschen sozial auf Technologie reagieren, beispielsweise ähneln die Reaktionen auf Computer jenen auf menschliche Partner (Lee & See, 2004). Zudem handelt es sich beim Vertrauen in beiden Kontexten um situationsspezifische Einstellungen, welche nur in einer von Unsicherheit geprägten Kooperationsbeziehung relevant sind (Hoff & Bashir, 2015). Dabei ist ein weiterer möglicher Grund, dass das Vertrauen der Menschen in technische Systeme auch als Vertrauen in die Entwickler und Entwicklerinnen dieser Systeme verstanden werden kann. Im Kontrast zum zwischenmenschlichen Vertrauen verhält sich das Vertrauen in Automation jedoch nicht symmetrisch, da lediglich der Mensch ein Vertrauen gegenüber der Maschine empfindet – oder nicht – aber nicht umgekehrt (Lee & See, 2004). Dabei tendieren Menschen dazu, sich auf ein System zu verlassen, welchem sie vertrauen, und lehnen jene Systeme ab, denen sie kein Vertrauen entgegenbringen. Folglich hängt gemäss Gebru et al. (2022) das Vertrauen zum einen davon ab, wie stark sich der Mensch aufgrund seiner Bereitschaft und seiner Erfahrung im Kontext der jeweiligen Situation oder Aufgabe auf das ASPEKTE DES VERTRAUENS IN CHATGPT 26 System verlässt. Zum anderen ist es dadurch geprägt, wie gut das System die Aufgabe ausführt bzw. wie effektiv es Informationen darüber vermittelt. Vertrauen in Automation ist also eng mit der Zuverlässigkeit des Systems verbunden (Körber, 2019). Insbesondere die Berechenbarkeit und die Zuverlässigkeit des Systems sind relevante Aspekte, welche das Vertrauen beeinflussen (Hoff & Bashir, 2015). So wird berechenbaren und zuverlässigen Systemen stärker vertraut als denen, die diese Eigenschaften nicht aufweisen. Des Weiteren können emotionale Reaktionen entscheidend für das Vertrauen und die Entscheidung sein, sich auf System zu verlassen (Lee & See, 2004). Hoff und Bashir (2015) ordnen das Vertrauen in Automation in drei Ebenen ein: (a) dispositionelles Vertrauen (Dispositional Trust), (b) situatives Vertrauen (Situational Trust) und (c) erlerntes Vertrauen (Learned Trust). Dabei wird unter dispositionellem Vertrauen die überdauernde Neigung einer Person verstanden, der Automatisierung zu vertrauen. Situatives Vertrauen hingegen bezieht sich auf den spezifischen Kontext einer Interaktion und erlerntes Vertrauen auf vergangene Erfahrungen, die für ein spezifisches System relevant sind (Hoff & Bashir, 2015). Dabei beeinflussen Letztere das situative Vertrauen. Diese Arbeit ist jedoch an der Theorie von Lee und See (2004) orientiert, da die Trennschärfe der Theorie von Hoff und Bashir (2015) als diffus bzw. die Aufteilung auf die genannten drei Ebenen für den geplanten Versuchsaufbau als nicht geeignet erachtet wird. Das Modell von Lee und See (2004) kann als Weiterentwicklung des Modells von Mayer et al. (1995) für die Anwendung in einem Technologiekontext aufgefasst werden (Körber, ASPEKTE DES VERTRAUENS IN CHATGPT 27 2019). Es gliedert die wahrgenommene Vertrauenswürdigkeit in drei Dimension (siehe Abbildung 3), welche im Folgenden genauer beschrieben werden. Abbildung 3. Modell zu Vertrauen in Automation (Körber, 2019) ASPEKTE DES VERTRAUENS IN CHATGPT 28 Vertrauenswürdigkeit von Automation. Automatisierte Systeme, welche effizient und zuverlässig arbeiten, können als vertrauenswürdige angesehen werden (Lee & See, 2004). Dabei kann die Vertrauenswürdigkeit auch unabhängig von der Interaktion durch den vorauseilenden Ruf des Systems geprägt werden (Hoff & Bashir, 2015). Gemäss Lee und See (2004) ist die wahrgenommene Vertrauenswürdigkeit in die drei Dimensionen (a) Performance, (b) Process und (c) Purpose aufgegliedert. Diese drei Faktoren können mit jenen aus dem Modell von Mayer et al. (1995) verglichen werden und entsprechen jenen, die in «Vertrauen in KI» präsentiert wurden. Sie beeinflussen ebenfalls nicht nur das Vertrauen, sondern interagieren auch miteinander (Lee & See, 2004). Körber (2019) folgt dem Modell von Lee und See (2004), unterteilt aber die drei Dimension in detailliertere Facetten, welche ursprünglich als fünf Dimensionen konzipiert wurden: (a) Reliability/Competence, (b) Understandability/Predictability und (c) Intention of Developers. Diese drei Faktoren werden nun im Sinn von Lee und See (2004) genauer beschrieben, um ein Verständnis zu schaffen, das unabhängig von den Adaptionen dieses Modells im Kontext von KI ist. Performance. Performance bezieht sich auf die Handlungen des Systems und umfasst vergangene sowie aktuelle Interaktionen mit diesem (Lee & See, 2004). Dabei beinhaltet dieser Faktor Aspekte wie Zuverlässigkeit, Vorhersagbarkeit sowie Fähigkeit und kann mit Sheridans (1992, zitiert nach Lee & See, 2004, S. 59) Konzept der Robustheit verglichen werden. So basiert das Vertrauen darauf, dass das System die Ziele der nutzenden Person zuverlässig erreicht (Lee & See, 2004). Process. Hingegen umfasst Process die Wahrnehmung, dass die Algorithmen für die Situation angemessen und in der Lage sind, die Ziele der nutzenden Person zu erreichen (Lee & See, 2004). So basiert dieser Faktor nicht auf spezifischen Handlungen, sondern vielmehr auf der Stabilität und der Integrität des Systems. Hier kann wiederum ein Vergleich mit dem Konzept der Verständlichkeit von Sheridan (1992, zitiert nach Lee & See, 2004, S. 59) gezogen werden. So wird eine Person einem System vertrauen, wenn dessen Algorithmen verständlich und fähig sind, die gesetzten Ziele zu erreichen (Lee & See, 2004). Jedoch sind Algorithmen leistungsfähiger Systeme teils komplex und daher kompliziert zu verstehen. Purpose. Abschliessend beschreibt Purpose die Wahrnehmung des Wohlwollens des Trustees gegenüber dem Trustor und das Ausmass, in dem das System im Sinn des Entwicklungszwecks eingesetzt wird (Lee & See, 2004). Im Gegensatz zum Menschen kann zwar der Automation, ebenso wie dem KI-System, keine Intentionalität zugeschrieben werden, jedoch den Entwicklern und Entwicklerinnen. ASPEKTE DES VERTRAUENS IN CHATGPT 29 Neigung zum Vertrauen in Automation. Vertrauen unterscheidet sich von Mensch zu Mensch, abhängig von den jeweiligen Entwicklungserfahrungen, Persönlichkeitsmerkmalen sowie kulturellen Hintergründen (Körber, 2019). So sind manche Menschen stärker geneigt zu vertrauen als andere (Lee & See, 2004). Hoff und Bashir (2015) verstehen unter dispositionellem Vertrauen die relativ stabile Neigung eines Individuums, sich auf die Automation zu verlassen. Demnach unterscheidet sich das Vertrauen unabhängig vom Kontext oder einem bestimmten System aufgrund der Nationalität, der Ethnie, der Religion und des Alters. Dabei können individuelle und kulturelle Unterschiede die Interaktion zwischen Mensch und Automation auf unerwartete Weise beeinflussen (Lee & See, 2004). Vertrauen in Automation ist ebenso wie das zwischenmenschliche Vertrauen kulturell geprägt (Hoff & Bashir, 2015; Lee & See, 2004; Razin & Feigh, 2023). Folglich stellt der kulturelle Hintergrund, insbesondere in Bezug auf Machtdistanz sowie individualistische und kollektivistische Prägungen, einen relevanten Faktor dar (Lee & See, 2004). Zudem können Altersunterschiede sowohl durch Kohorteneffekte als auch anhand altersbedingte kognitive Veränderungen von oder der Kombination dieser beiden Faktoren erklärt werden (Hoff & Bashir, 2015). Menschen unterschiedlichen Alters können bei der Analyse der Vertrauenswürdigkeit abweichende Strategien anwenden. In Bezug auf das Geschlecht und dessen Einfluss auf das Vertrauen in Automation gibt es keine klaren Erkenntnisse; jedoch zeigt sich, dass das Geschlecht bei der Interaktionen mit anderen Technologien eine Rolle spielen kann (Hoff & Bashir, 2015; Razin & Feigh, 2023). Hoff und Bashir (2015) erachten Persönlichkeitsmerkmale des Trustors als weitere Komponente des dispositionellen Vertrauens. Im Kontext der Big-Five- Persönlichkeitsmerkmale bestehen Erkenntnisse, nach denen extrovertierte und emotional stabile Personen eher bereit sind, einem automatisierten System zu vertrauen. Letztlich gehen Hoff und Bashir (2015) davon aus, dass Personen mit einer höheren Neigung zu vertrauen eher dazu tendieren, sich auf zuverlässige Systeme zu verlassen, während ihr Vertrauen nach Systemfehlern möglicherweise stärker abnimmt. Gemäss Hoff und Bashir (2015) spielen Vorerfahrungen, unabhängig von deren spezifischen Auswirkungen, nahezu in allen Fällen eine Rolle bei der HMI. Bestehende Erfahrungen mit einem automatisierten System oder einer ähnlichen Technologie können die Vertrauensbildung erheblich beeinflussen. Lee und See (2004) vertreten die Auffassung, dass Erwartungen an eine bestimmte Situation durch spezifische frühere Erfahrungen mit ähnlichen Situationen bestimmt werden. Hoff und Bashir (2015) unterschieden hier nach ASPEKTE DES VERTRAUENS IN CHATGPT 30 Fachwissen, also dem Verständnis eines bestimmten Fachbereichs, jedoch nicht bezogen auf Automation und Erfahrung mit Automatisierung. So wird das Fachwissen dem situativen Vertrauen zugeschrieben und die Erfahrung mit Automatisierung dem erlernten Vertrauen, da diese beiden Aspekte jeweils unterschiedliche Auswirkungen auf Vertrauen haben. Nutzungsintention bei Automation. Dass Vertrauen einen Einfluss auf die Nutzungsintention hat, ist naheliegend. Lee und See (2004) gehen, ähnlich wie Tschopp und Ruef (2020), im Kontext von KI davon aus, dass ein System, welches nicht vertrauenswürdig ist, mit hoher Wahrscheinlichkeit nicht genutzt wird. Damit sich Vertrauen bilden kann, muss eine Person sich vorab jedoch auf das System verlassen, da dessen Entwicklung auf den Erfahrungen mit dem System und den Beobachtungen von dessen Verhalten beruht (Lee & See, 2004). Diesbezüglich konstatieren Hoff und Bashir (2015), dass bestehende Einstellungen und Erwartungen auf die Vertrauensbildung sowie die nachfolgenden Nutzungsentscheidungen einwirken können. Razin und Feigh (2023) gehen noch einen Schritt weiter und postulieren, dass Vertrauen zwar nicht vollständig die Nutzungsintention aufklärt, jedoch stark mit dieser korreliert, während Letztere als Entscheidung aufgefasst werden kann, einem System zu vertrauen. Dynamisches Vertrauen in Automation. Wie bereits angeführt, ist der Status des Vertrauens als dynamisches Konstrukt umstritten (u. a. Lee & See, 2004; Siegrist, 2021). Manche Menschen tendieren dazu, ihr Vertrauen in ein System erheblich zu verändern, wenn sich dessen Fähigkeiten ändern, bei anderen ist dies wiederum kaum der Fall (Lee & See, 2004). Unter anderem kann dieser Aspekt wiederum abhängig vom Systemtyp variieren und dadurch beeinflusst werden, wie die Handlungen des Systems beobachtbar sind. Folglich hängt die Vertrauensbildung von den verfügbaren Informationen ab, was dahingehend kritisch ist, dass die Nutzung relevant für den Informationsfluss ist und gleichzeitig Vertrauen voraussetzt. Hoff und Bashir (2015) gehen in diesem Zusammenhang davon aus, dass Menschen Maschinen zunächst als perfekt erachten und dementsprechend Purpose das anfängliche Vertrauen dominiert. Diese Perspektive wird auch von Lee und See (2004) sowie Razin und Feigh (2023) vertreten, obgleich sich nach Lee und See (2004) das Vertrauen in Automation nicht nach einem festen Muster entwickelt. Vielmehr hängt das Vertrauen in das System, in Ermangelung von Erfahrung vor und während der ersten Interaktionen, zunächst von Purpose ab. Mit fortschreitender Beziehung, Erfahrung und Beobachtung wächst die Relevanz von Performance sowie Process für die Entwicklung des Vertrauens (Hoff & Bashir, 2015; Lee & See, 2004). ASPEKTE DES VERTRAUENS IN CHATGPT 31 Dies deutet darauf hin, dass die anfängliche Leistung eines Systems eine wesentliche Grundlage für Vertrauen ist und anfängliche Erfahrungen sowie frühere Fehler die Vertrauensbildung nachhaltig beeinflussen können (Hoff & Bashir, 2015; Lee & See, 2004). Dabei beeinflusst die Zuverlässigkeit zu Beginn dauerhaft das Vertrauen, selbst wenn sich diese im Verlauf der Zeit verändert (Lee & See, 2004), was für das Vertrauen als statisches Konstrukt spricht. Gleichzeitig erholt sich Letzteres von einer Abnahme bei akuten Fehlern, wohingegen es sich bei chronischen Fehlern erst mit deren Handhabbarkeit wieder regeneriert (Lee & See, 2004). Demnach führen Fehler dazu, dass das Vertrauen mit der Zeit schwindet und nur langsam wiederhergestellt wird. Gemäss Hoff und Bashir (2015) kann die Vertrauensbildung als dynamischer Prozess verstanden werden, wobei die Konfrontation mit neuen Informationen das Gefühl des Vertrauens drastisch verändern kann. Diese Dynamik ist jedoch auch davon abhängig, wie das Vertrauen gemessen wird bzw. ob es sich um unerfahrene oder erfahrene Nutzer und Nutzerinnen handelt (Razin & Feigh, 2023). Zusammenfassend kann sich das Vertrauen in Automation auf Basis einer direkten Beobachtung des Systemverhaltens (Performance), des Verständnisses über die Algorithmen (Process) oder der beabsichtigten Nutzung des Systems (Purpose) verändern (Lee & See, 2004). Adäquates Vertrauen in Automation. Gemäss Lee und See (2004) ist der Mensch nicht grundsätzlich bereit, der Automatisierung genügend Vertrauen zu schenken. Gleichzeitig kann einem System auch dann vertraut werden, wenn dieses nicht angemessen ist. Wenn dabei das Vertrauen die Systemfähigkeiten übersteigt, wird von Übervertrauen gesprochen, was mit einer missbräuchlichen Nutzung (Misuse) einhergeht. Im umgekehrten Fall ist die Rede von Misstrauen, das wiederum eine Nichtnutzung (Disuse) zur Folge hat. Allgemein hängt adäquates Vertrauen davon ab, wie gut das Vertrauen kalibriert ist, also ob das Vertrauen des Trustors mit der Vertrauenswürdigkeit des Trustees übereinstimmt. Der Begriff der Kalibrierung bezieht sich dabei auf die Übereinstimmung zwischen dem Vertrauen des Menschen in das System und dessen Fähigkeiten (Lee & See, 2004). Analog hierzu beschreiben Merritt et al. (2019) unter dem Terminus Complacency ein selbstgefälliges Verhalten, welches mit der suboptimalen Kontrolle der Automatisierungsleistung einhergeht und dem Vertrauen ähnlich ist. Selbstgefälligkeit tritt meist bei besonders zuverlässigen Systemen auf und ist unabhängig von der Expertise des bedienenden Menschen. Neben der Zuverlässigkeit des Systems haben auch das Vertrauen und die Arbeitsbelastung der bedienenden Person Einfluss auf das selbstgefällige Verhalten, ASPEKTE DES VERTRAUENS IN CHATGPT 32 wobei dieses mit Überwachungsaufgaben interferieren kann. Daraus kann geschlossen werden, dass bei einer Kombination manueller und automatisierter Aufgaben die Selbstgefälligkeit eine Verlagerung der Aufmerksamkeit auf die manuelle Aufgabe beinhaltet (Merritt et al., 2019). Aus diesem Grund ist die Förderung eines adäquaten Vertrauens entscheidend für die Vermeidung von Misuse und Disuse der Automatisierung (Hoff & Bashir, 2015; Lee & See, 2004). Gemäss Gebru et al. (2022) sollte das Vertrauen angemessen kalibriert sein, um eine sichere und effektive HMI zu gewährleisten. Dabei ist diese Kalibrierung eng mit der Robustheit, der Transparenz und der Fairness des automatisierten Systems verbunden. Zudem kann ein adäquates Vertrauen zu einer HMI-Leistung führen, welche jener des Menschen oder der Maschine allein überlegen ist (Lee & See, 2004). Ergänzend führen Hoff und Bashir (2015) an, dass Systeme, die eine genaue Rückmeldung über ihre Zuverlässigkeit oder ihre Funktionsweise geben, ein adäquates Vertrauen begünstigen. Relevanz des Vertrauens in Automation. Vertrauen ist ein relevantes Konzept, um die HMI zu beschreiben, welche die Produktivität und die Akzeptanz automatisierter Systeme sowie anderer Computer-Technologien beeinflusst (Lee & See, 2004). Das Vertrauen in Automation unterscheidet sich zwar vom zwischenmenschlichen Vertrauen, dennoch existieren auch Parallelen (Hoff & Bashir, 2015). Die Vertrauenswürdigkeit automatisierter Systeme ist in die drei Dimension (a) Performance, (b) Process und (c) Purpose gegliedert (Lee & See, 2004). Diese Faktoren entsprechen den unter «Vertrauen in KI» beschriebenen und sind vergleichbar mit jenen von Mayer et al. (1995). Dabei wird Vertrauen eine entscheidende Rolle in Hinblick auf die Nutzungsintention zugeschrieben (Lee & See, 2004). Entsprechend nimmt die Relevanz des Vertrauens aufgrund der wachsenden Verbreitung automatisierter Systeme für den Privatgebrauch zu und dieses kann für den Erfolg der nächsten Generation von Computer-Technologien entscheidend sein (Lee & See, 2004). Dabei kann ChatGPT als ein solches System für den Privatgebrauch betrachtet werden. Infolgedessen ist es für die Entwicklung von KI-Systemen essenziell zu verstehen, wodurch das Vertrauen beeinflusst wird. Aktuell gibt es bereits zahlreiche konzeptuelle Modelle zu Vertrauen in KI, welche auf Vertrauen in Automation beruhen, jedoch selten empirisch untersucht werden, was das Fehlen einer Theorie zu Vertrauen in KI zur Folge hat (Solberg et al., 2022). Vor diesem Hintergrund ist das Ziel dieser Arbeit herauszufinden, welche Faktoren das Vertrauen in ChatGPT beeinflussen. Dazu werden im Folgenden konkrete Fragestellungen hergeleitet. ASPEKTE DES VERTRAUENS IN CHATGPT 33 Fragestellung Auf Grundlage des im vorhergehenden Kapitel «Vertrauen» dargelegten theoretischen Hintergrunds und der genannten Ziele wird in dieser Arbeit der Frage nachgegangen, welche Faktoren im Kontext von ChatGPT einen Einfluss auf das Vertrauen in KI haben. Hierzu wurde das in Abbildung 4 ersichtliche Modell zu Vertrauen in KI (Trust in AI) konzipiert. Es basiert auf Lees und Sees (2004) Theorie zu Vertrauen in Automation und ist beeinflusst durch die Modelle von Solberg et al. (2022, siehe Abbildung 1) sowie Körber (2019, siehe Abbildung 3) – welche wiederum von Vertrauen in Automation abgeleitet sind. Dabei besteht nicht der Anspruch, Vertrauen in KI zu generalisieren, da – für eine angemessene Untersuchung (Tschopp & Ruef, 2018) – mit ChatGPT nur ein konkretes KI-Blackbox- Modell als Forschungsobjekt gewählt wurde. Abbildung 4. Konzeptuelles Modell zu Vertrauen in KI (eigene Abbildung) Im Kontrast zu Körber (2019) wurde im konzeptuellen Modell auf den moderierenden Faktor Familiarity verzichtet. Dieser kann mit dem Faktor Previous Experience nach Solberg et al. (2022) verglichen werden, welcher im Kontext von KI auch als Einflussfaktor für Propensity to Trust betrachtet wird. Dabei erachtet der Verfasser dieser Arbeit Previous Experience als systemunabhängige Variable. Zudem sieht Körber (2019) in diesem Faktor eine Moderatorvariable, welche nicht zwangsläufig gemessen werden muss. Hingegen wurde das konzeptuelle Modell im Sinn von Bedué und Fritzsche (2021) um den Aspekt Intention to Use ergänzt. So ergibt sich aus der Entscheidung zu vertrauen unter ASPEKTE DES VERTRAUENS IN CHATGPT 34 anderem die Nutzungsintention (Razin & Feigh, 2023). Aus dieser Ergänzung resultiert die explorative Unterfrage, welche Faktoren einen Einfluss auf die Nutzungsintention haben. Aufgrund der uneindeutigen Erkenntnisse der bestehenden Forschung wurde eine weitere explorative Unterfrage verfasst. Konkret soll in dieser Arbeit untersucht werden, welche Faktoren einen Einfluss auf die Neigung zu Vertrauen haben. Wie bereits ausführlich erklärt, bezieht sich Letztere auf das kontext- und systemunabhängige Vertrauen (Solberg et al., 2022), wobei unklar erscheint, welche Faktoren prinzipiell – und wenn ja, in welcher Form – einen Einfluss haben. Ergänzend wird in einer Längsschnittuntersuchung einer weiteren explorativen Unterfrage nachgegangen. Diese bezieht sich darauf, ob es nach einer Intervention Veränderungen der Zusammenhänge zwischen den Einflussfaktoren und dem Vertrauen in KI gibt. Denn die Vertrauensbildung wird als ein dynamischer Prozess erachtet, welcher durch die Konfrontation mit Informationen signifikant beeinflusst werden kann (Hoff & Bashir, 2015). Inwiefern Vertrauen aber tatsächlich als dynamisches Konstrukt zu verstehen ist, bleibt jedoch umstritten (Siegrist, 2021). Diese vier Forschungsfragen, zusammen mit der im Kapitel «Vertrauen» aufgeführten Theorie sind Basis der Hypothesenbildung. Dabei ist zu beachten, dass lediglich Hypothesen gebildet wurden, welche zumindest theoretisch untermauert werden können. Auch sind nicht alle theoretischen Erkenntnisse in die Hypothesenbildung eingeflossen. So wurden nur Publikationen berücksichtigt, die zum Zeitpunkt der Hypothesenbildung bereits identifiziert und analysiert worden waren. Die Ableitung dieser Hypothesen folgt nun im Kapitel «Hypothesenbildung». ASPEKTE DES VERTRAUENS IN CHATGPT 35 Hypothesenbildung Wie bereits erwähnt, sind nicht alle theoretischen Erkenntnisse in die Hypothesenbildung eingeflossen. So wurden im Verlauf dieser Arbeit weitere wissenschaftliche Artikel einbezogen, welche zwar den theoretischen Hintergrund der Hypothesen, jedoch nicht die eigentliche Hypothesenbildung beeinflusst haben. Dieses Vorgehen wurde in Abstimmung mit der Betreuungsperson definiert, um die methodische Integrität z