In AI We Trust. Aspekte des Vertrauens in ChatGPT
dc.contributor.author | Karg, Jona | |
dc.contributor.mentor | Ritz, Frank | |
dc.contributor.mentor | Sterchi, Yanik | |
dc.contributor.partner | Hochschule für Wirtschaft FHNW | |
dc.date.accessioned | 2024-10-16T13:23:39Z | |
dc.date.available | 2024-10-16T13:23:39Z | |
dc.date.issued | 2024-09-05 | |
dc.description.abstract | Die Relevanz von Künstlicher Intelligenz (KI) nimmt zu, ebenso wie die diesbezüglichen Sicherheitsbedenken. Dies führt zur Forderung nach einer vertrauenswürdigeren KI, welcher sich Forschende zunehmend annehmen. Es existiert jedoch keine allgemeine Theorie zu Vertrauen in KI; so dient häufig das Modell Trust in Automation von Lee und See (2004) als Forschungsgrundlage, so kann Automation als Basis von KI betrachtet werden. Gleichzeitig wird jedoch in Frage gestellt, ob dieses Modell auf KI übertragen werden kann. Entsprechend wird in dieser Arbeit im Kontext von ChatGPT untersucht, welche Faktoren das Vertrauen in KI beeinflussen und wie sich dies auf die Nutzungsintention auswirkt. Basierend auf Trust in Automation, ergänzt durch die Variable Nutzungsintention, wurde hierzu ein Pfadmodell abgeleitet. Zudem wurden Einflussfaktoren der Neigung zum Vertrauen sowie die zeitliche Veränderung des Zusammenhangs des Vertrauens im Kontext einer Intervention untersucht. Die Datenerhebung erfolgte anhand validierter Fragebögen. Im Rahmen der Datenanalyse wurden die Daten von insgesamt 105 Studierenden berücksichtigt, während für die ergänzende Längsschnittanalyse 10 Datensätze herangezogen wurden. Die Resultate bestätigen das konzeptuelle Pfadmodell nicht, was eine Respezifikation erforderlich machte. Dies hat dazu geführt, dass zusätzliche Pfade von der Neigung zum Vertrauen zu den drei Faktoren der Vertrauenswürdigkeit identifiziert wurden. Das Modell zeigt mit einer Ausnahme die erwarteten positiven Einflüsse. Dabei ist der Einfluss des Vertrauens auf die Nutzungsintention geringer als erwartet. Die Längsschnittanalyse hat keinerlei Veränderungen zwischen den beiden Messzeitpunkten offenbart. Die Ergebnisse unterstützen grösstenteils die Erwartungen, stellen jedoch auch bisherige Annahmen in Frage. So wird Vertrauen möglicherweise eine grössere Rolle zugeschrieben als tatsächlich vorliegt. | |
dc.identifier.uri | https://irf.fhnw.ch/handle/11654/47513 | |
dc.identifier.uri | https://doi.org/10.26041/fhnw-10398 | |
dc.language.iso | de | |
dc.publisher | Hochschule für Angewandte Psychologie FHNW | |
dc.rights.uri | http://rightsstatements.org/vocab/InC/1.0/ | |
dc.spatial | Olten | |
dc.subject | Künstliche Intelligenz | |
dc.subject | Vertrauen | |
dc.subject | ChatGPT | |
dc.subject | Explainable AI | |
dc.subject | AI Safety | |
dc.subject.ddc | 003 - Systeme | |
dc.subject.ddc | 150 - Psychologie | |
dc.title | In AI We Trust. Aspekte des Vertrauens in ChatGPT | |
dc.type | 11 - Studentische Arbeit | |
dspace.entity.type | Publication | |
fhnw.InventedHere | Yes | |
fhnw.StudentsWorkType | Master | |
fhnw.affiliation.hochschule | Hochschule für Angewandte Psychologie | de_CH |
fhnw.affiliation.institut | Zentrum für Ausbildung | de_CH |
fhnw.studyProgram | Master of Science FHNW in Angewandter Psychologie | |
relation.isAuthorOfPublication | c58b1309-0378-46c9-94f4-8ac1af865b5d | |
relation.isAuthorOfPublication.latestForDiscovery | c58b1309-0378-46c9-94f4-8ac1af865b5d | |
relation.isMentorOfPublication | e1ea025a-f9d7-460f-b441-9f46d9f4ce83 | |
relation.isMentorOfPublication | b18dc34e-1b54-4c13-8786-68459a75da20 | |
relation.isMentorOfPublication.latestForDiscovery | e1ea025a-f9d7-460f-b441-9f46d9f4ce83 |
Dateien
Originalbündel
1 - 1 von 1
Lade...
- Name:
- Masterarbeit2024_KargJona.pdf
- Größe:
- 3.56 MB
- Format:
- Adobe Portable Document Format
- Beschreibung:
Lizenzbündel
1 - 1 von 1
Lade...
- Name:
- license.txt
- Größe:
- 2.66 KB
- Format:
- Item-specific license agreed upon to submission
- Beschreibung: