In AI We Trust. Aspekte des Vertrauens in ChatGPT

dc.contributor.authorKarg, Jona
dc.contributor.mentorRitz, Frank
dc.contributor.mentorSterchi, Yanik
dc.contributor.partnerHochschule für Wirtschaft FHNW
dc.date.accessioned2024-10-16T13:23:39Z
dc.date.available2024-10-16T13:23:39Z
dc.date.issued2024-09-05
dc.description.abstractDie Relevanz von Künstlicher Intelligenz (KI) nimmt zu, ebenso wie die diesbezüglichen Sicherheitsbedenken. Dies führt zur Forderung nach einer vertrauenswürdigeren KI, welcher sich Forschende zunehmend annehmen. Es existiert jedoch keine allgemeine Theorie zu Vertrauen in KI; so dient häufig das Modell Trust in Automation von Lee und See (2004) als Forschungsgrundlage, so kann Automation als Basis von KI betrachtet werden. Gleichzeitig wird jedoch in Frage gestellt, ob dieses Modell auf KI übertragen werden kann. Entsprechend wird in dieser Arbeit im Kontext von ChatGPT untersucht, welche Faktoren das Vertrauen in KI beeinflussen und wie sich dies auf die Nutzungsintention auswirkt. Basierend auf Trust in Automation, ergänzt durch die Variable Nutzungsintention, wurde hierzu ein Pfadmodell abgeleitet. Zudem wurden Einflussfaktoren der Neigung zum Vertrauen sowie die zeitliche Veränderung des Zusammenhangs des Vertrauens im Kontext einer Intervention untersucht. Die Datenerhebung erfolgte anhand validierter Fragebögen. Im Rahmen der Datenanalyse wurden die Daten von insgesamt 105 Studierenden berücksichtigt, während für die ergänzende Längsschnittanalyse 10 Datensätze herangezogen wurden. Die Resultate bestätigen das konzeptuelle Pfadmodell nicht, was eine Respezifikation erforderlich machte. Dies hat dazu geführt, dass zusätzliche Pfade von der Neigung zum Vertrauen zu den drei Faktoren der Vertrauenswürdigkeit identifiziert wurden. Das Modell zeigt mit einer Ausnahme die erwarteten positiven Einflüsse. Dabei ist der Einfluss des Vertrauens auf die Nutzungsintention geringer als erwartet. Die Längsschnittanalyse hat keinerlei Veränderungen zwischen den beiden Messzeitpunkten offenbart. Die Ergebnisse unterstützen grösstenteils die Erwartungen, stellen jedoch auch bisherige Annahmen in Frage. So wird Vertrauen möglicherweise eine grössere Rolle zugeschrieben als tatsächlich vorliegt.
dc.identifier.urihttps://irf.fhnw.ch/handle/11654/47513
dc.identifier.urihttps://doi.org/10.26041/fhnw-10398
dc.language.isode
dc.publisherHochschule für Angewandte Psychologie FHNW
dc.rights.urihttp://rightsstatements.org/vocab/InC/1.0/
dc.spatialOlten
dc.subjectKünstliche Intelligenz
dc.subjectVertrauen
dc.subjectChatGPT
dc.subjectExplainable AI
dc.subjectAI Safety
dc.subject.ddc003 - Systeme
dc.subject.ddc150 - Psychologie
dc.titleIn AI We Trust. Aspekte des Vertrauens in ChatGPT
dc.type11 - Studentische Arbeit
dspace.entity.typePublication
fhnw.InventedHereYes
fhnw.StudentsWorkTypeMaster
fhnw.affiliation.hochschuleHochschule für Angewandte Psychologie FHNWde_CH
fhnw.affiliation.institutZentrum für Ausbildungde_CH
fhnw.studyProgramMaster of Science FHNW in Angewandter Psychologie
relation.isAuthorOfPublicationc58b1309-0378-46c9-94f4-8ac1af865b5d
relation.isAuthorOfPublication.latestForDiscoveryc58b1309-0378-46c9-94f4-8ac1af865b5d
relation.isMentorOfPublicatione1ea025a-f9d7-460f-b441-9f46d9f4ce83
relation.isMentorOfPublicationb18dc34e-1b54-4c13-8786-68459a75da20
relation.isMentorOfPublication.latestForDiscoverye1ea025a-f9d7-460f-b441-9f46d9f4ce83
Dateien

Originalbündel

Gerade angezeigt 1 - 1 von 1
Vorschaubild
Name:
Masterarbeit2024_KargJona.pdf
Größe:
3.56 MB
Format:
Adobe Portable Document Format

Lizenzbündel

Gerade angezeigt 1 - 1 von 1
Kein Vorschaubild vorhanden
Name:
license.txt
Größe:
2.66 KB
Format:
Item-specific license agreed upon to submission
Beschreibung: