Listen
2 Ergebnisse
Ergebnisse nach Hochschule und Institut
Publikation Bedingungen und Massnahmen für eine erfolgreiche Interaktion mit Large Language Models(Hochschule für Angewandte Psychologie FHNW, 2024) Christe, Mathilde; Theiler, Sven; Institut Mensch in komplexen Systemen, Hochschule für Angewandte Psychologie FHNWDiese Bachelorarbeit untersucht, ob eine Instruktion die Fähigkeiten und das Nutzungsverhalten der Studierenden im Umgang mit ChatGPT verbessern kann. Zudem wird der Zusammenhang zwischen dem Umgang mit ChatGPT und der Selbstwirksamkeit erforscht. Im Rahmen dieser Studie wurden Studierende mittels Fragebogen gebeten, ihre Selbstwirksamkeit sowie ihre Nutzungsabsicht einzuschätzen und anschliessend 15 ChatGPT-Aufgaben zu beurteilen. Die Konstrukte Selbstwirksamkeit sowie die Nutzungsabsicht der Studierenden wurden mit wissenschaftlich validierten Items erfasst. Mittels t-Test und Spearman-Korrelation wurden die formulierten Hypothesen überprüft. Die Stichprobe (N=69) umfasst Studierende aus diversen Hochschulen sowie unterschiedlichen Alters und Geschlechts. Eine Instruktion beeinflusst den Umgang mit ChatGPT sowie das Nutzungsverhalten der Studierenden nicht signifikant. Zudem wurde festgestellt, dass eine höhere Selbstwirksamkeit keinen signifikanten Zusammenhang mit dem Umgang mit ChatGPT hat. Anhand der Analyse der Daten konnten Handlungsempfehlungen abgeleitet werden, um die Implementierung von Large Language Models (LLM`s) an Hochschulen zu unterstützen. Die daraus resultierenden Handlungsempfehlungen umfassen das Anbieten von Schulungen, um Studierende im Umgang mit LLM`s wie ChatGPT zu bilden, einschliesslich ethischer Aspekte und Datenschutzfragen. Darüber hinaus sollten klare Richtlinien für die Nutzung von KI-Technologien erstellt werden, um Transparenz zu gewährleisten und Studierende im kritischen Umgang mit KI-generierten Texten zu schulen.11 - Studentische ArbeitPublikation In AI We Trust. Aspekte des Vertrauens in ChatGPT(Hochschule für Angewandte Psychologie FHNW, 05.09.2024) Karg, Jona; Ritz, Frank; Sterchi, Yanik; Hochschule für Wirtschaft FHNWDie Relevanz von Künstlicher Intelligenz (KI) nimmt zu, ebenso wie die diesbezüglichen Sicherheitsbedenken. Dies führt zur Forderung nach einer vertrauenswürdigeren KI, welcher sich Forschende zunehmend annehmen. Es existiert jedoch keine allgemeine Theorie zu Vertrauen in KI; so dient häufig das Modell Trust in Automation von Lee und See (2004) als Forschungsgrundlage, so kann Automation als Basis von KI betrachtet werden. Gleichzeitig wird jedoch in Frage gestellt, ob dieses Modell auf KI übertragen werden kann. Entsprechend wird in dieser Arbeit im Kontext von ChatGPT untersucht, welche Faktoren das Vertrauen in KI beeinflussen und wie sich dies auf die Nutzungsintention auswirkt. Basierend auf Trust in Automation, ergänzt durch die Variable Nutzungsintention, wurde hierzu ein Pfadmodell abgeleitet. Zudem wurden Einflussfaktoren der Neigung zum Vertrauen sowie die zeitliche Veränderung des Zusammenhangs des Vertrauens im Kontext einer Intervention untersucht. Die Datenerhebung erfolgte anhand validierter Fragebögen. Im Rahmen der Datenanalyse wurden die Daten von insgesamt 105 Studierenden berücksichtigt, während für die ergänzende Längsschnittanalyse 10 Datensätze herangezogen wurden. Die Resultate bestätigen das konzeptuelle Pfadmodell nicht, was eine Respezifikation erforderlich machte. Dies hat dazu geführt, dass zusätzliche Pfade von der Neigung zum Vertrauen zu den drei Faktoren der Vertrauenswürdigkeit identifiziert wurden. Das Modell zeigt mit einer Ausnahme die erwarteten positiven Einflüsse. Dabei ist der Einfluss des Vertrauens auf die Nutzungsintention geringer als erwartet. Die Längsschnittanalyse hat keinerlei Veränderungen zwischen den beiden Messzeitpunkten offenbart. Die Ergebnisse unterstützen grösstenteils die Erwartungen, stellen jedoch auch bisherige Annahmen in Frage. So wird Vertrauen möglicherweise eine grössere Rolle zugeschrieben als tatsächlich vorliegt.11 - Studentische Arbeit