Bachelor Thesis 2018 Technologie Akzeptanz von eLearning-Systemen in der Hochschullehre Eine Untersuchung bei Studierenden in einem Grundlagenmodul der Psychologie an der Hochschule für Angewandte Psychologie FHNW Autor Patrick Schnider Begleitperson Prof. Dr. Gerhard Guttropf Praxispartner Prof. Dr. Adrian Schwaninger Hochschule für Angwandte Psychologie FHNW Erklärung II Erklärung Der Autor dieser Arbeit bestätigt, dass die vorliegende Arbeit eigenständig und ohne fremde Hilfe erarbeitet und verfasst wurde. Verwendete Materialien sind ordnungsgemäss dokumentiert. St. Gallen, 12. Juni 2018 Patrick Schnider Zusammenfassung III Zusammenfassung Durch die vorliegende Arbeit wurde untersucht, wie die eLearning-Systeme Augmented Reality Sys-tem, Classroom Response System, E-Lecture System, Virtual Reality System und Webinar System in ausgewählten Determinanten des Technology Acceptance Model 3 bewertet werden. Durch vier Hypothesen wurde bei 99 Studierenden überprüft, ob sich die eLearning-Systeme bezüglich den Determinanten Behavioral Intention, Perceived Ease of Use, Perceived Usefulness und Subjective Norm signifikant unterscheiden. Dazu wurden den Studierenden Video Use Cases der eLearning-Systeme präsentiert. Nachfolgend wurden die eLearning-Systeme von den Studierenden bewertet. Durch die Datenauswertung wurde festgestellt, dass sich alle eLearning-Systeme nur bezüglich Per-ceived Usefulness signifikant unterscheiden. Zudem wurde festgestellt, dass das E-Lecture System in allen Determinanten am besten beurteilt wurde, vor dem Classroom Response System (Rang zwei), Webinar System (Rang drei), Augmented Reality System (Rang vier) und Virtual Reality Sys-tem (Rang fünf). Die Unterschiede zwischen den eLearning-Systemen waren jedoch nicht immer signifikant. Dieser Bericht umfasst 122’516 Zeichen (inkl. Leerzeichen, ohne Anhang). Schlüsselwörter Technology Acceptance Model 3, eLearning, eLearning-Systeme, Hochschullehre, Use Cases, Aug-mented Reality System, Classroom Response System, E-Lecture System, Webinar System, Virtual Reality System Abkürzungsverzeichnis IV Abkürzungsverzeichnis Abkürzung Bedeutung A Attitude toward Using App Applikation APS Hochschule für Angewandte Psychologie FHNW AR Augmented Reality ARS Augmented Reality System AV abhängige Variable bzw. beziehungsweise BI Behavioral Intention CRS Classroom Response System df Anzahl der Freiheitsgrade d. h. das heisst ELS E-Lecture System etc. et cetera ε Epsilon f Effektstärke FHNW Fachhochschule Nordwestschweiz HMD Head Mounted Display IT Informationstechnologie LMS Learning Management System MC Multiple-Choice M Mittelwert N Grundgesamtheit η2 Eta-Quadrat PEOU Perceived Ease Of Use PU Perceived Usefulness s. siehe SC Single-Choice SD Standardabweichung SN Subjective Norm z. B. zum Beispiel TAM Technology Acceptance Model TAM 2 Technology Acceptance Model 2 TAM 3 Technology Acceptance Model 3 UV unabhängige Variable vgl. vergleiche VR Virtual Reality VRS Virtual Reality System WBF Departement für Wirtschaft, Bildung und Forschung WBS Webinar System ZfA Zentrum für Ausbildung Inhaltsverzeichnis V Inhaltsverzeichnis 1 Einleitung ............................................................................................................................... 1 1.1 Zielsetzung ....................................................................................................................... 2 1.2 Fragestellung .................................................................................................................... 3 1.3 Hypothesen ...................................................................................................................... 3 1.4 Aufbau der Arbeit .............................................................................................................. 4 1.5 Abgrenzung ...................................................................................................................... 4 2 Theoretischer Hintergrund .................................................................................................... 5 2.1 eLearning.......................................................................................................................... 5 2.2 eLearning in der Hochschullehre ...................................................................................... 6 2.3 eLearning-Systeme ........................................................................................................... 6 2.3.1 Augmented Reality System [ARS] ............................................................................. 7 2.3.2 Classroom Response System [CRS] ....................................................................... 10 2.3.3 E-Lecture System [ELS]........................................................................................... 12 2.3.4 Virtual Reality System [VRS] ................................................................................... 14 2.3.5 Webinar System [WBS] ........................................................................................... 17 2.4 Technology Acceptance Model [TAM] ............................................................................. 21 2.5 Technology Acceptance Model 2 [TAM 2] ....................................................................... 23 2.6 Technology Acceptance Model 3 [TAM 3] ....................................................................... 24 3 Methodik ............................................................................................................................... 26 3.1 Planung der empirischen Studie ..................................................................................... 26 3.1.1 Inhaltliche Planung der Studie ................................................................................. 27 3.1.2 Methodische Planung der Studie ............................................................................. 28 3.2 Vorbereitung der empirischen Untersuchung .................................................................. 30 3.2.1 Entwicklung der Video Use Cases ........................................................................... 30 3.2.2 Entwicklung des Fragebogens ................................................................................. 36 3.3 Durchführung der empirischen Untersuchung ................................................................. 39 3.3.1 Datenerhebung ........................................................................................................ 39 3.3.2 Datenauswertung..................................................................................................... 40 Inhaltsverzeichnis VI 4 Ergebnisse ........................................................................................................................... 42 5 Diskussion ........................................................................................................................... 45 5.1 Interpretation der Ergebnisse .......................................................................................... 45 5.2 Fazit ................................................................................................................................ 48 5.3 Kritische Würdigung ........................................................................................................ 49 5.4 Ausblick .......................................................................................................................... 50 Literaturverzeichnis .................................................................................................................... 51 Abbildungsverzeichnis ............................................................................................................... 58 Tabellenverzeichnis .................................................................................................................... 59 Anhang ........................................................................................................................................ 60 Einleitung 1 1 Einleitung Seit mehr als zwanzig Jahren herrscht ein beschleunigter gesellschaftlicher Wandel, der global, na-tional und individuell unser Leben verändert (Wittpahl, 2017, S. 5). Ausgelöst wird dieser Wandel durch die Digitalisierung1 (Wittpahl, 2017, S. 5). Gemäss dem Departement für Wirtschaft, Bildung und Forschung [WBF] (2017, S. 96) hat die Digitalisierung auch Einzug in Schweizer Hochschulen gehalten. Es wird angenommen, dass die neuen technologischen Möglichkeiten das Lehren und Lernen in Hochschulen in Zukunft stark verändern werden (WBF, 2017, S. 96). Die Digitalisierung in Hochschulen ist kein neues Phänomen. Bereits seit Jahrzehnten wird eLearn-ing2 für das Lernen und Lehren an Hochschulen eingesetzt und weiterentwickelt (Revermann, 2006, S. 5). Auch die Hochschule für Angewandte Psychologie FHNW [APS] verfügt über ein eLearning Angebot (vgl. Fachhochschule Nordwestschweiz FHNW, 2018). Dieses Angebot erstreckt sich von einem Learning Management System3 [LMS] über E-Assessments4, MOOCs5 bis zu eLearning-Sys-temen6 wie z. B. dem E-Lecture System7 [ELS]. Die APS hat bis zum Jahr 2025 die Vision, zu den Pionieren der Fachhochschule Nordwestschweiz [FHNW] bei der Gestaltung des digitalen Wandels in der Lehre (Aus- und Weiterbildung) zu gehören. Dafür hat das Zentrum für Ausbildung [ZFA] ein Projekt in Auftrag gegeben, das die Hochschullehre zunehmend digitalisiert. In einem ersten Schritt wird dabei die Digitalisierung der Ausbildung in einem Grundlagenmodul der Psychologie vorange-trieben. Der Dozent8 dieses Moduls möchte in diesem Zusammenhang weitere9 eLearning-Systeme in die Lehre seines Moduls integrieren. Hierbei kann sich der Praxispartner vorstellen, dass nebst 1 Wenn analoge Leistungserbringung durch Leistungserbringung in einem digitalen, computerhabbaren Modell ganz oder teilweise er-setzt wird, spricht man von Digitalisierung (Wolf & Strohschen, 2018, S. 58). 2 eLearning ist eine Lehr-/Lernform, die durch Informationstechnologie unterstützt wird (Revermann, 2006, S. 26). 3 Learning Management Systeme sind webbasierte Systeme, welche Lehr- und Lernprozesse durch das Verwalten von Lernmaterialien und Nutzerdaten unterstützen (E-teaching.org Redaktion, 2018). 4 E-Assessments sind Prüfungen, welche über Informationstechnologien gehalten werden (Stödberg, 2012, S. 591). 5 MOOCs oder auch Massive Open Online Courses sind Online-Kurse für grosse Teilnehmerzahlen, die für jedermann offen und kos-tenlos zugänglich sind (Jansen & Schuwer, 2015, S. 3-4). 6 Ein eLearning-System ist ein fürs Lernen/Lehren entwickeltes System, dass ein didaktisches Vorhaben durch Informationstechnologie ermöglicht (vgl. Kapitel 2.3). 7 Ein ELS ist ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch die Technologie E-Lectures ermöglicht (vgl. Kapitel 2.3.3). 8 Der Dozent dieses Moduls ist der Praxispartner der vorliegenden Arbeit. 9 Aktuell wird im Grundlagenmodul der Psychologie nur das eLearning-System ELS eingesetzt. Einleitung 2 dem ELS auch ein Augmented Reality System10 [ARS], Classroom Response System11 [CRS], Vir-tual Reality System12 [VRS] oder Webinar System13 [WBS] eingesetzt wird. Welche der ebenge-nannten eLearning-Systeme in Zukunft konkret eingesetzt werden, ist noch offen. 1.1 Zielsetzung Die Bachelorarbeit hat das Ziel den Praxispartner bei der Auswahl von eLearning-Systemen zu un-terstützen. Dafür sollen die eLearning-Systeme ARS, CRS, ELS, VRS und WBS nach exakt densel-ben Kriterien bewertet und vergleichbar gemacht werden. Für die vorliegende Arbeit sollen die eLearning-Systeme durch Determinanten14 des Technology Acceptance Model 3 [TAM 3] nach Venkatesh und Bala (2008) bewertet werden. Dies ist damit zu begründen, weil Akzeptanz einen wesentlichen Einfluss darauf hat, ob Studierende mit eLearning-Systemen lernen (Kreidl, 2011, S. 10). Zudem wird das TAM 3 bereits erfolgreich dafür eingesetzt, um das Management von Unter-nehmen bei der Auswahl von Informationssystemen zu unterstützen (Venkatesh & Bala, 2008, S. 273). Die Technologie Akzeptanz von den eLearning-Systemen ARS, CRS, ELS, VRS und WBS soll bei N = 133 Studierenden des Grundlagenmoduls der Psychologie erhoben werden (s. Anhang A). Hier-für soll Behavioral Intention [BI] operationalisiert15 werden, weil dies ein Determinant von Use Beha-vior16 ist (Venkatesh & Davis, 2000, S. 195). Zudem sollen Perceived Ease of Use [PEOU] und Perceived Usefulness [PU] operationalisiert werden, weil dies Determinanten von Behavioral Inten-tion [BI] sind (Venkatesh & Bala, 2008, S. 275). Subjective Norm [SN] soll zudem operationalisiert werden, weil dies ein Determinant von Perceived Usefulness [PU] ist (Venkatesh & Bala, 2008, S. 275). Die Ergebnisse der Ermittlung der Technologie Akzeptanz von eLearning-Systemen sollen nach deren Häufigkeiten in den Mittelwerten [M] geordnet werden. Hierbei soll bei jedem Determi-nant eine Rangliste erstellt werden, in welcher das eLearning-System mit dem grössten Mittelwert den Rang eins belegt. Das eLearning-System mit dem zweitgrössten Mittelwert belegt den Rang 10 Ein ARS ist ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch die Technologie Augmented Reality ermöglicht (vgl. Kapitel 2.3.1). 11 CRS sind elektronische Abstimmungssysteme, welche in Präsenzveranstaltungen verwendet werden (Kundisch et al., 2013, S. 391). 12 Ein VRS ist ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch die Technologie Virtual Reality ermöglicht (vgl. Kapitel 2.3.4). 13 Ein WBS ist ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch Webinar Technologien er-möglicht (vgl. 2.3.5). 14 Determinanten sind in der Psychologie Faktoren, welche ein Geschehen bestimmen (Dorsch, Wirtz & Strohmer, 2017, S. 369). 15 Operationalisierung meint das Messen einer Zielgrösse (Bortz & Lienert, 2008, S. 25). 16 Technologie Akzeptanz wird im TAM 3 durch Use Behavior bestimmt (Venkatesh & Bala, 2008, S. 275). Einleitung 3 zwei, etc. Zudem sollen alle Bewertungen der eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den Determinanten Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Useful-ness [PU] und Subjective Norm [SN] auf signifikante17 Unterschiede überprüft werden (vgl. Kapitel 1.3). Damit soll ausgeschlossen werden, dass die unterschiedlichen Bewertungen zufällig entstan-den sind (vgl. Zöfel, 2011, S. 90). 1.2 Fragestellung Auf Basis der Einleitung (Kapitel 1) und Zielsetzung (Kapitel 1.1) lässt sich für die vorliegende Arbeit folgende Fragestellung ableiten: «Wie werden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den TAM 3 Determinanten BI, PEOU, PU und SN von Studierenden bewertet?» 1.3 Hypothesen Auf Grundlage der Literatur und der Fragestellung (Kapitel 1.2) sollen in der vorliegenden Arbeit Hypothesen gebildet und überprüft werden. Im Technology Acceptance Model [TAM] hat die Gestalt eines Systems einen Einfluss darauf, ob Personen eine Motivation entwickeln, ein System zu nutzen (Davis, 1985, S. 10). Dementsprechend kann angenommen werden, dass unterschiedliche eLearn-ing-Systeme von der gleichen Gruppe von Studierenden unterschiedlich in Bezug auf Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] bewertet werden. Um zu überprüfen, ob die eLearning-Systeme sich signifikant bezüglich der ebengenannten TAM 3 Determinanten unterscheiden, sollen die Hypothesen H1, H2, H3 und H4 überprüft werden (s. Tabelle 1). Tabelle 1: Aufzählung der Hypothesen H1, H2, H3 und H4 H1 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Behavioral Intention [BI]. H2 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Ease of Use [PEOU]. H3 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Usefulness [PU]. H4 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Subjective Norm [SN]. 17 Das Signifikanzniveau für diese Arbeit wird auf 5% festgelegt. Ein signifikantes Ergebnis liegt dann vor, wenn der F-Test oder Post-hoc-Test eine Irrtumswahrscheinlichkeit von 5% oder weniger ermittelt (p ≤ .05) (Zöfel, 2011, S. 5). Einleitung 4 1.4 Aufbau der Arbeit Die vorliegende Arbeit gliedert sich in fünf Kapitel. In Kapitel 1 wird in das Thema eingeleitet und die Zielsetzung der Arbeit festgelegt. Zudem werden auch die Fragestellung, Hypothesen, der Aufbau der Arbeit und eine Abgrenzung aufgeführt. Das Kapitel 2 stellt den theoretischen Hintergrund der Arbeit dar. Hierbei werden für die Bachelorarbeit relevante Begriffe wie eLearning, eLearning-Sys-teme, ARS, CRS, ELS, VRS und WBS umschrieben und definiert. Zudem wird eLearning in die Hochschullehre verortet. Auch werden im Kapitel 2 die Technologie Akzeptanz Modelle TAM, TAM 2 und TAM 3 erläutert. Im Kapitel 3 wird die gewählte Methodik der Bachelorarbeit beschrieben. Das Kapitel 4 stellt die Ergebnisse der empirischen Untersuchung dar. In Kapitel 5 werden die Ergebnisse interpretiert. Zudem erfolgen ein Fazit, eine kritische Würdigung sowie ein Ausblick. 1.5 Abgrenzung Wie in den Kapiteln 1.1 und 1.2 dargestellt sollen die eLearning-Systeme anhand ausgewählten TAM 3 Determinanten bewertet und verglichen werden. Das TAM 3 wurde anstelle anderer Modelle der Nutzerakzeptanzforschung18 ausgewählt, weil das TAM im eLearning am häufigsten eingesetzt wird (Šumak, Heričko & Pušnik, 2011, S. 2067). Zudem wurde das TAM 3 anstelle des TAM nach Davis (1985) oder des TAM 2 nach Venkatesh und Davis (2000) verwendet, weil es das neuste Technologie Akzeptanz Modell ist und alle Determinanten des TAM und TAM 2 beinhaltet. Innerhalb des TAM 3 können die Determinanten auf Perceived Ease of Use [PEOU] abgegrenzt werden (Venkatesh & Bala, 2008, S. 279-280). Namentlich sind das Self-Efficacy, Perceptions of External Control, Computer Anxiety, Computer Playfulness, Perceived Enjoyment und Objective Us-ability. Auch wird auf die meisten Determinanten auf Perceived Usefulness [PU] verzichtet. Das sind Image, Job Relevance, Output Quality und Result Demonstrability. Nicht berücksichtigt werden zu-dem Experience und Voluntariness. 18 Die Modelle der Nutzerakzeptanzforschung heissen Theory of Reasoned Action, Technology Acceptance Model, Motivational Model, Theory of Planned Behavior, Model of PC Utilization, Innovation Diffusion Theory, Social Cognitive Theory (Venkatesh, Morris, Davis & Davis, 2003, S. 428-432). Theoretischer Hintergrund 5 2 Theoretischer Hintergrund In diesem Kapitel soll der theoretische Hintergrund des vorliegenden Berichts geklärt werden. Dazu wird im Kapitel 2.1 der Begriff eLearning definiert und umschrieben. Auch wird der Begriff eLearning in der Hochschullehre verortet (s. Kapitel 2.2). Im Kapitel 2.3 wird der Begriff des eLearning-Systems hergeleitet und definiert. Der theoretische Hintergrund des TAM 3 wird in den Kapiteln 2.4, 2.5 und 2.6 dargestellt. 2.1 eLearning Der Begriff eLearning steht seit der Einführung in den neunziger Jahren für kein eindeutiges Phäno-men und lässt sich keiner akademischen Disziplin alleine zuordnen (Neuhaus, 2009, S. 2; Niegemann et al., 2008, S. 15; Schulmeister, 2006, S. 192). Im Verständnis der vorliegenden Arbeit ist in Anlehnung an Revermann (2006, S. 26) eLearning eine Lehr-/Lernform, die durch Informationstechnologie unterstützt wird. Nach Schulmeister (2006, S. 206-208) können Mehrwerte von eLearning in der Überwindungen bestehender Schranken gesehen werden. Einerseits wird die Zeitschranke überwunden, indem Lernende und auch Lehrende unabhängig der Uhrzeit lernen können. Zweitens kann die Raumschranke überwunden werden, in dem überall auf Lernobjekte zugegriffen werden kann. Weiter kann mit eLearning die Analog-Digital-Schranke überwunden werden, bei der z. B. analoge Medien (z. B. ein Buch) auch digital (z. B. ein E-Book19) verwendet werden können. Im weiteren kann die Normenschranke überwunden werden, in dem z. B. auch von Armut betroffene Menschen Lernchancen (z. B. durch MOOCs) erhalten. eLearning wird im Ausbildungs- und Weiterbildungsbereich von Hochschulen, Universitäten und Unternehmen eingesetzt (Revermann, 2006, S. 39-60). Nach Prognosen von Bildungsspiegel (2017) wird der eLearning Markt bis zum Jahre 2025 um 7.2% auf 325 Millionen US-Dollar wachsen. 19 Ein E-Book ist eine elektronische Version eines gedruckten Buchs, das mit einem Computer oder einem speziellen dafür entwickelten Gerät gelesen werden kann (Oxford University Press, 2018a). Theoretischer Hintergrund 6 2.2 eLearning in der Hochschullehre eLearning Angebote von Hochschulen richten sich häufig an Lehrende oder Studierende im Bachelor-20 oder Masterstudium21 (Revermann, 2006, S. 44-46). Bei den meisten eLearning Angeboten werden Lehr-/Lerneinheiten für das Präsenzstudium entwickelt. Somit tritt eLearning in der Hochschullehre meistens als Teil von Blended Learning22 auf. In Abbildung 1 wird verdeutlicht, dass eLearning in dieser Arbeit als Teil von Blended Learning verstanden wird. eLearning wird durch eLearning-Systeme23 ermöglicht (vgl. Kapitel 2.3). In der vorliegenden Arbeit werden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS aufgeführt (Kapitel 2.3.1, 2.3.2, 2.3.3, 2.3.4, 2.3.5). 2.3 eLearning-Systeme Der Einsatz von eLearning in die Hochschullehre soll gut durchdacht und differenziert sein. Entschei-dungshilfen für den eLearning Einsatz berücksichtigen didaktische-24 und technologische Elemente (Gröhbiel & Schiefner, 2006, S. 4). Nichts desto trotz herrscht in der Forschung eine sehr technolo-gische Interpretation von eLearning (Neuhaus, 2009, S. 3). Z. B. wird von Martínez-Torres et al. 20 Die erste Studienstufe von Fachhochschulen in der Schweiz wird als Bachelorstudium bezeichnet (Schweizerischer Hochschulrat, 2015, S. 1). 21 Die zweite Studienstufe von Fachhochschulen in der Schweiz wird als Masterstudium bezeichnet (Schweizerischer Hochschulrat, 2015, S. 1). 22 Nach Bortz und Döring (2006) ist Blended Learning ein «integriertes Lernkonzept, das die heute verfügbaren Möglichkeiten der Ver-netzung über Internet oder Intranet in Verbindung mit klassischen Lernmethoden und -medien in einem sinnvollen Lernarrangement optimal nutzt» (S. 68). 23 Ein eLearning-System ist ein fürs Lernen/Lehren entwickeltes System, dass ein didaktisches Vorhaben durch Technologie ermöglicht (vgl. Kapitel 2.3). 24 Didaktik ist nach (Klafki, 1970) die «Theorie der zielorientierten Lehr- und Lerninhalte bzw. der Bildungsinhalte» (S. 70). Abbildung 1: Verortung von eLearning in der Hochschullehre (eigene Darstellung) Theoretischer Hintergrund 7 (2008, S. 1-9) die Technologie Akzeptanz von eLearning-Tools25 an Hochschulen erhoben. Auch Oztekin, Kong und Uysal (2010, S. 455) schlagen eine Usability26 Checkliste vor, um eLearning Sys-teme zu beurteilen. Es ist nach dem Autor fraglich, wo bei diesen ebengenannten technologisch interpretierten Ansätzen eine Beurteilung der didaktischen Elemente geblieben ist. Nach Kreidl (2011, S. 122) kann nämlich ein Grossteil der Akzeptanz von eLearning-Angeboten durch didaktische Faktoren erklärt werden. Z. B. können CRS von Lehrpersonen entweder dafür eingesetzt werden um Rückmeldungen von Studierenden zu erhalten oder um die Interaktion der Studierenden zu erhöhen (vgl. Kapitel 2.3.2). Es ist naheliegend, dass die Anwendung des TAM 3 bei eLearning-Angeboten in dieser Arbeit mit diesem Verständnis einen neuen Begriff verlangt. Dieser soll im gleichen Sinne didaktische- und technologische Elemente beinhalten. Der neue Begriff eLearning-System lässt sich wie folgt definie-ren: Ein eLearning-System ist ein fürs Lernen/Lehren entwickeltes System, das ein didaktisches Vorhaben durch Informationstechnologie ermöglicht. Für die vorliegende Arbeit sind die eLearning-Systeme ARS, CRS, ELS, VRS und WBS zentral. Diese werden im Folgenden aufgeführt. 2.3.1 Augmented Reality System [ARS] Der Begriff des ARS muss auf Grund des neuen Verständnisses von eLearning-Systemen neu de-finiert werden. Nach dem Autor ist ein ARS ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch die Technologie Augmented Reality [AR] ermöglicht. Der Begriff des ARS beinhaltet demnach, wie bereits schon der Begriff des eLearning-Systems er-ahnen lässt, technologische und didaktische Elemente. Nach dem Autor werden die didaktischen Möglichkeiten eines ARS durch die technologischen Möglichkeiten der AR Technologie vorgegeben. 25 Martínez-Torres et al. (2008, S. 1) meinen hierbei Internet basierte Technologien, welche für die Bildung eingesetzt werden können. 26 Usability ist ein Qualitätsmerkmal, das die Benutzerfreundlichkeit einer Benutzerschnittstelle festlegt (Nielsen, 2012). Theoretischer Hintergrund 8 Dementsprechend soll im Folgenden erstens auf das technologische Element AR eingegangen wer-den. Technologisches Element – AR AR steht für ein breites Spektrum von Technologien, welche computergenerierte Materialien wie Texte, Bilder und Videos, sowie auch 2D27- und 3D28-Objekte in die Wahrnehmung von nutzenden Personen projizieren (Dunleavy, 2014, S. 28; Yuen, Yaoyuneyong & Johnson, 2011, S. 120). Häufig wird die Projektion durch AR Brillen29, Smartphones30 oder Tablets31 vorgenommen (Rauschnabel & Ro, 2016, S. 125). Durch diese Projektion wird die Realität mit der Virtualität32 vermischt (s. Abbil-dung 2). Diese Mischform wird als erweiterte Realität bezeichnet (Broll, 2013, S. 241). Abbildung 2: Die reale Umgebung (links) verschmelzt mit der Virtualität (rechts) zur erweiterten Realität (Mitte) (Broll, 2013, S. 242) In einem ersten Schritt wird beim Einsatz von AR ein Videobild der Umgebung der betrachtenden Person aufgenommen (Broll, 2013, S. 242). Z. B. wird bei der der AR App33 Peakvisor34 ein Videobild der Landschaft (Himmel, Berge, See, etc.) aufgezeichnet (s. Abbildung 3). Danach wird die aktuelle Position oder Lage durch ein sogenanntes Tracking35 geschätzt (Broll, 2013, S. 242). Dafür wird 27 2D meint das etwas zwei Dimensional ist (Oxford University Press, 2018b). 28 3D meint das etwas drei Dimensional ist (Oxford University Press, 2018c). 29 Bekannte AR Brillen sind nach Martín-Gutiérrez (2017, S. 476) Microsoft HoloLens, Meta oder Moverio BT200. 30 Ein Smartphone ist ein mobiles Telefon das viele Funktionen eines Computers hat, wie z. B. dem Internet Zugang (Oxford University Press, 2018d). 31 Ein Tablet ist ein kleiner, tragbarer Computer, der die Eingabe direkt auf dem Bildschirm statt über eine Tastatur oder Maus ermög-licht (Oxford University Press, 2018e). 32 Virtualität ist ein simuliertes oder künstliches Modell der Realität (Blade & Padgett, 2014, S. 33). 33 Eine App ist eine Applikation, die von einer nutzenden Person auf ein mobiles Gerät heruntergeladen werden kann (Oxford University Press, 2018f). 34 Mit der App Peakvisor kann der Name und die Höhe eines Berges festgestellt werden (Routes Software SRL, 2017). 35 Durch Tracking wird die Position eines Objekts oder Benutzers in einem realen Raum bestimmt (Blade & Padgett, 2014, S. 32). Theoretischer Hintergrund 9 häufig der Standort durch GPS36 Tracking lokalisiert oder die Position der Kamera anhand von Sen-soren erfasst (Billinghurst, Clark & Lee, 2015, S. 103-105). In einem weiteren Schritt findet die Re-gistrierung statt, welche die computergenerierten Inhalte in die Realität einpasst (Broll, 2013, S. 243). Zu guter Letzt kann die Darstellung vorgenommen werden (Broll, 2013, S. 243). Das geschieht durch die Überlagerung des Videobilds durch die computergenerierten Inhalte. Bei der Abbildung 3 wird hierbei die Aufnahme der Landschaft mit Texten (Name der Berge), Bildern (z. B. das Kamera Sym-bol rechts unten), 2D-Objekten (z. B. der Hintergrund der Texte) und 3D-Objekten (z. B. der Kom-pass, unten rechts im Bild) erweitert. Abbildung 3: Ein Beispiel einer AR Projektion anhand der AR App Peakvisor (Routes Software SRL, 2017) Didaktische Elemente Obwohl in der Literatur bereits eine Vielzahl von Anwendungen von AR in den Bildungsbereich vor-genommen wurden, steckt der Stand der ARS Forschung im Bildungsbereich immer noch in Kinder-schuhen (Wu, Lee, Chang, & Liang, 2013; Cheng & Tsai, 2012, alle zitiert nach Bacca, Baldiris, Fabregat, Ramon, Graf, Sabine & Kinshuk, 2014, S. 134). Eine didaktische Lernform, welche das Lernen mit AR definiert, lässt sich nicht finden. Häufig werden Mehrwerte von AR durch die 3D Simulation von Dingen gesehen (Radu, 2014, S. 1540). Z. B. wird in der Medizin AR dafür eingesetzt, 36 GPS (Global Positioning System) ist eine weltweite Navigations- und Vermessungseinrichtung, die auf dem Empfang von Signalen von Satelliten basiert (Oxford University Press, 2018g). Theoretischer Hintergrund 10 um für das Auge nicht sichtbare Körperteile (z. B. Knochen) von Patienten zu simulieren (Kutter et al., 2008, S. 2). Ein weiterer Mehrwert von AR wird durch die Erweiterung der physischen Realität gesehen. Hierbei zeigt eine Vielzahl von Studien den Einsatz von AR beim Lernen physischer Auf-gaben (Radu, 2014, S. 1535-1536). Z. B. werden ARS für Reparaturarbeiten in der Militärmechanik verwendet (Henderson & Feiner, 2011, zitiert nach Radu, 2014, S. 1536). Dabei blendet AR Mecha-nikern beim Reparieren Texte, Beschriftungen, Pfeile und animierte Sequenzen ein, um das Aufga-benverständnis zu erleichtern. 2.3.2 Classroom Response System [CRS] CRS37 sind elektronische Abstimmungssysteme, welche in Präsenzveranstaltungen verwendet wer-den (Kundisch et al., 2013, S. 391). Technologisches Element – CRS (Technologie) Mit Hilfe von CRS lassen sich Befragungen durch mobile Endgeräte durchführen (Eichhorn, 2016, S. 191). In der Regel antworten hierbei Teilnehmende einer Präsenzveranstaltung auf eine Frage mit vorgegebenen Antwortmöglichkeiten über eine App oder dem Browser38 auf Smartphones, Tab-lets oder Laptops39 (Eichhorn, 2016, S. 191-193). Die Antworten werden über eine Funk- oder WLAN40-Verbindung an einen Rechner gesendet, der mit Hilfe von bestimmter Software41 die Ergebnisse auswertet und grafisch darstellt (Eichhorn, 2016, S. 191). Ein Beispiel eines CRS sei mit Klicker UZH dargestellt (IBF Teaching Center, 2018): Vor einer Vor-lesung hinterlegt eine dozierende Person eine Single-Choice-42 [SC] oder Multiple-Choice-43 [MC] Frage mit Antworten im System von Klicker UZH. Bei der Vorlesung verweist die dozierende Person nach dem Stellen einer Frage auf ein QR-Code44, der auf dem Projektor abgebildet ist. Der QR-Code 37 Synonym zu CRS werden auch die Begriffe Live Feedback System, Classroom Communication System, Personal Response System, Audience Response System, Classroom Feedback System, Audience Paced Feedback, Electronic Response System, Electronic Vot-ing System, Student Response System oder voting-machine verwendet (Kundisch, 2013, S. 389). 38 Browser sind Übersichten, die eine Navigation durch die physischen, zeitlichen und konzeptuellen Elemente einer virtuellen Welt er-möglichen (Blade & Padgett, 2014, S. 26). 39 Ein Laptop ist ein tragbarer Computer (Oxford University Press, 2018h). 40 Ein WLAN (Wireless local area network) ist ein drahtloses, lokales Netzwerk (Oxford University Press, 2018i). 41 Software bezeichnet Programme, welche von einem Computer verwendet werden (Oxford University Press, 2018j). 42 Fragen im Single-Choice-Format lassen genau eine Antwort zu (Hügelmeyer & Mertens, 2004, S. 115). 43 Fragen im Multiple-Choice-Format lassen mehrere Antworten zu (Hügelmeyer & Mertens, 2004, S. 115). 44 QR-Codes sind Codes, welche von Maschinen gelesen werden können und typischerweise für das das Speichern von Links verwendet werden (Oxford University Press, 2018k). Theoretischer Hintergrund 11 kann mit einem QR-Code-Reader45 eines Smartphones oder Tablets geöffnet werden. In einem wei-teren Schritt erscheint auf dem Display des Smartphones eine SC-Frage mit den Antwortoptionen (Abbildung 4, links). Von diesen Antwortoptionen wird im Folgenden die passendste gewählt. Zeit-gleich werden am Projektor im Vorlesungssaal die Ergebnisse präsentiert (Abbildung 4, rechts). Abbildung 4: Darstellung einer SC-Frage im CRS Klicker UZH (links) und deren Auswertung am Projektor (rechts) (IBF Teaching Center, 2018) Didaktisches Element Früher diente die Nutzung von CRS vor allem den Lehrpersonen (Kundisch et al., 2013, S. 389). Studierende sollten von Dozierenden gestellte Fragen im SC- oder MC-Fragen-Format beantworten, damit die Dozierenden Rückmeldungen von Studierenden erhalten konnten. Heute werden CRS didaktisch vielfältiger eingesetzt (Kundisch et al., 2013, S. 389-391). Hierbei werden häufig Fragen (immer noch im SC- und MC-Fragen-Format) eingesetzt, welche darauf abzielen, dass Studierende Inhalte tiefgehender verstehen. Z. B. werden CRS in Lehrveranstaltungen dazu benötigt, um voran-gegangene Inhalte zu Beginn einer Veranstaltung zu repetieren. Auch werden CRS dafür verwendet, um am Ende von Themengebieten Wissen der Studierenden zu kontrollieren. 45 Programme, welche QR-Codes öffnen können, werden QR-Code-Reader genannt (Robertson & Green, 2012, S. 11). Theoretischer Hintergrund 12 2.3.3 E-Lecture System [ELS] Weil in der Literatur bei E-Lectures46 hauptsächlich die Technologie angesprochen wird, soll auch der Begriff von ELS für diese Arbeit neu hergeleitet werden. Nach dem Autor ist ein ELS ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch die Technolo-gie E-Lectures ermöglicht. Technologisches Element – E-Lecture E-Lectures sind meist Dokumente, welche Folien einer Präsentation, sowie auch ein Audiosignal der dozierenden Person beinhalten (Hermann, 2011, S. 13). Häufig wird auch die dozierende Person gefilmt und eingeblendet (Hermann, 2011, S. 29-30). E-Lectures werden oft durch sogenannte ex-terne Verfahren erstellt (Hermann, 2011, S. 24). Hierbei wird das Signal eines Vortrag-Computers, das für die Bildschirmdarstellung (z. B. beim Projektor) verwendet wird abgegriffen und zusammen mit dem Audio-Signal der dozierenden Person aufgezeichnet. Diese Datei wird nachfolgend den Studierenden zur Verfügung gestellt. Die Ausgabe von E-Lectures ist je nach Einsatzzweck verschieden (Hermann, 2011, S. 24). Bei einigen E-Lectures muss eine Software heruntergeladen werden, um die bereitgestellten Inhalte wiedergeben zu können. Häufig werden sogenannte Streaming47-Formate eingesetzt, welche den Studierenden ermöglichen, die E-Lectures über einen Browser zu nutzen (Hermann, 2011, S. 26). Ein Beispiel von E-Lectures soll durch die E-Lectures der APS dargestellt werden. Die E-Lectures der APS werden durch ein im LMS integrierten Link geöffnet. Nach dem Öffnen des Links erscheint das Streaming Format SWITCHtube48 (s. Abbildung 5). Auf SWITCHtube sind alle E-Lectures des Semesters für Studierende zugänglich. 46 E-Lectures – auch Vorlesungsaufzeichnungen genannt – sind digitale Aufzeichnungen von Vorlesungen (Hermann, 2011, S. 13). 47 Streaming ist ein Verfahren zur Übertragung von Video- und Audiodaten, welches das Starten einer Wiedergabe ermöglicht, während dem der Rest der Daten noch empfangen wird (Oxford University Press, 2018l). 48 SWITCHtube ist eine Abspielplattform für Videos der Schweizer Hochschulgemeinschaft (SWITCH, 2018). Theoretischer Hintergrund 13 Abbildung 5: Die E-Lectures der APS (SWITCH, 2018) Die E-Lectures dieses Moduls sind mit dem Namen der Vorlesung, dem entsprechenden Vorle-sungsteil und dem entsprechenden Vorlesungsinhalt beschriftet. Durch das Anwählen der entspre-chenden E-Lecture per Mausklick, erscheint die E-Lecture und kann mit dem Play Button (links unten im Bild) gestartet werden (s. Abbildung 6). Wenn nicht die ganze E-Lecture geschaut werden möchte, kann rechts vom Play Button durch einen Mausklick an die gewünschte Stelle der Vorlesung gestreamt49 werden. Abbildung 6: E-Lecture des Grundlagenmoduls der Psychologie (SWITCH, 2018) 49 Vgl. Streaming (Kapitel 2.3.3). Theoretischer Hintergrund 14 Didaktisches Element Das Lernen mit ELS findet nach Krüger (2011, S. 18) häufig ergänzend zur Präsenzlehre statt. Stu-dierende kommen nach wie vor zu Präsenzveranstaltungen, haben jedoch durch die ELS die Mög-lichkeit, Lehrveranstaltungen nachzubearbeiten (Mertens et al., 2004; Zupancic & Horst, 2002, beide zitiert nach Krüger, 2011, S. 18). Zudem können die ELS auch für die Prüfungsvorbereitung oder für die Repetition von Lerninhalten verwendet werden. ELS können auch von all denen genutzt werden, welche nicht an der Veranstaltung teilnehmen konnten. 2.3.4 Virtual Reality System [VRS] Für diese Arbeit wird der Begriff des VRS neu eingeführt: Ein VRS ist ein fürs Lernen/Lehren entwi-ckeltes eLearning-System, das ein didaktisches Vorhaben durch die Technologie Virtual Reality [VR] ermöglicht. Die didaktischen Möglichkeiten eines VRS werden durch die Möglichkeiten der VR Technologie vor-gegeben. Dementsprechend soll im Folgenden zuerst auf das technologische Element eines VRS eingegangen werden. Technologisches Element – VR VR ist ein virtuelles50 Modell der Realität, mit der ein Mensch interagieren kann (Blade & Padgett, 2014, S. 33). Wahrgenommen werden können bei VR nach Blade und Padgett (2014, S. 33) audi-tive51, haptische52 und visuelle53 Reize. VR unterscheidet sich von anderen Technologien durch Im-mersion54 (Dörner, Jung, Grimm, Broll & Göbel, 2013, S. 13). Erreicht wird dies bei VR durch das Ausblenden der realen Umgebung, das Ansprechen möglichst vieler Sinne und der lebendigen Dar-stellung der Ausgabegeräte (z. B. 3D-Objekte) (Slater und Wilbur, 1997, zitiert nach Dörner et al., 2013, S. 14). Zudem wird Immersion erreicht, in dem die virtuelle Umgebung die nutzende Person komplett umgibt. 50 Virtuell bedeutet künstlich oder simuliert (Blade & Padgett, 2014, S. 33). 51 Ton-, Klang- und Geräuscheindrücke (Fröhlich, 2014, S 244). 52 Bezeichnung für alles, das mit Hautsinnen zu tun hat (Fröhlich, 2014, S 233). 53 Das Sehen betreffend (Fröhlich, 2014, S 511). 54 Immersion beschreibt nach Slater und Wilbur (1997, S. 3) das Ausmass, in dem eine Technologie durch Computeranzeigen fähig ist, eine umfassende, lebendige Illusion der Realität für die Sinne eines Menschen zu erschaffen. Theoretischer Hintergrund 15 Abbildung 7: Ein Beispiel von Virtual Reality (Jerald, 2016, S. 239) Im Zentrum der virtuellen Realität steht ein Computer, welcher die Kommunikation zwischen Mensch und VR ermöglicht (Jerald, 2016, S. 30). Diese Kommunikation kann als Kreislauf verstanden wer-den (Jerald, 2016, S. 31). Erstens gelangt durch ein VR-Eingabegerät (Input) Information über den Menschen zum Computer (Grimm, Herold, Hummel & Broll, 2013, S. 97; Jerald, 2016, S. 31). Zwei-tens reagiert der Computer auf den Input und sendet neue Information durch ein VR-Ausgabegerät (Output) zum Menschen (Grimm, Herold, Reiners & Cruz-Neira, 2013, S. 127; Jerald, 2016, S. 31). Dieser Kreislauf zwischen Input und Output dauert solange, wie VR genutzt wird (Jerald, 2016, S. 31). VR-Ausgabegeräte werden dafür eingesetzt, dass nutzende Personen in eine virtuelle Welt eintau-chen können (Grimm, Herold, Reiners, et al., 2013, S. 127). Eine wichtige Ausgabe ist die visuelle Ausgabe (Grimm et al., 2013, S. 127). Hierbei wird das 3D-Modell einer virtuellen Welt in ein Bild überführt und durch ein Head-Mounted Display55 [HMD] dem Menschen dargestellt (Grimm et al., 2013, S. 129). Beispiele für bekannte HMDs sind Samsung Gear, Oculus, HTC Vive, LG und Pla-ystation VR (Martín-Gutiérrez, 2017, S. 476). Zudem werden häufig sogenannte Cardboards einge-setzt, in welche Smartphones integriert werden können. Alle ebengenannten Beispiele von HMDs sind in Abbildung 8 dargestellt. 55 Head-Mounted Displays können als «am Kopf angebrachte Anzeigen» übersetzt werden (Dörner et al., 2013, S. 142). Theoretischer Hintergrund 16 . Abbildung 8: Bekannte HMDs (Martín-Gutiérrez, 2017, S. 476) VR-Eingabegeräte werden dafür eingesetzt, dass ein Computer menschliche Nutzerinteraktionen sensorisch erfassen kann (Grimm, Herold, Hummel, et al., 2013, S. 97). Den VR-Eingabegeräten gelingt durch sogenanntes Tracking die kontinuierliche Verfolgung von Objekten (Grimm, Herold, Hummel, et al., 2013, S. 97-98). Bekannte VR-Eingabegeräte sind z. B. Eye-Tracking56 HMDs, durch welche Blicksteuerung vorgenommen werden kann (Grimm, Herold, Hummel, et al., 2013, S. 97-98, S. 122). Didaktische Elemente Voraussetzung für eine effektive Lernumgebung ist der pädagogische Ansatz, der eingesetzt wird (Mikropoulos & Natsis, 2011, S. 774). Nach Mikropoulos und Natsis (2011, S. 412) werden jedoch VRS zu selten in einem didaktischen Bezug dargestellt. Aus diesem Grund ist es schwierig, konkrete didaktische Elemente für das Lernen mit VR zu nennen. In der Literatur wird «perfekte VR als umfassende Simulation dargestellt, welche für den Menschen nicht mehr von der echten Realität unterscheidbar ist» (Dörner et al., 2013, S. 12). Dementspre-chend sollte nach dem Autor auch das perfekte VRS von Studierenden nicht von der echten Realität unterscheidbar sein. Aus diesem Grund ist es wohl nur eine Frage der Zeit, bis die Technologie VR alle Lernformen der echten Realität auch umsetzen kann. 56 Eye Tracking ist die Messung der Blickrichtung (Blade & Padgett, 2014, S. 27). Theoretischer Hintergrund 17 2.3.5 Webinar System [WBS] Das fünfte eLearning-System, welches in dieser Bachelorarbeit aufgeführt wird, ist das WBS. Auch der Begriff des WBS wird vom Autor der vorliegenden Arbeit neu hergeleitet, da der Begriff Webinar häufig zu technologisch interpretiert wird (vgl. Dressel, 2011, S. 12). Eine Definition des Begriffs WBS kann in Anlehnung an Hermann-Ruess und Ott (2014, S. 2) vor-genommen werden. Hierbei ist ein Webinar ein One-to-many-Prinzip57, das durch Software ermög-licht wird. Diese Autoren erwähnen didaktische Elemente (One-to-many-Prinzip) und auch techno-logische Elemente (Software) gleichermassen. Dementsprechend soll für WBS folgende Definition gelten: Ein WBS ist ein fürs Lernen/Lehren entwickeltes eLearning-System, das ein didaktisches Vorhaben durch Webinar Technologien ermöglicht. Im Folgenden werden technologische- und didaktische Elemente aufgeführt, aus denen WBS be-stehen. Technologisches Element – Webinar Technologie Die Voraussetzung für jedes WBS ist die Technologie (Hermann-Ruess & Ott, 2014, S. 35). Software ermöglicht bei WBS die Verbindung zwischen der präsentierenden Person und dem Publikum (Hermann-Ruess & Ott, 2014, S. 35). Es gibt eine Vielzahl von Software, welche WBS ermöglichen können. Z. B. gibt es die Programme Adobe Connect, Cisco WebEx Training Center, Citrix Go-ToWebinar und Microsoft Lync Server (Hermann-Ruess & Ott, 2014, S. 43-50). Die Programme unterscheiden sich je nach Anbieter beim Produktumfang. Das heisst, dass einige Programme mehr Funktionen als andere haben. Die meisten Webinar Technologien beinhalten die Funktionen Screensharing58, Chat59 und Video-funktion (Hermann-Ruess & Ott, 2014, S. 55-63): Screensharing ist der Hauptbestandteil von einer Onlinepräsentation mit einem WBS (Hermann-Ruess & Ott, 2014, S. 55). Ein Beispiel für eine Screensharing Funktion ist in Abbildung 9 grün hervorgehoben. 57 Beim One-to-many-Prinzip gibt es einen Vortragenden und viele Zuhörer (Hermann-Ruess & Ott, 2014, S. 7). 58 Durch Screensharing (Bildschirmfreigabe) wird ein Bildschirm mit einem Publikum geteilt (Hermann-Ruess & Ott, 2014, S. 55). 59 Ein Chat ist ein Online-Austausch von Nachrichten in Echtzeit mit einem oder mehreren Benutzern eines Computernetzwerks (Oxford University Press, 2018c). Theoretischer Hintergrund 18 Abbildung 9: Der Bildschirm der präsentierenden Person (grün eingerahmt) wird durch die Screensharing Funktion einge-blendet (Adobe, 2017) Durch das Screensharing wird der Bildschirm einer präsentierenden Person dem Publikum gezeigt. Dabei wird meistens eine PowerPoint60-Präsentation wiedergegeben. Das Screensharing ist hierbei ein «virtueller Beamer», mit dem die Folien einer präsentierenden Person auf die Bildschirme der Teilnehmenden projiziert werden (Hermann-Ruess & Ott, 2014, S. 56). Der Chat (Abbildung 10) ist eine weitere Funktion von gängigen WBS (Hermann-Ruess & Ott, 2014, S. 57). Durch die Chatfunktion können die Teilnehmenden der präsentierenden Person Feedback geben. Hierbei können Personen in das Chatfenster ihre Fragen, Kommentare und Wünsche eingeben (Hermann-Ruess & Ott, 2014, S. 57). 60 PowerPoint ist ein Softwarepaket, das entwickelt wurde, um elektronische Präsentationen zu erstellen (Oxford University Press, 2018m). Theoretischer Hintergrund 19 Abbildung 10: Die Chatfunktion von Adobe Connect (Adobe, 2017) Eine weitere häufig verwendete Funktion ist die Videofunktion von WBS (Hermann-Ruess & Ott, 2014, S. 61). Hierbei kann das Publikum die vortragende Person sehen. In Abbildung 11 ist ein Beispiel der Videofunktion von Adobe Connect zu sehen. Abbildung 11: Die Videofunktion von Adobe Connect (Adobe, 2017) Didaktisches Element Beim didaktischen Element von WBS lassen sich viele Parallelen zu Präsenzveranstaltungen finden. Im Vordergrund steht in der Regel eine dozierende Person, welche im One-to-many Prinzip zu vielen Zuhörern spricht (Hermann-Ruess und Ott, 2014, S. 7). Die dozierende Person begrüsst die Zu-schauer zu Beginn einer Veranstaltung (Hermann-Ruess und Ott, 2014, S. 2). Die Begrüssung ge-schieht jedoch nicht im Vorlesungssaal, sondern über eine Videofunktion (Hermann-Ruess & Ott, 2014, S. 61). In einem weiteren Schritt beginnt die dozierende Person mit der Präsentation und zeigt dabei Folien via Screensharing, welche für alle Teilnehmenden ersichtlich sind (Hermann-Ruess & Ott, 2014, S. 23-25, S. 55). Die Zuschauer haben zudem die Möglichkeit mit der dozierenden Person zu kommunizieren. Dies geschieht bei WBS durch Chats, bei denen Fragen an den Dozenten gestellt werden können (Hermann-Ruess & Ott, 2014, S. 57). Zudem können die Zuschauer bei Theoretischer Hintergrund 20 bestimmten Webinar Technologien auch durch Applaus oder Handheben mit dem Vortragenden interagieren (Hermann-Ruess & Ott, 2014, S. 57). Während der Veranstaltung haben Dozierende bei manchen WRS zudem die Möglichkeit Umfragen zu erstellen (Hermann-Ruess & Ott, 2014, S. 7). Hierbei können Teilnehmende ähnlich wie durch CRS eingebunden werden (Kapitel 2.3.2). Am Schluss der Veranstaltung fasst die dozierende Person den präsentierten Inhalt zusammen und Verabschiedung sich beim Publikum (Hermann-Ruess & Ott, 2014, S. 7). Theoretischer Hintergrund 21 2.4 Technology Acceptance Model [TAM] Das TAM nach Davis (1985) ist ein Modell aus der Nutzerakzeptanzforschung (Venkatesh, Morris, Davis & Davis, 2003, S. 426). Ziel des TAM war Determinanten der Technologie Akzeptanz herzu-leiten, welche das Nutzungsverhalten bei breitgefassten Informationstechnologien [IT] erklären und voraussagen können (Venkatesh, Morris, Davis & Davis, 2003, S. 428). Zudem sollte das TAM ein Instrument zur Beurteilung von ITs in der Produktentwicklungsphase werden (Davis, 1985, S. 2). Nach Venkatesh und Davis (2000, S. 187) hat sich das TAM als robustes und etabliertes Modell bewährt, um Technologie Akzeptanz zu bestimmen. In Abbildung 12 ist das TAM nach Davis et al. (1989, S. 985) ersichtlich. Abbildung 12: Technology Acceptance Model [TAM] (eigene Darstellung in Anlehnung an Davis et al. (1989, S. 985)) Im TAM führen die Determinanten Perceived Ease of Use [PEOU] und Perceived Usefulness [PU] zu Technologie Akzeptanz Verhalten (Actual System Use) (Davis et al., 1989, S. 985). Hierbei ist Attitude toward Using [A] eine Funktion von Perceived Ease of Use [PEOU] und Perceived Useful-ness [PU] (Davis, 1985, S. 24). Behavioral Intention to Use [BI] wird durch Attitude toward Using [A] und Perceived Usefulness [PU] determiniert (Davis 1989, S. 319-320). Die Definitionen von Per-ceived Ease of Use [PEOU], Perceived Usefulness [PU], Attitude toward Using [A] und Behavioral Intention to Use [BI] sind in Tabelle 2 aufgeführt. Theoretischer Hintergrund 22 Tabelle 2: Definitionen der Determinanten PEOU, PU, A und BI Determinanten Definitionen Perceived Ease of Use [PEOU] …«the degree to which a person believes that using a particular sys-tem would be free of effort» (Pfeffer, 1982; Schein, 1980; Vroom, 1964, alle zitiert nach Davis, 1989, S. 320). Perceived Usefulness [PU] … «the degree to which a person believes that using a particular sys-tem would enhance his or her job performance» (Radner & Rothschild, 1975, zitiert nach Davis, 1989, S. 320). Attitude toward Using [A] «Attitude refers to the degree of evaluative affect that an individual as-sociates with using the target system in his or her job» (Fishbein & Ajzen, 1975, zitiert nach Davis,1985, S. 24). Behavioral Intention to Use [BI] …«an individual’s subjective probability that he or she will perform a specified behavior» (Davis, 1985, S. 16). Theoretischer Hintergrund 23 2.5 Technology Acceptance Model 2 [TAM 2] Das TAM 2 ist eine Erweiterung des TAM (Venkatesh & Davis, 2000, S.186). Im TAM 2 wird berich-tet, dass sich insbesondere Perceived Usefulness [PU] als starker Determinant für Nutzungsverhal-ten bewährt hat (Venkatesh & Davis, 2000, S.187). Aus diesem Grund ist das Ziel des TAM 2, ein besseres Verständnis von Perceived Usefulness [PU] zu erlangen. Dazu sollten weitere Determi-nanten für Perceived Usefulness [PU] entwickelt werden. Hierbei haben Venkatesh und Davis (2000, S.187-193) sechs Determinanten für Perceived Useful-ness [PU] gefunden und in Social Influence Processes und Cognitive Instrumental Processes unter-teilt (s. Abbildung 13). Zudem wurde auch Experience als Moderatorvariable61 hinzugefügt. Abbildung 13: Das TAM 2 ist eine Erweiterung des TAM mit Social Infleunce Processes, Cognitive Instrumental Processes und Experience (eigene Darstellung in Anlehnung an Venkatesh & Davis, 2000, S.188) Im Folgenden wird ausschliesslich auf Social Influence Processes eingegangen. Dies deshalb, weil Cognitive Instrumental Processes für diese Arbeit abgegrenzt wurde (vgl. Kapitel 1.5). 61 Eine Moderatorvariable ist eine Variable, welche einen Einfluss auf die Höhe der Beziehung zwischen mehreren Variablen ausübt (Dorsch et al., 2017, S. 1043). Theoretischer Hintergrund 24 Social Influence Processes Nach Venkatesh und Davis (2000, S. 187) können Social Influence Processes Individuen dabei be-einflussen, ob ein neues System akzeptiert wird oder nicht. Hierbei nennen Venkatesh und Davis (2000, S. 187-190) Voluntariness, Subjective Norm [SN] und Image. Insbesondere SN hat einen höchst signifikanten62 Effekt auf PU (Venkatesh und Davis, 2000, S.196). Die Definition von SN ist in Tabelle 3 ersichtlich. Voluntariness und Image werden für diese Arbeit nicht aufgeführt (vgl. Kapitel 1.5). Tabelle 3: Definition des Determinanten SN Determinant Definition Subjective Norm [SN] …«a person’s perception that most people who are important to him think he should or should not perform the behavior in question» (Fishbein & Ajzen, 1975, S. 302, zitiert nach Venkatesh & Davis, 2000, S. 187). 2.6 Technology Acceptance Model 3 [TAM 3] In diesem Kapitel wird auf die wichtigsten Erweiterungen eingegangen, welche vom TAM 2 zum TAM 3 getätigt wurden. Das TAM 3 wurde nach Venkatesh und Bala (2008, S. 273) erweitert, um das Management von Unternehmen bei Entscheidungen über den Einsatz von Informationssyste-men zu unterstützen. Dazu wurden im TAM 3 die im TAM 2 erwarteten Beziehungen zwischen ex-ternen Variablen und Perceived Ease of Use [PEOU] integriert (Davis et al., 1989, S. 985-989; Ven-katesh & Davis, 2000, S.188). Die Determinanten von Perceived Ease of Use [PEOU] werden im TAM 3 unter Anchor und Adjustment dargestellt (Abbildung 14). Unter Anchor werden die Determi-nanten Computer Self-Efficacy, Perception of External Control, Computer Anxiety und Computer Playfulness zusammengefasst. Adjustment fasst die Determinanten Perceived Enjoyment und Ob-jective Usability zusammen. Keine dieser Determinanten wurden für die vorliegende Arbeit verwendet. Dennoch ist das TAM 3 die Basis der vorliegenden Arbeit, weil das TAM 3 alle verwendeten Determinanten des TAM (PEOU, PU, BI) und TAM 2 (SN) beinhaltet. 62 Ist eine Irrtumswahrscheinlichkeit p ≤ 0‚001 ist sie höchst signifikant (Zöfel, 2011, S. 92). Theoretischer Hintergrund 25 Abbildung 14: Das TAM 3 integriert Determinanten zu Perceived Ease of Use [PEOU] in das TAM 1 und TAM 2 (eigene Darstellung in Anlehnung an Venkatesh & Bala, 2008, S. 280) Methodik 26 3 Methodik Nachdem der theoretische Hintergrund des vorliegenden Berichts in Kapitel 2 dargestellt wurde, beschreibt dieses Kapitel das methodische Vorgehen zur Ermittlung der Technologie Akzeptanz von eLearning-Systemen in der Hochschullehre. Das methodische Vorgehen in der Bachelorarbeit ist vielschichtig. Auf Grund von engen Terminvor-gaben des Praxispartners bezüglich der Datenerhebung (Kapitel 3.3.1), mussten Aspekte der Pla-nung und Vorbereitung der empirischen Studie gleichzeitig vorgenommen werden. Aus diesem Grund soll ein Forschungsdesign für die Darstellung des methodischen Vorgehens gewählt werden, welches einen besseren Überblick über die verschiedenen Methoden gewährleistet (s. Abbildung 15). Das Forschungsdesign in Abbildung 15 wurde auf Basis von Aussagen über die Planung und Durchführung von quantitativen Studien gebildet (Bortz & Döring, 2006, S. 22-25). Ergänzend dazu wurden Methoden hinzugefügt, welche eigens in der vorliegenden Arbeit eingesetzt wurden. Das methodische Vorgehen der vorliegenden Arbeit lässt sich in Anlehnung an Bortz und Döring (2006, S. 22-25) wie folgt umschreiben: Erstens wurde die empirische Studie geplant (s. Abbildung 15). Dieser Schritt beinhaltete die inhalt-liche- sowie auch methodische Planung der Studie. Zweitens wurde die empirische Untersuchung vorbereitet. Hierbei wurden Video Use Cases und ein Fragebogen entwickelt. Drittens wurde die empirische Untersuchung durchgeführt. Dazu wurde eine Datenerhebung, sowie auch eine Daten-auswertung getätigt. 3.1 Planung der empirischen Studie «Jede empirische Studie erfordert vor ihrer Durchführung eine gründliche Planung und Vorberei-tung» (Bortz & Döring, 2006, S. 22). Insgesamt wurde ein Grossteil der Zeit für die vorliegende Arbeit Abbildung 15: Forschungsdesign (eigene Darstellung in Anlehnung an Aussagen von Bortz & Döring, 2006, S.23-25) Methodik 27 in die Planung von inhaltlichen- und methodischen Aspekten investiert (vgl. Bortz & Döring, 2006, S. 22). In den folgenden zwei Kapiteln wird die inhaltliche- sowie auch methodische Planung der Studie aufgeführt. 3.1.1 Inhaltliche Planung der Studie Die inhaltliche Planung der Studie hatte das Ziel eine sinnvolle und überprüfbare Forschungsfrage zu bilden (vgl. Bortz & Döring, 2006, S. 22). Wie bereits in der Zielsetzung (Kapitel 1.1) dargestellt, sollte die Bachelorarbeit den Praxispartner bei der Auswahl von eLearning-Systemen unterstützen. Dafür sollten die eLearning-Systeme ARS, CRS, ELS, VRS und WBS nach denselben Kriterien be-wertet und vergleichbar gemacht werden. Auf der Suche nach Kriterien zur Bewertung von eLearn-ing-Systemen bildete der Autor die These, dass einzelne E-Learning Technologien63 die Motivation von Studiereden in der Hochschullehre steigern könnten. Aus diesem Grund wurde das Forschungs-thema «Studierenden Motivation bei E-Learning Technologien» festgelegt. Durch eine online Literaturrecherche sollte theoretisches Wissen zum Forschungsthema erarbeitet werden. Durch den Suchbegriff «Motivation Students E-Learning Technology» stiess der Autor auf eine Vielzahl von Einträgen, welche vom TAM berichteten (vgl. Venkatesh & Bala, 2008; Venkatesh & Davis, 2000). Alleine auf der Literaturdatenbank Google Scholar64 wurde das TAM im März 2017 3117 Mal zitiert. Zudem schien das TAM nach einer Metaanalyse65 von King und He (2006, S. 751) die Testgütekriterien66 Reliabilität67 und Validität68 zu erfüllen. Durch die vertiefte Recherche, stiess der Autor auf eine weitere Metaanalyse: Šumak et al. (2011, S. 2067) erwähnten in ihrem Bericht, dass im eLearning Kontext mehrheitlich mit dem Technology Acceptance Model (TAM) geforscht wird. Um an den neusten Forschungsstand anknüpfen zu können, sollte für die vorliegende Arbeit anstelle des TAM, das TAM 3 verwendet werden. Weil das gesamte TAM 3 für eine Bachelorarbeit zu umfangreich war, sollten einzelne TAM 3 De-terminanten ausgewählt werden. Dazu wurden die Forschungsergebnisse des TAM 3 zusammen-gefasst (Anhang B). Auf Basis dieser Zusammenfassung wurden gemeinsam mit dem Praxispartner 63 Zu diesem Zeitpunkt der Arbeit herrschte noch ein technologisches Verständnis von eLearning-Systemen. 64 Vgl. Google (2018). 65 Eine Metaanalyse ist ein systematisches Verfahren der mathematisch-statistischen Realanalyse von quantitativen Daten aus Unter-suchungen in einem bestimmten Gegenstandsbereich, um die Aussagekraft von Ergebnissen in Bezug auf bestimmte Hypothesen zu überprüfen bzw. zu bündeln (Fröhlich, 2014, S. 321). 66 Die Qualität psychologischer Tests wird durch Testgütekriterien bestimmt (Moosbrugger & Kelava, 2012, S. 8). 67 Nach Moosbrugger und Kelava (2012, S. 11) ist ein Test «dann reliabel (zuverlässig), wenn er das Merkmal, das er misst, exakt, d. h. ohne Messfehler, misst». 68 Nach Moosbrugger und Kelava (2012, S. 13) gilt ein Test «dann als valide (gültig), wenn er das Merkmal, das er messen soll, auch wirklich misst und nicht irgendein anderes». Methodik 28 die TAM 3 Determinanten ausgewählt. Die Determinanten Perceived Usefulness [PU], Perceived Ease of Use [PEOU] und Behavioral Intention [BI] wurden gewählt, weil damit der Kern des TAM 3 abgebildet wird. Subjective Norm [SN] wurde ausgewählt, weil die Korrelation69 mit Perceived Useful-ness [PU] im Vergleich zu den restlichen Zusammenhängen am grössten und höchst signifikant ist. Nachdem die Kriterien zur Beurteilung der eLearning-Systeme ARS, CRS, ELS, VRS und WBS ge-funden waren, konnte die Fragestellung der Bachelorarbeit gebildet werden: «Wie werden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den TAM 3 Determinanten BI, PEOU, PU und SN von Studierenden bewertet?» 3.1.2 Methodische Planung der Studie Am Anfang des Forschungsprozesses sollten nebst den inhaltlichen- auch die methodischen Aspekte der Studie geplant werden (Bortz & Döring, 2006, S. 22). Die Methode der quantitativen Sozialforschung70 war durch die inhaltliche Planung der Studie mit der Auswahl des TAM 3 bereits gegeben (Kapitel 3.1.1). Eine quantitative Methode machte jedoch auch aus forschungsökonomi-schen- und organisatorischen Aspekten Sinn (vgl. Bortz & Döring, 2006, S. 22): Der Praxispartner ermöglichte dem Autor der Bachelorarbeit eine Datenerhebung während einer Präsenzveranstaltung im Modul vorzunehmen. Dadurch war eine Brutto Stichprobe71 von 133 Studierenden des Grundla-genmoduls der Psychologie möglich (Anhang A). Hierbei konnte mit einem minimalen Aufwand bei der Teilnehmenden-Akquise, eine maximale Rücklaufquote72 erreicht werden. Zudem waren die Stu-dierenden am Ende des Herbstsemesters 2017 ausserhalb der Präsenzveranstaltungen mit Prü-fungsvorbereitungen beschäftigt. Aus diesem Grund kann davon ausgegangen werden, dass die Bereitschaft an einer qualitativen Forschungsmethode73 teilzunehmen verhältnisgemäss eher gering ausgefallen wäre. 69 Eine Korrelation bezeichnet den Zusammenhang zwischen zwei Variablen (Zöfel, 2011, S. 149). 70 In der quantitativen Sozialforschung werden theoretisch begründete Hypothesen durch standardisierte Messinstrumente an relativ grossen und möglichst repräsentativen Stichproben erhoben (Bortz & Döring, 2006, S. 23). 71 Eine Stichprobe ist eine Teilmenge aus der Population aller möglichen Individuen, welche als verkleinertes repräsentatives Modell der Population angesehen werden kann (Fröhlich, 2014, S. 458). Eine Brutto Stichprobe ist die ursprünglich geplante Stichprobe einer Datenerhebung (Bortz & Döring, 2006, S. 384). 72 Die Anzahl der ausgefüllten Fragebögen nach Abschluss einer Erhebungsphase, im Verhältnis an der Anzahl aller ausgeteilten Frage-bögen, wird als Rücklaufquote bezeichnet (Bortz & Döring, 2006, S. 412). 73 Das qualitative Paradigma der empirischen Sozialforschung zielt auf eine verstehend-interpretative Rekonstruktion von sozialen Phä-nomenen ab, bei der vor allem die Sichtweise von Beteiligten bedeutend ist (Bortz & Döring, 2006, S. 63). Methodik 29 Planung des quantitativen Untersuchungsdesigns Die Auswahl der TAM 3 Determinanten und der quantitativen Forschungsmethode reichte noch nicht aus um die Fragestellung «Wie werden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den TAM 3 Determinanten BI, PEOU, PU und SN von Studierenden bewertet?» untersuchen zu können. Damit dem Praxispartner Aussagen über die Technologie Akzeptanz von eLearning-Syste-men geliefert werden konnten, sollte eine Quasi-experimentelle Studie74 vorgenommen werden. Hierbei sollte überprüft werden, ob sich die eLearning-Systeme ARS, CRS, ELS, VRS und WBS signifikant bezüglich der Mittelwerte [M] von Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] unterscheiden. Dazu wurden die Hy-pothesen H1, H2, H3 und H4 gebildet (s. Tabelle 4). Tabelle 4: Darstellung aller Hypothesen H1, H2, H3, H4 H1 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Behavioral Intention [BI]. UV ARS CRS ELS VRS WBS AV BI H2 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Ease of Use [PEOU]. UV ARS CRS ELS VRS WBS AV PEOU H3 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Usefulness [PU]. UV ARS CRS ELS VRS WBS AV PU H4 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Subjective Norm [SN]. UV ARS CRS ELS VRS WBS AV SN Zur Überprüfung der H1, H2, H3 und H4 sollte eine Einfaktorielle Varianzanalyse mit Messwieder-holung75 durchgeführt werden. Diese Methode sollte verwendet werden, weil die Hypothesen H1, H2, H3 und H4 die Auswirkung von gestuften, unabhängigen Variablen [UV] auf abhängige Variab-len [AV] überprüfen sollen (vgl. Bortz & Schuster, 2010, S. 205). Zudem auch, weil insgesamt fünf 74 Quasi-experimentelle Studien greifen zur Prüfung von Hypothesen auf Gruppen zurück, die nicht zufällig zusammengestellt (keine Randomisierung), sondern einfach vorgefunden wurden (Fröhlich, 2014). 75 Mit der Einfaktoriellen Varianzanalyse wird überprüft, ob sich mindestens zwei der Mittelwerte aus unabhängigen Stichproben signifi-kant unterscheiden (Bortz & Döring, 2006, S. 829). Wird in diesem Bezug eine Stichprobe mehrfach untersucht, kann mit der Einfakto-riellen Varianzanalyse mit Messwiederholung überprüft werden, ob sich die Mittelwerte signifikant verändert haben (Bortz & Döring, 2006, S. 833). Methodik 30 Messzeitpunkte vorherrschen (vgl. Bortz & Schuster, 2010, S. 739). 3.2 Vorbereitung der empirischen Untersuchung Um die Fragestellung «Wie werden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den TAM 3 Determinanten BI, PEOU, PU und SN bewertet?» beantworten zu können, war eine empiri-sche Untersuchung geplant (Kapitel 3.3). Dabei sollten Studierende die eLearning-Systeme ARS, CRS, ELS, VRS und WBS nutzen und nachfolgend mit einem TAM 3 Fragebogen beurteilen. Weil abgesehen vom ELS keine der ebengenannten eLearning-Systeme im Grundlagenmodul der Psychologie eingesetzt werden, sollten die weiteren eLearning-Systeme ARS, CRS, VRS und WBS erschaffen werden. Dazu war erstens die Auswahl der entsprechenden Software notwendig. Hierbei wurde für das WBS die Software Adobe Connect ausgewählt (vgl. Kapitel 2.3.5). Die Software der eLearning-Systeme ARS, CRS und VRS musste nicht ausgewählt werden, weil die Software durch den Kooperationspartner Waimanoo76 entwickelt wurde. In einem weiteren Schritt wurde in den Vorlesungsunterlagen des Grundlagenmoduls der Psycholo-gie nach theoretischen Inhalten gesucht, welche durch die eLearning-Systeme vermittelt werden konnten. Die Inhalte für ARS, CRS und VRS wurden mit dem Praxispartner und Kooperationspartner abgesprochen und vom Kooperationspartner umgesetzt. Die Inhalte von WBS wurden in einem Vi-deo Use Case77 festgehalten und durch Absprachen mit dem Praxispartner angepasst. Nach der Entwicklungsphase waren insbesondere die eLearning-Systeme ARS, CRS und VRS noch nicht ausreichend ausgereift, um von Studierenden genutzt werden zu können. Um dennoch die Technologie Akzeptanz der eLearning-Systeme erfassen zu können, sollten alle eLearning-Systeme als Video Use Cases den Studierenden präsentiert werden. Aus diesem Grund wurden nebst dem Video Use Case von WBS noch die weiteren eLearning-Systeme ARS, CRS, ELS und VRS als Video Use Cases umgesetzt. Die Entwicklung der Video Use Cases aller eLearning-Systeme wird im Folgenden aufgeführt. 3.2.1 Entwicklung der Video Use Cases Die Video Use Cases sollten den Studierenden eine typische Nutzung der eLearning-Systeme ARS, CRS, ELS, VRS und WBS demonstrieren. Dazu wurden Bildschirmaufnahmen aller eLearning-Sys- 76 Vgl. (Wyssenbach, Wyssenbach, Fuss, Loosli & Zeballos, 2017). 77 Use Cases beschreiben Anforderungen von Interaktionen zwischen einer Person und dem System (Moser, 2012, S. 92). Dazu gehört z. B. ein Standardablauf (Moser, 2012, S. 92). Methodik 31 teme sowie auch Inhalte der Vorlesungsunterlagen im Videobearbeitungsprogramm Adobe Premi-ere Pro (Version CS6) zusammengeschnitten. Damit eine grösst mögliche Standardisierung78 er-reicht werden konnte, wurden alle Videos gleich aufgebaut. Dazu wurde erstens eine allgemeine Einleitung gehalten, bei der die Namen der eLearning-Systeme vorgestellt wurden. Zweitens wurden die eLearning-Systeme definiert. Drittens wurde ein Bezug zu Inhalten im Modul geschaffen, welche durch das eLearning-System vermittelt werden könnten. Viertens wurde das eigentliche Use Case des eLearning-Systems dargestellt. Im Folgenden seien die Video Use Cases ARS, CRS, ELS, VRS und WBS grob dargestellt. Es sei darauf hingewiesen, dass alle Video Use Cases detaillierter dem Anhang C entnommen werden können. ARS Video Use Case In der Abbildung 16 ist ein Ausschnitt des Video Use Cases von ARS zu sehen. Das ARS kann durch die Eingabe eines Links im Browser eines Smartphones oder Tablets geöffnet werden. An-hand einer Markierung auf den Vorlesungsfolien (unten im Bild) passt das ARS ein 3D-Gehirn in die Umgebung ein. Durch das Drehen des Smartphones oder Tablets kann das Gehirn aus unterschied-lichen Perspektiven betrachtet werden. Durch das Fixieren einer bestimmten Gehirnregion, wird die entsprechende Bezeichnung des Areals eingeblendet. Beim Ausschnitt in Abbildung 16 wird z. B. die rote Gehirnregion fixiert (Punkt in der Mitte). Deshalb wird die Bezeichnung «Frontallappen» eingeblendet. Abbildung 16: Ausschnitt des Video Use Cases von ARS (Wyssenbach et al., 2017) 78 Die Standardisierung eines Tests ist nach Moosbrugger und Kelava (2012) dann optimal, «wenn die Testperson in der Testsituation die einzige Variationsquelle darstellt. Alle anderen Bedingungen sollen hingegen konstant oder kontrolliert sein, so dass sie nicht als Störvariablen wirken können» (S. 9). Methodik 32 CRS Video Use Case Ein Ausschnitt des Video Use Cases von CRS ist in Abbildung 17 zu sehen. Der Einsatz des CRS beginnt damit, dass Studierende während einer Präsenzveranstaltung von der dozierenden Person eine Frage gestellt bekommen. Die Frage bezieht sich auf den Inhalt einer Veranstaltung und wird auf einer Vorlesungsfolie mit den verschiedenen Antwortmöglichkeiten abgebildet. Abbildung 17: Eine Vorlesungsfolie beim Einsatz von CRS (eigene Darstellung) Die Studierenden werden von der dozierenden Person dazu aufgefordert, die Frage zu beantworten. Dazu wird das Frage- und Antwortformat durch das Scannen des QR-Codes mit einem QR-Code-Reader auf dem Smartphone oder Tablet geöffnet (s. Abbildung 18). Alternativ kann das Frage- und Antwortformat auch durch die Eingabe des Links in einem Browser geöffnet werden. Abbildung 18: Eingabe der Antwort (Wyssenbach et al., 2017) Methodik 33 Durch das Auswählen der entsprechenden Antwort und das Bestätigen durch «Weiter» wird die Antwort an einen Rechner gesendet. Währenddessen projiziert die dozierende Person das Ergebnis mit einem Projektor an die Wand im Vorlesungssaal (s. Abbildung 19). Die Studierenden und auch die dozierende Person können nun die Ergebnisse der Befragung wahrnehmen. Die dozierende Person kann dann in einem weiteren Schritt auf die Antworten eingehen und mit dem Unterricht fortfahren. Abbildung 19: Ergebnis der Befragung durch CRS (Wyssenbach et al., 2017) ELS Video Use Case Ein Ausschnitt des ELS Video Use Cases ist in Abbildung 20 ersichtlich. Der Zugriff auf das ELS beginnt durch das Öffnen eines Links im LMS des Moduls. In einem weiteren Schritt kann das ELS auf dem Streaming-Format SWITCHtube79 genutzt werden, um Vorlesungsinhalte zu repetieren. Dazu sind auf SWITCHtube alle Vorlesungsaufzeichnungen des Semesters für Studierende zugäng-lich. 79 SWITCHtube ist die Abspielplattform für alle Videos und das neue Videoportal für die Schweizer Hochschulgemeinschaft (SWITCH, 2018). Methodik 34 Abbildung 20: Ein Ausschnitt des Use Cases von ELS (SWITCH, 2018) Die E-Lectures dieses Moduls sind mit dem Namen der Vorlesung, dem entsprechenden Vorle-sungsteil und dem entsprechenden Vorlesungsinhalt beschriftet. Durch das Anwählen der entspre-chenden Vorlesungsaufzeichnung per Mausklick kann die Aufzeichnung gestartet werden. VRS Video Use Case Das eLearning-System VRS wurde durch das VRS Video Use Case präsentiert. Eine typische Nut-zung des VRS wird durch das Öffnen eines Links mit dem Smartphone gestartet. Der Link ist in den Vorlesungsunterlagen eines Moduls platziert und kann durch den Browser des Smartphones geöff-net werden. In einem nächsten Schritt wird das Smartphone in das HMD integriert und aufgesetzt (s. Abbildung 21). Abbildung 21: Integration des Smartphones in das HMD (eigene Darstellung) Durch das VRS wird ein theoretischer Gegenstand des Grundlagenmoduls der Psychologie simu-liert. Gemäss Theorie setzen sich alle Farben des Lichts aus drei Farben (rot, grün, blau) zusammen Methodik 35 (Dahm, 2006, S. 43). Beim VRS können diese Farben des Lichts in einer virtuellen Umgebung durch das Verwenden von virtuellen Taschenlampen gemischt werden. Abbildung 22: Zusammenmischen von Lichtfarben (Wyssenbach et al., 2017) WBS Video Use Case Ein Ausschnitt des Video Use Cases von WBS ist in Abbildung 23 ersichtlich. Die Nutzung des WBS beginnt durch eine Einladung per E-Mail. Darin ist das Datum des WBS, ein Zugangslink und ein Passwort enthalten. Am entsprechendem Datum öffnen die Studierenden den Link im Browser des Computers und betreten das WBS. Abbildung 23: Video Use Case von WBS (Adobe, 2017) Pünktlich begrüsst die dozierende Person im WBS die Studierenden über die Videofunktion. Nach-folgend hält die dozierende Person eine Präsentation mittels Screensharing. Während des Webinars Methodik 36 stellen Studierende Fragen in einem Chat an die Lehrperson. Die Fragen werden von der dozieren-den Person aufgegriffen und beantwortet. Nachher führt die dozierende Person mit der Präsentation fort. Am Ende der Veranstaltung verabschiedet sich die dozierende Person bei den Studierenden. Dies wird auch noch von den Studierenden im Chat kommentiert. 3.2.2 Entwicklung des Fragebogens Für die Datenerhebung der empirischen Untersuchung (Kapitel 3.3.1) wurde ein vollstandardisierter Fragebogen80 (TAM 3) verwendet (Anhang F). Hierbei wurde erstens das TAM 3 in Bezug zu den wissenschaftlichen Testgütekriterien81 untersucht. Zweitens wurde das TAM 3 für den eLearning Kontext angepasst. Dafür wurden die Skalen-Items82 von Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] modifiziert. Drittens wurde der Typ der schriftlichen Befragung (Paper-Pencil-Fragebogen83) festgelegt. Viertens wurde der Frage-bogen gestaltet. Fünftens wurde der Fragebogen-Pretest durchgeführt. Schritt 1: Überprüfung der Testgütekriterien Zu Beginn der Entwicklung des Fragebogens wurden die im Kapitel 3.1.1 ausgewählten Determi-nanten Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] auf ihre wissenschaftlichen Testgütekriterien überprüft. Die Überprüfung ergab, dass alle Determinanten übernommen werden konnten, weil die wissenschaftlichen Testgü-tekriterien der Reliabilität84 und Validität85 erfüllt waren (Venkatesh & Bala, 2008, S. 285). Schritt 2: Weiterentwicklung der Skalen-Items In einem nächsten Schritt wurden die den Determinanten Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] zugrunde liegenden Skalen-Items weiterentwickelt. Hierbei wurde zuerst eine Übersetzung von Englisch ins Deutsch vorgenom-men (Anhang D). 80 Ein vollstandardisierter Fragebogen besteht nach Bortz und Döring (2006, S.399) aus Fragen mit Antwortvorgaben, die anzukreuzen oder mit Zahlen zu beantworten sind. 81 Vgl. Kapitel 3.1.1. 82 Skalen-Items nach Bortz und Döring (2006) «sind Fragen, Aussagen oder Aufgaben plus standardisiertem Antwortformat» (S. 269) 83 Ein Paper-Pencil-Fragebogen ist nach Bortz und Döring (2006, S. 400) ein Fragebogen, der ausgedruckt auf Papier vorliegt und mit einem Stift ausgefüllt wird. 84 Vgl. Kapitel 3.1.1. 85 Vgl. Kapitel 3.1.1. Methodik 37 In einem weiteren Schritt musste das Skalen-Item BI2 ausgetauscht werden, weil die Übersetzung des Skalen-Items BI2 der Übersetzung des Skalen-Items BI1 entsprach (Anhang D). Das neue Ska-len-Item BI2 NEU wurde von Punnoose (2012, S. 331) übernommen, welcher das TAM nach (Davis, 1989) reliabel und valide adaptierte (Punnoose, 2012, S.313). Weiter wurden die deutschen Skalen-Items für den Kontext der vorliegenden Arbeit umformuliert (Anhang E). Hierbei wurde bei allen Skalen-Items der Begriff «System» durch den Begriff «eLearn-ing-System» ersetzt. Zudem wurden alle Skalen-Items in den Konjunktiv II86 gesetzt, weil die eLear-ning-Systeme nur als Video Use Cases gezeigt werden konnten (vgl. Kapitel 3.1.1). Auch erforderten die Skalen-Items BI2 NEU, BI3, PEOU4, PU1, PU3, PU4, SN3 und SN4 weitere Überarbeitungen (Anhang E). Schritt 3: Festlegung des Befragungstyps Als die Skalen-Items fertiggestellt waren, wurde der Befragungstyp ausgewählt. Hierbei ist ein Pa-per-Pencil-Fragebogen einem elektronischen Fragebogen87 vorgezogen worden. Der Paper-Pencil-Fragebogen bot im Vergleich zum elektronischen Fragebogen den Vorteil, dass allfällige Probleme durch die Internetverbindung (WLAN) ausgeschlossen werden konnten. Zudem sollten durch den Paper-Pencil-Fragebogen die verschiedenen Antworten zu den eLearning-Systemen besser mitei-nander verglichen und angepasst werden. Schritt 4: Gestaltung des Fragebogens Weil bei allen eLearning-Systemen die TAM 3 Determinanten erfasst werden sollten, enthielt der Fragebogen für jedes eLearning-System eine Seite (Anhang F). Die letzte Fragebogenseite bot zu-dem Platz für schriftliche Rückmeldungen. Gemäss Bortz und Döring (2006, S. 409) werden ansprechend gestaltete Fragebogen von Befra-gungsteilnehmenden besser akzeptiert. Um ein professionelles Aussehen zu garantieren, wurde der Fragebogen im Grafikprogramm Adobe InDesign (Version 13.1) gestaltet. Dabei orientierte sich der Autor an Richtlinien zum Aufbau eines standardisierten Fragebogens nach Bortz und Döring (2006, S. 406). Hierbei beinhaltet ein standardisierter Fragebogen jeweils die Elemente Fragebogentitel, Fragebogeninstruktion, inhaltliche Fragenblöcke, statistische Angaben, Fragebogen-Feedback und Verabschiedung. Auf den ersten fünf Fragebogenseiten wurden die Fragebogentitel Augmented Re-ality System, Classroom Response System, E-Lecture88, Virtual Reality System und Webinar gesetzt 86 Der Konjunktiv II wird als Ausdruck des nur Vorgestellten oder des Möglichen verwendet (Schneider, Osterwinter, Steinhauer & Hen-nig, 2016, S. 79). 87 Ein elektronischer Fragebogen ist nach Bortz und Döring (2006, S. 400) ein Fragebogen, der auf einem Computermedium ausgefüllt wird. 88 Zu diesem Zeitpunkt wurden eLearning-Systeme noch technologisch interpretiert. Methodik 38 (Anhang F). Zudem wurden Bilder der entsprechenden eLearning-Systeme platziert. Auch wurden die inhaltlichen Frageblöcke gestaltet. Hierbei wurde darauf geachtet, dass die Befragten gedanklich nicht springen mussten. Daher wurden die Skalen-Items der entsprechenden Fragenblocks Behavi-oral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] gruppiert dargestellt. Für die Antwort-Skala wurde die 7-er Likert-Skala von Venkatesh und Bala (2008, S. 313-314) übernommen. Diese wurde in die deutsche Sprache übersetzt. Weil gewisse Ausprägungen der Original-Skala von Venkatesh und Bala (2008, S. 313-314) schwierig ins Deut-sche übersetzt werden konnten, wurden ausschliesslich die beiden Pole «stimme überhaupt nicht zu» und «stimme stark zu» verwendet. Die entsprechenden Ausprägungen dazwischen sollten durch die Zahlen (1-7) gewährleistet werden. Beim Fragebogen wurden keine soziodemografischen Merkmale, wie z. B. das Alter und das Ge-schlecht gesetzt, um damit Rückschlüsse zu Personen zu verhindern. Die von Bortz und Döring (2006, S. 406) vorgeschlagenen Fragebogenelemente Fragebogeninstruktion und Verabschiedung wurden im Fragebogen nicht platziert. Dies deshalb, weil die Fragebogeninstruktion und Verabschie-dung mündlich gehalten wurde (Kapitel 3.3.1). Schritt 5: Fragebogen-Pretests Der Fragebogen der vorliegenden Untersuchung wurde zwei Fragebogen-Pretests89 unterzogen. Hierbei war das Ziel allfällige Schwachstellen des Fragebogens aufzudecken (vgl. Bortz & Döring, 2006, S. 411). Zudem sollten Rückschlüsse auf die Befragungsdauer gemacht werden können. Beim ersten Fragebogen-Pretest wurde der Fragebogen drei Arbeitskollegen vorgelegt. In einem ersten Schritt sollten sich diese an ein im Meeting präsentiertes eLearning-System erinnern. Zwei-tens wurde der Fragebogen in Bezug zum präsentierten eLearning-System ausgefüllt. Während des Ausfüllens des Fragebogens bekamen die Teilnehmenden die Aufgabe, Unklarheiten schriftlich auf dem Fragebogen zu notieren. Am Schluss des Fragebogen-Pretests gaben die Teilnehmenden in eigenen Worten kurz Feedback. Beim zweiten Fragebogen-Pretest wurde der Fragebogen zwei Studierenden gezeigt, die das Grundlagenmodul der Psychologie bereits abgeschlossen hatten. Der Fragebogen-Pretest mit den Studierenden lief im Wesentlichen gleich ab, wie der Fragebogen-Pretest mit den Arbeitskollegen. Erstens wurde das eLearning-System CRS als Video Use Case gezeigt, nachfolgend der Fragebo-gen ausgefüllt. Beim Ausfüllen hielten die Studierenden ihr Feedback auf Papier fest. Abschliessend konnten die Teilnehmenden zudem noch mündliches Feedback zum Fragebogen geben. 89 Um mögliche Probleme der Befragungspersonen beim Beantworten eines Fragebogens aufzudecken, werden Fragebogen-Pretests eingesetzt (Bortz & Döring, 2006, S. 411). Methodik 39 Dabei sorgten die auf dem Fragebogen enthaltenen Skalenabkürzungen BI1, BI2, BI3, PEOU1, PEOU2, PEOU3, PEOU4, PU1, PU2, PU3, PU4, SN1, SN2, SN3, SN4 für Irritationen. Auch wurde teilweise die Satzstellung kritisiert, was wohl mit der Übersetzung von Englisch auf Deutsch zu tun hatte. Sämtliche Rückmeldungen wurden in den neuen Fragebogen integriert. 3.3 Durchführung der empirischen Untersuchung Für die Durchführung der empirischen Untersuchung am 20. Dezember 2017 stand ein Zeitfenster von einer Lektion (45 Minuten) zur Verfügung. Hierbei wurde zuerst in die Thematik eingeleitet (An-hang G) und die Fragestellung der Bachelorarbeit präsentiert (Anhang H). Zweitens wurde der Ab-lauf der Datenerhebung (Anhang I) erklärt. Drittens wurde der Aufbau der Video Use Cases be-schrieben (Anhang J). Viertens wurde eine Fragebogeninstruktion gehalten (Anhang K). Fünftens fand die Datenerhebung statt. Auf diese wird im Folgenden detaillierter eingegangen. 3.3.1 Datenerhebung Die Datenerhebung war der Hauptteil der Durchführung der empirischen Untersuchung. Hierbei wur-den Studierenden abwechslungsweise Video Use Cases der eLearning-Systeme gezeigt und Fra-gebogenseiten zu den eLearning-Systemen ausgefüllt. Die Reihenfolge der Befragung wurde alphabetisch nach dem Namen der eLearning-Systeme (ARS, CRS, ELS, VRS, WBS) vorgenommen. Zuerst wurde das Video Use Case des eLearning-Systems ARS gezeigt. Nach dem Video wurden die Studierenden gebeten, den Fragebogen auszufüllen. Da-für standen drei Minuten Zeit zur Verfügung. In der zweiten Runde wurde das Video Use Case des CRS gezeigt. Nach der Darstellung wurden die Studierenden gebeten, den Fragebogen zum CRS auszufüllen. Dafür waren wieder drei Minuten Zeit gegeben. Dieses Vorgehen wiederholte sich auch bei den weiteren eLearning-Systemen ELS, VRS und WBS. Am Ende der Befragung hatten die Teilnehmenden fünf Minuten Zeit die gegebenen Antworten aller Fragebogenseiten (ARS, CRS, ELS, VRS und WBS) aneinander anzugeichen. Zudem wurden fünf Minuten dafür eingesetzt, damit die Studierenden ein schriftliches Feedback auf der letzten Fragebogenseite geben konnten. Nach Ablauf der Zeit konnten die Studierenden Fragen stellen. Eine Frage war, weshalb bestehende eLearning-Systeme ELS und nicht bestehende eLearning-Systeme (ARS, CRS, VRS und WBS) ge-meinsam erhoben wurden. Hierbei wurde vom Autor argumentiert, dass ein Vergleich zwischen der Technologie Akzeptanz von bestehenden und nicht bestehenden eLearning-Systemen gemacht werden könnte. Weitere Fragen blieben aus. Am Ende des Termins bedankte sich der Autor bei den Methodik 40 Studierenden und verwies für weitere Rückfragen auf seine E-Mail-Adresse. Zuallerletzt wurden die Studierenden verabschiedet. Insgesamt wurde der Fragebogen von N = 99 Studierenden ausgefüllt. Dies entspricht bei 133 ver-teilten Fragebogen einer Rücklaufquote von 74%. Es folgten keine weiteren Fragen per E-Mail. 3.3.2 Datenauswertung Die Datenauswertung begann mit dem Nummerieren und Zählen der ausgefüllten Paper-Pencil-Fra-gebogen. In einem weiteren Schritt wurden die Antworten der Fragebogen manuell in das Statistik-programm SPSS (Version 25) eingegeben. Hierbei wurde zuerst pro ausgefülltem Fragebogen eine ID Nummer erstellt (Anhang L). Zudem wurden die Namen der Skalen-Items sowie auch deren Werte und Messniveaus eingegeben. In einem weiteren Schritt wurden alle Fragebogenantworten in der Datenansicht eingetragen (Anhang M). Fehlende und unlesbare Antworten wurden speziell gekennzeichnet. In einem weiteren Schritt wurden bei ARS, CRS, ELS, VRS und WBS die Mittel-werte der Skalen Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] gebildet (Anhang P). Anhand dieser Grundlage konnte die Einfak-torielle Varianzanalyse mit Messwiederholung im SPSS durchgeführt werden. Um die Einfaktorielle Varianzanalyse mit Messwiederholung durchführen zu können, mussten einige Voraussetzungen überprüft werden. Hierbei wurde zuerst die Normalverteilung aller Skalen über-prüft (Zöfel, 2011, S. 195). Diese war nicht gegeben. Weil bei der vorliegenden Arbeit jedoch N = 9990 vorherrscht, konnte trotz Verletzung dieser Voraussetzung weitergefahren werden (Schwarz & Bruderer Enzler, 2018). Eine weitere Voraussetzung für eine Einfaktorielle Varianzanalyse mit Mess-wiederholung ist die Varienzenhomogenität der Stichproben (vgl. Zöfel, 2011, S. 195). Die Vari-anzenhomogenität der Stichproben Behavioral Intention [BI], Perceived Ease of Use [PEOU], Per-ceived Usefulness [PU] und Subjective Norm [SN] wurde durch den Mauchly-Test auf Sphärizität überprüft (vgl. Schwarz & Bruderer Enzler, 2018). Hierbei wurde bei den Stichproben Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] Signifikanz festgestellt (Anhang O). Das bedeutet, dass keine Sphärizität vorherrschte (vgl. Schwarz & Bruderer Enzler, 2018). Aus diesem Grund mussten die Freiheitsgrade [df] der Signifikanztests mit dem Korrekturfaktor Epsilon [ε] nach Huynh-Feldt multipliziert werden (vgl. Schwarz & Bruderer Enzler, 2018). Dies machte das SPSS automatisch. 90 Ab > 25 Probanden pro Zeitpunkt sind Verletzungen in der Regel unproblematisch (Schwarz & Bruderer Enzler, 2018). Methodik 41 Nachdem die Voraussetzungen für die Einfaktorielle Varianzanalyse erfüllt waren, sollten die vier Hypothesen der Bachelorarbeit (vgl. Kapitel 1.3) überprüft werden. Die Hypothesen H1, H2, H3 und H4 wurden alle durch die Einfaktorielle Varianzanalyse mit Messwiederholung beantwortet. Hierbei wurde überprüft, ob sich die eLearning-Systeme ARS, CRS, ELS, VRS und WBS signifikant bezüg-lich der Mittelwerte [M] von Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] unterscheiden (Anhang P). Dafür wurde mittels der F-Statistik die Variabilität zwischen den eLearning-Systemen gegen die Restvariabilität getestet (vgl. Zöfel, 2011, S. 196). Dazu wurden durch das Ausführen der Einfaktoriellen Varianzanalyse mit Messwiederholung im SPSS, Tests der Innersubjekteffekte ausgegeben (Anhang Q). Weil nicht von Sphärizität ausgegangen werden konnte, wurde der sogenannte Haupteffekt der Messwiederholung durch Huynh-Feldt korrigiert (vgl. Schwarz & Bruderer Enzler, 2018). Obwohl der F-Test zeigte, dass ein Haupteffekt der eLearning-Systeme besteht, sollte durch Post-hoc-Tests überprüft werden, zwischen welchen eLearning-Systemen signifikante Unterschiede be-züglich Behavioral Intention [BI], Perceived Ease of Use [PEOU], Perceived Usefulness [PU] und Subjective Norm [SN] bestehen (vgl. Zöfel, 2011, S. 198-199). Hierbei wurde der Test nach Bonfer-roni verwendet (vgl. Zöfel, 2011, S. 213). Die Ergebnisse des Post-hoc-Tests mit Bonferroni Korrek-tur sind in Anhang R dargestellt. Ergebnisse 42 4 Ergebnisse In diesem Kapitel werden die Ergebnisse der Datenauswertung (Kapitel 3) dargestellt. Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS können bezüglich ihrer Mittelwerte in BI, PEOU, PU und SN in die gleiche Rangreihenfolge gebracht werden. Das ELS hat bezüglich BI (M = 6.10, SD = 1.17), PEOU (M = 6.21, SD = 0.74), PU (M = 5.51, SD = 1.10) und SN (M = 5.65, SD = 0.99) den höchsten Mittelwert. Somit wird das ELS dem Rang 1 zugeordnet (s. Tabelle 5). Das CRS hat bezüglich BI (M = 5.60, SD = 1.29), PEOU (M = 5.78, SD = 1.06), PU (M = 4.94, SD = 1.20) und SN (M = 5.38, SD = 1.03) den zweit höchsten Mittelwert (Rang 2). Der Rang 3 wird dem WBS zugeordnet, weil das WBS bezüglich BI (M = 5.20, SD = 1.54), PEOU (M = 5.38, SD = 1.08), PU (M = 4.83, SD = 1.47) und SN (M = 4.98, SD = 1.26) am dritt höchsten bewertet wird. Das ARS hat bezüglich BI (M = 4.61, SD = 1.61), PEOU (M = 4.64, SD = 1.22), PU (M = 4.08, SD = 1.39) und SN (M = 4.59, SD = 1.15) den viert höchsten Mittelwert. Somit wird dem ARS den Rang 4 zugeteilt. An letzter Stelle steht auf Rang 5 das VRS. Mit BI (M = 3.50, SD = 1.77), PEOU (M = 4.41, SD = 1.33), PU (M = 3.08, SD = 1.52) und SN (M = 3.87, SD = 1.27) weist dieses eLearning-System die nied-rigsten Mittelwerte auf. Tabelle 5: Geordnete Häufigkeiten aller eLearning-Systeme in BI, PEOU, PU und SN Rang System BI PEOU PU SN M SD N M SD N M SD N M SD N 1 ELS 6.10 1.17 91 6.21 0.74 95 5.51 1.10 95 5.65 0.99 94 2 CRS 5.60 1.29 91 5.78 1.06 95 4.94 1.20 95 5.38 1.03 94 3 WBS 5.20 1.54 91 5.38 1.08 95 4.83 1.47 95 4.98 1.26 94 4 ARS 4.61 1.61 91 4.64 1.22 95 4.08 1.39 95 4.59 1.15 94 5 VRS 3.50 1.77 91 4.41 1.33 95 3.08 1.52 95 3.87 1.27 94 Anmerkung: «System» ist eine Abkürzung von eLearning-System Hypothese 1 [H1]: Eine Varianzanalyse mit Messwiederholung (Sphärizität nicht angenommen: Huynh-Feldt(9) = .860, Irrtumswahrscheinlichkeit91 [p] = .000) zeigt, dass die eLearning-Systeme ARS, CRS, ELS, VRS und WBS mit Behavioral Intention [BI] zusammenhängen (F(3.440,309.557) = 51.109, p = .00, partielles Eta-Quadrat [η2] = .362, n = 91) (s. Anhang Q). Bonferroni-korrigierte paarweise Vergleiche zeigen, dass sich nicht alle eLearning-Systeme in Bezug zu BI signifikant unterscheiden (s. Anhang R). 91 Für die vorliegende Arbeit gilt eine Irrtumswahrscheinlichkeit [p] von ≤ 0‚05 (Zöfel, 2011, S. 45). Ergebnisse 43 Nichtdestotrotz ist BI von ELS (M = 6.10, Standardabweichung [SD] = 1.17) signifikant höher ist als BI von CRS (M = 5.60, SD = 1.29), WBS (M = 5.20, SD = 1.54), ARS (M = 4.61, SD = 1.61) und VRS (M = 3.50, SD = 1.77). Zudem ist BI von CRS (M = 5.60, SD = 1.29) signifikant höher als ARS (M = 4.61, SD = 1.61) und VRS (M = 3.50, SD = 1.77). BI von WBS (M = 5.20, SD = 1.54) ist signifikant höher als von VRS (M = 3.50, SD = 1.77). Die eLearning-Systeme ARS und WBS unter-scheiden sich in BI nicht signifikant. Auch gibt es keine signifikanten Unterschiede von BI bei CRS und WBS. Die Effektstärke f nach (Cohen, 1988) liegt bei 0.75 und entspricht einem starken Effekt. Hypothese 2 [H2]: Eine Varianzanalyse mit Messwiederholung (Sphärizität nicht angenommen: Huynh-Feldt(9) = .867, p = .000) zeigt, dass die eLearning-Systeme ARS, CRS, ELS, VRS und WBS mit Perceived Ease of Use [PEOU] zusammenhängen (F(3.467, 325.859) = 65.664, p = .00, partielles η2 = .411, n = 95) (s. Anhang Q). Bonferroni-korrigierte paarweise Vergleiche zeigen, dass sich nicht alle eLearning-Sys-teme in Bezug zu PEOU signifikant unterscheiden (s. Anhang R). Nichtdestotrotz ist PEOU von ELS (M = 6.21, SD = 0.74) signifikant höher als von CRS (M = 5.78, SD = 1.06), WBS (M = 5.38, SD = 1.08), ARS (M = 4.64, SD = 1.22) und VRS (M = 4.41, SD = 1.33). Zudem ist PEOU von CRS (M = 5.78, SD = 1.06) signifikant höher als PEOU von WBS (M = 5.38, SD = 1.08), ARS (M = 4.64, SD = 1.22) und VRS (M = 4.41, SD = 1.33). PEOU von WBS (M = 5.38, SD = 1.08) ist signifikant höher als von ARS (M = 4.64, SD = 1.22) und VRS (M = 4.41, SD = 1.33). Die eLearning-Systeme ARS (M = 4.64, SD = 1.22) und VRS (M = 4.41, SD = 1.33) unterscheiden sich bezüglich PEOU nicht signifikant. Die Effektstärke f nach (Cohen, 1988) liegt bei 0.84 und entspricht einem starken Effekt. Hypothese 3 [H3]: Eine Varianzanalyse mit Messwiederholung (Sphärizität nicht angenommen: Huynh-Feldt(9) = .925, p = .016) zeigt, dass die eLearning-Systeme ARS, CRS, ELS, VRS und WBS mit Perceived Useful-ness [PU] zusammenhängen (F(3.7,347.815) = 66.908, p = .00, partielles η2 = .416, n = 95) (s. Anhang Q). Bonferroni-korrigierte paarweise Vergleiche zeigen, dass sich alle eLearning-Systeme in Bezug zu PU signifikant unterscheiden (s. Anhang R). PU von ELS (M = 5.51, SD = 1.10) ist signifikant höher als von CRS (M = 4.94, SD = 1.20), WBS (M = 4.83, SD = 1.47), ARS (M = 4.08, SD = 1.39) und VRS (M = 3.08, SD = 1.52). Zudem ist PU von CRS (M = 4.94, SD = 1.20) signifikant höher als PU von WBS (M = 4.83, SD = 1.47), ARS (M = 4.08, SD = 1.39) und VRS (M = 3.08, SD = 1.52). PU von WBS (M = 4.83, SD = 1.47) ist signifikant höher als PU von ARS (M = 4.08, SD = 1.39) und VRS (M = 3.08, SD = 1.52). Ergebnisse 44 PU von ARS (M = 4.08, SD = 1.39) ist signifikant höher als von VRS (M = 3.08, SD = 1.52).Die Effektstärke f nach (Cohen, 1988) liegt bei 0.84 und entspricht einem starken Effekt. Hypothese 4 [H4]: Eine Varianzanalyse mit Messwiederholung (Sphärizität nicht angenommen: Huynh-Feldt(9) = .92, p = .006) zeigt, dass die eLearning-Systeme ARS, CRS, ELS, VRS und WBS mit Subjective Norm [SN] zusammenhängen (F(3.678,342.087) = 58.269, p = .00, partielles η2 = .385, n = 94) (s. Anhang Q). Bonferroni-korrigierte paarweise Vergleiche zeigen, dass sich nicht alle eLearning-Systeme in Bezug zu SN signifikant unterscheiden (s. Anhang R). SN von ELS (M = 5.65, SD = 0.99) ist signifi-kant höher als SN von WBS (M = 4.98, SD = 1.26), ARS (M = 4.59, SD = 1.15) und VRS (M = 3.88, SD = 1.27). Zudem ist SN von CRS (M = 5.38, SD = 1.03) signifikant höher als SN von WBS (M = 4.98, SD = 1.26), ARS (M = 4.59, SD = 1.15) und VRS (M = 3.88, SD = 1.27). SN von WBS (M = 4.98, SD = 1.26) ist signifikant höher als SN von ARS (M = 4.59, SD = 1.15) und VRS (M = 3.88, SD = 1.27). SN von ARS (M = 4.59, SD = 1.15) ist signifikant höher als von VRS (M = 3.88, SD = 1.27). SN von ELS (M = 5.65, SD = 0.99) unterscheidet sich nicht signifikant von CRS (M = 5.38, SD = 1.03). Die Effektstärke f nach (Cohen, 1988) liegt bei 0.79 und entspricht einem starken Effekt. Diskussion 45 5 Diskussion 5.1 Interpretation der Ergebnisse Bei der Datenauswertung wurde untersucht, wie die eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den TAM 3 Determinanten BI, PEOU, PU und SN von Studierenden bewertet werden. Hier-bei wurde festgestellt, dass die eLearning-Systeme ARS, CRS, ELS und WBS in allen TAM 3 De-terminanten überdurchschnittlich92 bewertet wurden. Das heisst, dass die Studierenden die ebenge-nannten eLearning-Systeme im Mittel positiv bezüglich BI, PEOU, PU und SN bewerteten. Das VRS wurde bezüglich den Determinanten BI, PEOU, PU und SN am schlechtesten beurteilt. Insbeson-dere ein niedriger Mittelwert in PU führt vermutlich dazu, dass BI nur durchschnittlich ausfällt (vgl. Kapitel 2.4). Zudem konnte festgestellt werden, dass das ELS in allen Determinanten am besten beurteilt wurde (Rang eins). Das hat vermutlich damit zu tun, dass das ELS bereits im Grundlagenmodul der Psy-chologie eingesetzt wird. Am zweitbesten (Rang zwei) wurde in allen TAM 3 Determinanten das CRS bewertet. Das bedeutet, dass die Studierenden das CRS nützlicher (PU), bedienungsfreundli-cher (PEOU) und sozial erwünschter (SN) finden, als WBS, ARS und VRS. Auch kann angenommen werden, dass Studierende die zusätzliche Interaktion durch CRS in Präsenzveranstaltungen nützlich fänden (vgl. Kapitel 2.3.2). Am drittbesten (Rang drei) wurde in allen TAM 3 Determinanten das WBS eingestuft. Hierbei hat die hohe BI vermutlich mit der hohen Ausprägung in den Determinanten PU und PEOU zu tun. Weshalb bei WBS PEOU und PU niedriger als von CRS eingeschätzt werden bleibt ungeklärt. Am viertbesten (Rang vier) wurde das ARS eingestuft. Das ARS wird bezüglich BI, PEOU, PU und SN vermutlich schlechter als ELS, CRS und WBS bewertet, weil dies ein bisher unbekanntes eLearning-System ist. Nichtdestotrotz hat das ARS überdurchschnittliche Mittelwerte bezüglich BI, PEOU, PU und SN. Am schlechtesten (Rang fünf) wurde in allen Determinanten das VRS bewertet. Insbesondere bezüglich PU sehen die Studierenden bisher einen niedrigen Nutzen des VRS. Das kann damit zu tun haben, dass vergleichsweise viel Aufwand erforderlich ist, um das eLearning-System zu nutzen (vgl. Kapitel 3.2.1). 92 Bei einer 7-er Likert-Skala mit den Polen «1 – stimme überhaupt nicht zu» bis «7 – stimme stark zu» ist eine Bewertung über 3.5 überdurchschnittlich. Diskussion 46 Durch die Überprüfung der Hypothesen H1, H2, H3 und H4 konnte zudem festgestellt werden, dass sich alle eLearning-Systeme ARS, CRS, ELS, VRS und WBS nur bezüglich PU signifikant unter-scheiden (s. Tabelle 6). Dennoch unterschieden sich die eLearning-Systeme innerhalb der Gruppen (BI, PEOU, PU, SN) meistens signifikant (Anhang R). Tabelle 6: Zusammenfassung der geprüften Hypothesen H1, H2, H3 und H4 Hypothesen Bestätigt H1 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Behavioral Intention [BI]. Teilweise bestätigt H2 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Ease of Use [PEOU]. Teilweise bestätigt H3 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Usefulness [PU]. Vollständig bestätigt H4 Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Subjective Norm [SN]. Teilweise bestätigt Die Hypothese H1 «Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Behavioral Intention [BI]» liess sich teilweise bestätigen. Insbesondere das ELS wurde in Bezug zu BI signifikant höher bewertet als die restlichen eLearning-Systeme CRS, WBS, ARS und VRS. Dies hat wie bereits erwähnt vermutlich damit zu tun, dass das ELS bereits genutzt wurde. Die Bewertung des CRS bezüglich BI fiel signifikant höher als die der eLearning-Systeme ARS und VRS aus. Dieser Unterschied hat vielleicht damit zu tun, dass Studierende gerne einen interaktiveren Präsenzunterricht hätten (vgl. Kapitel 2.3.2). Es kann auch angenommen werden, dass BI von ARS und VRS signifikant tiefer als bei CRS bewertet wurde, weil die Use Cases von ARS und VRS die Nutzung ausserhalb der regulären Schulzeit vorgeschlagen haben. Womöglich wurde eine Nutzung ausserhalb der Schulzeit mit einem zeitlichen Mehraufwand interpretiert, der sich in tieferen BI Werten äusserte. BI von WBS wurde signifikant höher als BI von VRS bewertet. Das könnte damit zu tun haben, dass der Aufwand bei der WBS Nutzung geringer eingeschätzt wurde als beim VRS. Während dem durch das WBS eine Präsenzveranstaltung ersetzt werden könnte, müsste beim VRS ausserhalb des Moduls zusätzlich mit VRS gelernt werden. Vielleicht haben Studierende eine niedrige BI ausserhalb der Präsenzveranstaltung den Lerngegenstand zu repetieren. Unklar ist, weshalb das WBS bezüglich BI nicht signifikant unterschiedlich als ARS be-wertet wurde. Auch blieben die nicht signifikanten Unterschiede zwischen CRS und WBS ungeklärt. Die Hypothese H2 «Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Perceived Ease of Use [PEOU]» liess sich teilweise bestätigen. Das eLearning- Diskussion 47 System ELS wurde in Bezug zu PEOU signifikant höher bewertet als die weiteren eLearning-Sys-teme CRS, WBS, ARS, VRS. Auch hier wurde das ELS vermutlich signifikant am besten bewertet, weil etwas Bekanntes wohl auch einfacher in der Nutzung eingeschätzt wird. Weiter wurde PEOU von CRS signifikant höher bewertet als PEOU von WBS. Ein Grund für diesen Unterschied konnte im Rahmen dieser Arbeit jedoch nicht geklärt werden. PEOU von WBS wurde auch signifikant höher als von ARS und VRS bewertet. Hierbei wird angenommen, dass WBS bereits in der Vergangenheit schon genutzt wurden. Die Nutzung von ARS und VRS wurde jedoch für die Bachelorarbeit erfun-den. Dementsprechend kann angenommen werden, dass PEOU durch die fehlende Erfahrung mit den Systemen ARS und VRS signifikant tiefer eingeschätzt wurde. Ein weiterer Hinweis dazu ist auch die fehlende Signifikanz zwischen ARS und VRS bezüglich PEOU. Es wird angenommen, dass PEOU von den Systemen ARS und VRS schwer eingeschätzt werden konnte. Die Hypothese H3 ist die einzige Hypothese der Bachelorarbeit, welche vollständig bestätigt werden konnte. Alle eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterschieden sich in Bezug zu PU signifikant. Das spricht dafür, dass der Nutzen der verschiedenen eLearning-Systeme von den Studierenden klar wahrgenommen wurde. Hierbei wurde das eLearning-System ELS am besten be-wertet (Rang eins). Das CRS wurde bezüglich PU am zweitbesten beurteilt (Rang zwei), vor dem WBS (Rang drei), ARS (Platz vier) und VRS (Platz fünf). Es kann angenommen werden, dass das ELS auch bei PU signifikant am besten beurteilt wurde, weil Studierende bereits gute Erfahrungen mit dem System machten. Dass CRS die zweit höchste Ausprägung von PU aufwies, hat womöglich damit zu tun, dass Studierende die zusätzliche Interaktion durch CRS in Präsenzveranstaltungen nützlich fanden (vgl. Kapitel 2.3.2). Der Unterschied zwischen CRS und WBS bezüglich PU ist schwer interpretierbar. Womöglich bevorzugen die Studierenden Präsenzveranstaltungen gegen-über virtuellen Veranstaltungen. PU bei ARS und VRS wurden womöglich am niedrigsten bewertet, weil die Studierenden noch keine Erfahrung mit diesen beiden Systemen hatten. Der signifikante Unterschied zwischen ARS und VRS bezüglich PU hat womöglich damit zu tun, dass Studierende die Nutzung von VRS aufwändiger als diejenige von ARS fanden. Die vierte Hypothese der Bachelorarbeit «Die eLearning-Systeme ARS, CRS, ELS, VRS und WBS unterscheiden sich signifikant bezüglich Subjective Norm [SN]» liess sich nur teilweise bestätigen. Zunächst wurde das ELS bezüglich SN signifikant höher bewertet als WBS, ARS und VRS. Dass das ELS am besten bezüglich SN bewertet wurde hat vermutlich damit zu tun, dass bereits erfahren wurde, dass das Umfeld den Einsatz von ELS akzeptiert. Auch wurde das CRS bezüglich SN höher bewertet als SN von WBS, ARS und VRS. Gründe hierfür könnte womöglich sein, dass Studierende wussten, das CRS bereits an anderen Hochschulen eingesetzt werden. Dementsprechend wurde erwartet, dass auch das Umfeld an der APS einer Nutzung von CRS eher positiv gegenübersteht. Der Grund weshalb WBS bezüglich SN signifikant besser als ARS und VRS beurteilt wurde, hat vielleicht mit PU zu tun. Womöglich übertrugen die Studierenden die eigene Wahrnehmung von PU Diskussion 48 bezüglich ARS und VRS auf das Umfeld. Dies ist vielleicht auch der Grund, weshalb dass SN von ARS signifikant höher als von VRS bewertet wurde. Es wurden keine signifikanten Unterschiede durch die H4 zwischen ELS und CRS gefunden. Eine mögliche Interpretation lässt sich jedoch keine finden. 5.2 Fazit Das Ziel der vorliegenden Arbeit war den Praxispartner bei der Auswahl von eLearning-Systemen für das Grundlagenmodul der Psychologie zu unterstützen. Durch die Untersuchung der Fragestel-lung «Wie werden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS in den TAM 3 Determi-nanten BI, PEOU, PU und SN bewertet?» wurden die eLearning-Systeme ARS, CRS, ELS, VRS und WBS vergleichbar gemacht. Grundsätzlich wurden alle eLearning-Systeme (ausser das VRS) überdurchschnittlich bezüglich BI, PEOU, PU und SN bewertet. Dies spricht dafür, dass die Mehrheit der Studierenden die eLearning-Systeme ARS, CRS, ELS und WBS nutzen (Use Behavior) würde. Zudem kann durch die Ergebnisse in BI erwartet werden, dass das ELS das System mit dem stärks-ten Technologie Akzeptanz Verhalten (Use Behavior) wäre. Aus diesem Grund sollte das ELS auch weiterhin im Grundlagenmodul der Psychologie eingesetzt werden. Das zweit stärkste Technologie Akzeptanz Verhalten (Use Behavior) ist beim CRS bezüglich BI zu erwarten. Aus diesem Grund wird das CRS als zweite Wahl empfohlen. Weil das WBS die drittgrösste BI aufweist, sollte das WBS als dritte Wahl im Grundlagenmodul eingesetzt werden. Zudem ist als vierte Wahl das ARS zu empfeh-len, weil das ARS bezüglich BI am vierthöchsten bewertet wurde. Lediglich der Einsatz des VRS sollte in dieser Form überdacht werden, weil durch BI nur ein durchschnittliches Technologie Akzep-tanz Verhalten erwartet werden kann (Use Behavior). Mit SD = 1.77 bedeutet dies, dass viele Stu-dierenden das VRS kaum nutzen würden. Durch Tests auf signifikante Unterschiede wurde zudem überprüft, ob sich die eLearning-Systeme ARS, CRS, ELS, VRS und WBS bezüglich BI, PEOU, PU und SN signifikant unterscheiden. Hierbei wurde festgestellt, dass alle eLearning-Systeme von den Studierenden nur bezüglich PU signifikant unterschiedlich bewertet wurden. Es wird dennoch nicht angenommen, dass die Unterschiede aus Zufall entstanden sind. Dies deshalb, weil alle eLearning-Systeme bei allen TAM 3 Determinanten in die gleichen Reihenfolgen bezüglich der Häufigkeit der Mittelwerte zugeteilt werden konnten. Aus-serdem weisen die meisten eLearning-Systeme innerhalb der Determinanten BI, PEOU und SN sig-nifikante Unterschiede auf. Aus diesem Grund kann davon ausgegangen werden, dass die fehlende Signifikanz durch eine methodische Limitation der vorliegenden Arbeit entstanden ist. Hierbei wird erwartet, dass dies mit der Darstellung der Video Use Cases zu tun hat. Diese Thematik wird in der kritischen Würdigung (Kapitel 5.3) ausführender diskutiert. Diskussion 49 5.3 Kritische Würdigung Durch diese Bachelorarbeit konnten die eLearning-Systeme ARS, CRS, ELS, VRS und WBS durch Determinanten des TAM 3 bewertet und verglichen werden. Die Interpretation (Kapitel 5.1) und auch das Fazit (Kapitel 5.2) bieten dem Praxispartner ein Vergleich der eLearning-Systeme bezüglich den ausgewählten TAM 3 Determinanten. Eine umfassende Beurteilung der eLearning-Systeme durch das TAM 3 ist jedoch nicht möglich, weil durch Technologie Akzeptanz nur ein einziges Konstrukt der Realität abgebildet wird. Womöglich haben auch Konstrukte wie Attitudes, Digital Literacy, En-gagement, Perceptions, etc. einen Einfluss darauf ob eLearning-Systeme genutzt werden (vgl. Liaw & Huang, 2003; Liaw, Huang & Chen, 2007; Ng, 2012; Wang, Bergin & Bergin, 2014). Zu Beginn dieser Arbeit war geplant ein ARS, CRS, ELS, VRS und WBS von Studierenden nutzen zu lassen, um nachfolgend die TAM 3 Determinanten zu erfassen (vgl. Kapitel 1.1). Weil nicht alle eLearning-Systeme ausreichend ausgereift waren, wurden die eLearning-Systeme durch Video Use Cases den Studierenden nähergebracht (vgl. Kapitel 3.2.1). Dies ist als Limitation zu verstehen, weil im TAM 3 die Technologie Akzeptanz nach der tatsächlichen Nutzung von Systemen erhoben wird (Venkatesh & Bala, 2008, S. 282-283). Anderseits kann dies auch als Mehrwert verstanden werden, weil die frühe Beurteilung von eLearning-Systemen in der Produktentwicklung auch Fehleinsätze von eLearning-Systemen verhindern kann (vgl. Davis & Venkatesh, 2004, S. 31). Trotz der fehlen-den Signifikanz in den Unterschieden bezüglich BI, PEOU und SN wurde dennoch daran festgehal-ten, dass die eLearning-Systeme in der Reihenfolge ELS, CRS, WBS, ARS zu empfehlen sind. Dies kann sehr wohl kritisiert werden, weil eine Reihenfolge auch Unterschiede zwischen den eLearning-Systemen suggeriert – welche jedoch nicht signifikant waren. Dennoch wurde eine Empfehlung ab-gegeben, weil dieser Trend sich bei allen TAM 3 Determinanten wiederholte. Die Ergebnisse der vorliegenden Arbeit sollten insofern interpretiert werden, dass es eine Tendenz gibt, welche dazu beiträgt, dass die eLearning-Systeme ELS, CRS, WBS und ARS zu Technologie Akzeptanz Verhalten führen. Durch die Bachelorarbeit konnte die eigentliche Technologie Akzep-tanz von eLearning-Systemen durch Video Use Cases jedoch nicht gemessen werden. Dennoch gibt es Beiträge in der Literatur, welche hohe Korrelationen zwischen eLearning-System Use Cases und den richtigen eLearning-Systemen finden. Hierbei scheinen insbesondere BI und PU gute De-terminanten zu sein (vgl. Davis & Venkatesh, 2004, S. 41-42). PEOU ist jedoch weniger geeignet und bei SN liegen keine Ergebnisse vor (vgl. Davis & Venkatesh, 2004, S. 41-42). Weitere Limitationen sind durch die Literatur der eLearning-Systeme gegeben. Einerseits gibt es wenig Literatur zu ARS und VRS, weil AR und VR noch selten im Bildungsbereich eingesetzt werden (vgl. Kapitel 2.3.1 & Kapitel 2.3.2). Anderseits werden eLearning-Systeme in der Literatur sehr kont-rovers diskutiert. Zunächst werden bei eLearning-Systemen wie ARS, ELS, VRS und WBS haupt-sächlich Technologien in den Vordergrund gestellt (vgl. Kapitel 2.3). Beim CRS steht in der Literatur Diskussion 50 jedoch hauptsächlich der didaktische Einsatz der Technologie im Fokus. Zudem gibt es unzählige Technologien von ARS, CRS, ELS, VRS und WBS, welche wiederum didaktisch unterschiedlich eingesetzt werden können. Dementsprechend gibt es sehr viele mögliche Formen von ARS, CRS, ELS, VRS und WBS. Aus diesem Grund sollten die Ergebnisse bezüglich BI, PEOU, PU und SN bei den eLearning-Systemen dieser Arbeit nicht auf andere ARS, CRS, ELS, VRS und WBS übertragen werden. 5.4 Ausblick Bei der vorliegenden Arbeit wurde die Technologie Akzeptanz von eLearning-Systemen durch Video Use Cases erfasst. In einem weiteren Schritt wäre deshalb interessant, wie die fertig entwickelten eLearning-Systeme ARS, CRS, ELS, VRS und WBS von Studierenden bewertet werden. Aus die-sem Grund sollte der Praxispartner die eLearning-Systeme (abgesehen von VRS) in der dargestell-ten Form in seinem Modul einsetzen. Hierbei könnte danach untersucht werden, wie stark die Er-gebnisse in BI, PEOU, PU und SN der vorliegenden Arbeit tatsächlich auf richtige eLearning-Sys-teme übertragen werden können. Zudem wäre es möglich weitere TAM 3 Determinanten bei eLear-ning-Systemen zu erheben. Insbesondere die Moderatorvariable Experience wäre hierbei wichtig, weil damit untersucht werden könnte, ob die Unterschiede bezüglich der Bewertung von eLearning-Systemen auch durch die Erfahrung beeinflusst wurden. In einem weiteren Schritt ist es unabdingbar in der Literatur eLearning-Systeme besser zu differen-zieren. Die vorliegende Arbeit unterteilte eLearning-Systeme bereits in didaktische und technologi-sche Elemente. Diese Unterteilung sollte jedoch noch stärker ausgebaut werden. Hierbei sollte von allen eLearning-Systemen eine Matrix erstellt werden, welche die verwendete Software, Hardware, sowie auch die didaktische Lernform exakt beschreibt. Auf dieser Basis könnte erforscht werden, wie eLearning-Systeme in allen Elementen gestaltet sein müssen, um ein Technologie Akzeptanz Verhalten auszulösen. Die Messung der Akzeptanz von eLearning-Systemen sollte in Zukunft nicht mehr ausschliesslich durch das TAM 3 vorgenommen werden. Hierbei könnte ein übergeordnetes eLearning-System Ak-zeptanz Modell erschaffen werden, das die Technologie Akzeptanz von eLearning-Systemen durch das TAM 3 erfasst. Zusätzlich müsste das eLearning-System Akzeptanz Modell auch die Akzeptanz der didaktischen Elemente erfassen. Aus diesem Grund sollte auch ein Modell erschaffen werden, das die didaktische Akzeptanz von eLearning-Systemen misst. Literaturverzeichnis 51 Literaturverzeichnis Adobe (2017). Adobe Connect (Version 9.7) [Computer software]. Dublin: Adobe Systems Software. Bacca, J., Baldiris, S., Fabregat, R., Graf, S. & Kinshuk (2014). Augmented Reality Trends in Edu-cation: A Systematic Review of Research and Applications. Educational Technology & Society, 17 (4), 133–149. Bildungsspiegel (2017). Fünf Zukunftstrends im eLearning jenseits der Technologie-Buzzwords. Zu-griff am 9.5.2018. Verfügbar unter: https://www.bildungsspiegel.de/news/studium-fernstudium-neue-lernformen/2040-5-zukunftstrends-im-elearning-jenseits-der-technologie-buzzwords Billinghurst, M., Clark, A. & Lee, G. (2015). A Survey of Augmented Reality. Foundations and Trends in Human-Computer Interaction, 8 (2–3), 73–272. doi:10.1561/1100000049 Blade, R. & Padgett, M. (2014). Handbook of Virtual Environments. Boca Raton: CRC Press. doi:10.1201/b17360-4 Bortz, J. & Döring, N. (2006). Forschungsmethoden und Evaluation. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-33306-7 Bortz, J. & Lienert, G. A. (2008). Kurzgefasste Statistik für die klinische Forschung: Leitfaden für die verteilungsfreie Analyse kleiner Stichproben  (3., aktualisierte und bearbeitete Aufl.). Heidel-berg: Springer Medizin. Bortz, J. & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler. Berlin, Heidelberg: Springer. doi:10.1007/978-3-642-12770-0 Broll, W. (2013). Augmentierte Realität. In R. Dörner, W. Broll, P.F. Grimm & B. Jung (Hrsg.), Virtual und Augmented Reality (VR/AR): Grundlagen und Methoden der Virtuellen und Augmentierten Realität (S. 241–294). Berlin Heidelberg: Springer Vieweg. Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2. Aufl.). Hillsdale: L. Er-lbaum Associates. Dahm, M. (2006). Grundlagen der Mensch-Computer-Interaktion. München: Pearson Studium. Davis, F. D. (1985). A technology acceptance model for empirically testing new end-user information systems: Theory and results. Massachusetts: Massachusetts Institute of Technology. Davis, F. D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Infor-mation Technology. MIS Quarterly, 13 (3), 318–340. doi:10.2307/249008 Davis, F. D., Bagozzi, R. P. & Warshaw, P. R. (1989). User acceptance of computer technology: a comparison of two theoretical models. Management science, 35 (8), 982–1003. Literaturverzeichnis 52 Davis, F. D. & Venkatesh, V. (2004). Toward Preprototype User Acceptance Testing of New Infor-mation Systems: Implications for Software Project Management. IEEE Transactions on Engine-ering Management, 51 (1), 31–46. doi:10.1109/TEM.2003.822468 Departement für Wirtschaft, Bildung und Forschung (2017). Herausforderungen der Digitalisierung für Bildung und Forschung in der Schweiz. Bern: Schweizerische Eidgenossenschaft. Dörner, R., Jung, B., Grimm, P., Broll, W. & Göbel, M. (2013). Einleitung. In R. Dörner, W. Broll, P.F. Grimm & B. Jung (Hrsg.), Virtual und Augmented Reality (VR/AR): Grundlagen und Methoden der Virtuellen und Augmentierten Realität (S. 1–32). Berlin Heidelberg: Springer Vieweg. Dorsch, F., Wirtz, M. A. & Strohmer, J. (2017). Dorsch - Lexikon der Psychologie (18., überarb. Aufl.). Bern: Hogrefe. Dressel, M. (2011). Konstruktiv kommunizieren im Web 2.0. Wiesbaden: Gabler. doi:10.1007/978-3-8349-6902-6 Dunleavy, M. (2014). Design Principles for Augmented Reality Learning. TechTrends, 58 (1), 28–34. doi:10.1007/s11528-013-0717-2 Eichhorn, M. (2016). Elektronische Abstimmungssysteme in der Hochschullehre – Empirische Un-tersuchung zu Erfahrungen mit dem Audience Response System eduVote. In U. Lucke, A. Schwill & R. Zender (Hrsg.), DeLFI 2016 - die 14. E-Learning Fachtagung Informatik der Gesell-schaft für Informatik (S. 191–202). Bonn: Gesellschaft für Informatik. E-teaching.org Redaktion (2018). Lernmanagement-Systeme (LMS). Zugriff am 4.6.2018. Verfügbar unter: https://www.e-teaching.org/technik/distribution/lernmanagementsysteme/in-dex_html/html2print Fachhochschule Nordwestschweiz FHNW (2018). E-Learning: Das Portal für digitale Lehre an der Hochschule für Angewandte Psychologie FHNW. Zugriff am 9.5.2018. Verfügbar unter: https://www.fhnw.ch/de/studium/psychologie/rund-ums-studium/e-learning Fröhlich, W. D. (2014). Wörterbuch Psychologie (29. Aufl.). München: Deutscher Taschenbuch- Verlag. Google (2018). Google Scholar. Zugriff am 9.5.2018. Verfügbar unter: https://scholar.google.ch/ Grimm, P., Herold, R., Hummel, J. & Broll, W. (2013). VR-Eingabegeräte. In R. Dörner, W. Broll, P.F. Grimm & B. Jung (Hrsg.), Virtual und Augmented Reality (VR/AR): Grundlagen und Metho-den der Virtuellen und Augmentierten Realität (S. 97–126). Berlin Heidelberg: Springer Vieweg. Literaturverzeichnis 53 Grimm, P., Herold, R., Reiners, D. & Cruz-Neira, C. (2013). VR-Ausgabegeräte. In R. Dörner, W. Broll, P.F. Grimm & B. Jung (Hrsg.), Virtual und Augmented Reality (VR/AR): Grundlagen und Methoden der Virtuellen und Augmentierten Realität (S. 127–156). Berlin Heidelberg: Springer Vieweg. Gröhbiel, U. & Schiefner, M. (2006). Die E-Learning-Landkarte – eine Entscheidungshilfe für den E-Learning-Einsatz in der betrieblichen Weiterbildung. In A. Hohenstein & K. Wilbers (Hrsg.), Handbuch E-Learning (S. 1-20). Köln: Deutscher Wirtschaftsdienst. Henderson, S. & Feiner, S. (2011). Exploring the Benefits of Augmented Reality Documentation for Maintenance and Repair. IEEE Transactions on Visualization and Computer Graphics, 17 (10), 1355–1368. doi:10.1109/TVCG.2010.245 Hermann, C. (2011). Techniken und Konzepte für den nachhaltigen Einsatz von Vorlesungsauf-zeichnungen. Freiburg: Albert-Ludwigs-Universität Freiburg. Hermann-Ruess, A. & Ott, M. (2014). Das gute Webinar: Das ganze Know How für bessere Online-Präsentationen, ein Praxisratgeber: Online präsentieren und Kunden gewinnen. Wiesbaden: Springer Fachmedien Wiesbaden. doi:10.1007/978-3-658-03859-5 Hügelmeyer, P. & Mertens, R. (2004). Virtuelles Prüfungssystem. In K.-C. Hamborg & A. Knaden (Hrsg.), Good Practice: Netzbasiertes Lehren und Lernen an Universitäten: Erfahrungen mit verschiedenen Einsatzszenarien von e-Learning an der Universität Osnabrück (S. 105–115). Osnabrück: Electronic Publ. Osnabrück. IBF Teaching Center (2018). Klicker UZH (Beta-Version) [Computer software]. Zürich: Universität Zürich. Jansen, D. & Schuwer, R. (2015). Institutional MOOC strategies in Europe: Status report based on a mapping survey conducted in October - December 2014. Maastricht: EADTU. Jerald, J. (2016). The VR book: human-centered design for virtual reality. San Rafael: Morgan & Claypool. King, W. R. & He, J. (2006). A meta-analysis of the technology acceptance model. Information & Management, 43 (6), 740–755. doi:10.1016/j.im.2006.05.003 Klafki, W. (1970). Der Begriff der Didaktik im engeren Sinne und der Satz vom Primat der Didaktik im Verhältnis zur Methodik. In W. Klafki, G. Rückriem, W. Wolf, R. Freudenstein, H. Beckmann, K. Lingelbach et al. (Hrsg.), Erziehungswissenschaft (S. 55–73). Frankfurt am Main: Fischer Taschenbuch-Verlag. Literaturverzeichnis 54 Kreidl, C. (2011). Akzeptanz und Nutzung von E-Learning-Elementen an Hochschulen: Gründe für die Einführung und Kriterien der Anwendung von E-Learning. Münster: Waxmann. Zugriff am 18.5.2018. Verfügbar unter: https://www.pedocs.de/volltexte/2013/8288/pdf/Kreidl_Akzep-tanz_und_Nutzung_2011_Gesamtwerk.pdf Krüger, M. (2011). Selbstgesteuertes und kooperatives Lernen mit Vorlesungsaufzeichnungen: Das Lernszenario VideoLern – eine Design-Based-Research-Studie. Boizenburg: Verlag Werner Hülsbusch. Kundisch, D., Magenheim, J., Beutner, M., Herrmann, P., Reinhardt, W. & Zokye, A. (2013). Class-room Response Systems. Informatik Spektrum, 36 (4), 389–393. doi:10.1007/s00287-013-0713-0 Kutter, O., Aichert, A., Bichlmeier, C., Traub, J., Sandro, H. & Nassir, N. (2008). Real-time Volume Rendering for High Quality Visualization in Augmented Reality. New York: MICCAI. Liaw, S.-S. & Huang, H.-M. (2003). An investigation of user attitudes toward search engines as an information retrieval tool. Computers in Human Behavior, 19 (6), 751–765. doi:10.1016/S0747-5632(03)00009-8 Liaw, S.-S., Huang, H.-M. & Chen, G.-D. (2007). Surveying instructor and learner attitudes toward e-learning. Computers & Education, 49 (4), 1066–1080. doi:10.1016/j.compedu.2006.01.001 Martínez-Torres, M. R., Toral Marín, S. L., García, F. B., Vázquez, S. G., Oliva, M. A. & Torres, T. (2008). A technological acceptance of e-learning tools used in practical and laboratory teaching, according to the European higher education area. Behaviour & Information Technology, 27 (6), 495–505. doi:10.1080/01449290600958965 Martín-Gutiérrez, J. (2017). Virtual Technologies Trends in Education. EURASIA Journal of Mathe-matics, Science and Technology Education, 13 (1). doi:10.12973/eurasia.2017.00626a Mikropoulos, T. A. & Natsis, A. (2011). Educational virtual environments: A ten-year review of empirical research (1999–2009). Computers & Education, 56 (3), 769–780. doi:10.1016/j.compedu.2010.10.020 Moosbrugger, H. & Kelava, A. (Hrsg.). (2012). Testtheorie und Fragebogenkonstruktion (2., aktuali-sierte und erweiterte Aufl.). Berlin Heidelberg: Springer. Moser, C. (2012). User-experience-Design: Mit erlebniszentrierter Softwareentwicklung zu Produk-ten, die begeistern. Berlin: Springer Vieweg. Literaturverzeichnis 55 Neuhaus, W. (2009). Eine Renaissance der Hochschuldidaktik? Tagungsrückblick zur Jahrestagung der Gesellschaft für Medien in der Wissenschaft (GMW). Dresden: Gesellschaft für Medien in der Wissenschaft. Ng, W. (2012). Can we teach digital natives digital literacy? Computers & Education, 59 (3), 1065–1078. doi:10.1016/j.compedu.2012.04.016 Nielsen, J. (2012). Usability 101: Introduction to Usability. Zugriff am 15.5.2018. Verfügbar unter: https://www.nngroup.com/articles/usability-101-introduction-to-usability/ Oxford University Press (2018a). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/e-book Oxford University Press (2018b). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/2d Oxford University Press (2018c). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/3d Oxford University Press (2018d). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/smartphone Oxford University Press (2018e). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/tablet Oxford University Press (2018f). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/app Oxford University Press (2018g). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/gps Oxford University Press (2018h). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/chat Oxford University Press (2018i). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/wlan Oxford University Press (2018j). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/software Oxford University Press (2018k). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/qr_code Oxford University Press (2018l). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/streaming Literaturverzeichnis 56 Oxford University Press (2018m). English Oxford living Dictionaries. Zugriff am 1.5.2018. Verfügbar unter: https://en.oxforddictionaries.com/definition/powerpoint Oztekin, A., Kong, Z. J. & Uysal, O. (2010). UseLearn: A novel checklist and usability evaluation method for eLearning systems by criticality metric analysis. International Journal of Industrial Ergonomics, 40 (4), 455–469. doi:10.1016/j.ergon.2010.04.001 Punnoose, A. (2012). Determinants of intention to use eLearning based on the technology ac-ceptance model. Journal of Information Technology Education: Research, 11 (1), 301–337. Radu, I. (2014). Augmented reality in education: a meta-review and cross-media analysis. Personal and Ubiquitous Computing, 18 (6), 1533–1543. doi:10.1007/s00779-013-0747-y Rauschnabel, P. A. & Ro, Y. K. (2016). Augmented reality smart glasses: an investigation of tech-nology acceptance drivers. Int. J. Technology Marketing, 11 (2), 123–148. Revermann, C. (2006). eLearning in Forschung, Lehre und Weiterbildung in Deutschland: Sach-standsbericht zum Monitoring eLEARNING. Berlin: Karlsruher Institut für Technologie. Robertson, C. & Green, T. (2012). Scanning the Potential for Using QR Codes in the Classroom. TechTrends, 56 (2), 11–12. doi:10.1007/s11528-012-0558-4 Routes Software SRL (2017). PeakVisor [Computer software]. Lomazzo: Routes Software SRL. Schneider, J. G., Osterwinter, R., Steinhauer, A. & Hennig, M. (2016). Duden - das Wörterbuch der sprachlichen Zweifelsfälle: Richtiges und gutes Deutsch (8., vollständig überarb. Aufl.). Berlin: Dudenverlag. Schulmeister, R. (2006). eLearning: Einsichten und Aussichten. München: Oldenbourg Wissen-schaftsverlag. Schwarz, J. & Bruderer Enzler, H. (2018). Methodenberatung Universität Zürich. Zugriff am 1.5.2018. Verfügbar unter: http://www.methodenberatung.uzh.ch/de/datenanalyse/unterschiede/zentral/ evarianzmessw.html Schweizerischer Hochschulrat (2015). Richtlinien des Hochschulrates für die Umsetzung der Erklä-rung von Bologna an den Fachhochschulen (Bologna-Richtlinien FH und PH). Bern No. 414.205.4. Schweizerische Eidgenossenschaft. Zugriff am 1.5.2018. Verfügbar unter: https://www.admin.ch/opc/de/classified-compilation/20150870/201501010000/414.205.4.pdf Slater, M. & Wilbur, S. (1997). A Framework for Immersive Virtual Environments (FIVE): Specula-tions on the Role of Presence in Virtual Environments. Presence: Teleoperators and Virtual En-vironments, 6 (6), 603–616. doi:10.1162/pres.1997.6.6.603 Literaturverzeichnis 57 Stödberg, U. (2012). A research review of e-assessment. Assessment & Evaluation in Higher Edu-cation, 37 (5), 591–604. doi:10.1080/02602938.2011.557496 Šumak, B., Heričko, M. & Pušnik, M. (2011). A meta-analysis of e-learning technology acceptance: The role of user types and e-learning technology types. Computers in Human Behavior, 27 (6), 2067–2077. doi:10.1016/j.chb.2011.08.005 SWITCH (2018). SWITCHtube [Computer software]. Zürich: Swissuniversities. Venkatesh, V. & Bala, H. (2008). Technology acceptance model 3 and a research agenda on inter-ventions. Decision sciences, 39 (2), 273–315. Venkatesh, V. & Davis, F. D. (2000). A theoretical extension of the technology acceptance model: Four longitudinal field studies. Management science, 46 (2), 186–204. Venkatesh, V., Morris, M. G., Davis, G. B. & Davis, F. D. (2003). User acceptance of information technology: Toward a unified view. MIS quarterly, 425–478. Wang, Z., Bergin, C. & Bergin, D. A. (2014). Measuring engagement in fourth to twelfth grade class-rooms: The Classroom Engagement Inventory. School Psychology Quarterly, 29 (4), 517–535. doi:10.1037/spq0000050 Wittpahl, V. (2017). Digitalisierung: Bildung, Technik, Innovation. Berlin Heidelberg: Springer Vieweg. Wolf, T. & Strohschen, J.-H. (2018). Digitalisierung: Definition und Reife: Quantitative Bewertung der digitalen Reife. Informatik-Spektrum, 41 (1), 56–64. doi:10.1007/s00287-017-1084-8 Wyssenbach, T., Wyssenbach, N., Zeballos, M., Loosli, S. & Fuss, R. (2017). Waimanoo Systeme [Computer software]. Zofingen: Waimanoo GmbH. Yuen, S. C.-Y., Yaoyuneyong, G. & Johnson, E. (2011). Augmented Reality: An Overview and Five Directions for AR in Education. Journal of Educational Technology Development and Exchange, 4 (1). doi:10.18785/jetde.0401.10 Zöfel, P. (2011). Statistik für Psychologen: Im Klartext. München: Pearson, Higher Education. Abbildungsverzeichnis 58 Abbildungsverzeichnis Abbildung 1: Verortung von eLearning in der Hochschullehre (eigene Darstellung) ...................... 6 Abbildung 2: Die reale Umgebung (links) verschmelzt mit der Virtualität (rechts) zur erweiterten Realität (Mitte) (Broll, 2013, S. 242) ......................................................................... 8 Abbildung 3: Ein Beispiel einer AR Projektion anhand der AR App Peakvisor (Routes Software SRL, 2017) ............................................................................................................... 9 Abbildung 4: Darstellung einer SC-Frage im CRS Klicker UZH (links) und deren Auswertung am Projektor (rechts) (IBF Teaching Center, 2018) ...................................................... 11 Abbildung 5: Die E-Lectures der APS (SWITCH, 2018) .............................................................. 13 Abbildung 6: E-Lecture des Grundlagenmoduls der Psychologie (SWITCH, 2018) ..................... 13 Abbildung 7: Ein Beispiel von Virtual Reality (Jerald, 2016, S. 239) ............................................ 15 Abbildung 8: Bekannte HMDs (Martín-Gutiérrez, 2017, S. 476) .................................................. 16 Abbildung 9: Der Bildschirm der präsentierenden Person (grün eingerahmt) wird durch die Screensharing Funktion eingeblendet (Adobe, 2017) ............................................. 18 Abbildung 10: Die Chatfunktion von Adobe Connect (Adobe, 2017) ............................................. 19 Abbildung 11: Die Videofunktion von Adobe Connect (Adobe, 2017) ............................................ 19 Abbildung 12: Technology Acceptance Model [TAM] (eigene Darstellung in Anlehnung an Davis et al. (1989, S. 985)) .................................................................................................. 21 Abbildung 13: Das TAM 2 ist eine Erweiterung des TAM mit Social Influence Processes, Cognitive Instrumental Processes und Experience (eigene Darstellung in Anlehnung an Venkatesh & Davis, 2000, S.188) ........................................................................... 23 Abbildung 14: Das TAM 3 integriert Determinanten zu Perceived Ease of Use [PEOU] in das TAM 1 und TAM 2 (eigene Darstellung in Anlehnung an Venkatesh & Bala, 2008, S. 280) ............................................................................................................................... 25 Abbildung 15: Forschungsdesign (eigene Darstellung in Anlehnung an Aussagen von Bortz & Döring, 2006, S.23-25) ........................................................................................... 26 Abbildung 16: Ausschnitt des Video Use Cases von ARS (Wyssenbach et al., 2017) ................... 31 Abbildung 17: Eine Vorlesungsfolie beim Einsatz von CRS (eigene Darstellung) .......................... 32 Abbildung 18: Eingabe der Antwort (Wyssenbach et al., 2017) ..................................................... 32 Abbildung 19: Ergebnis der Befragung durch CRS (Wyssenbach et al., 2017) ............................. 33 Abbildung 20: Ein Ausschnitt des Use Cases von ELS (SWITCH, 2018) ...................................... 34 Abbildung 21: Integration des Smartphones in das HMD (eigene Darstellung) ............................. 34 Abbildung 22: Zusammenmischen von Lichtfarben (Wyssenbach et al., 2017) ............................. 35 Abbildung 23: Video Use Case von WBS (Adobe, 2017) .............................................................. 35 Tabellenverzeichnis 59 Tabellenverzeichnis Tabelle 1: Aufzählung der Hypothesen H1, H2, H3 und H4............................................................. 3 Tabelle 2: Definitionen der Determinanten PEOU, PU, A und BI ................................................... 22 Tabelle 3: Definition des Determinanten SN.................................................................................. 24 Tabelle 4: Darstellung aller Hypothesen H1, H2, H3, H4 ............................................................... 29 Tabelle 5: Geordnete Häufigkeiten aller eLearning-Systeme in BI, PEOU, PU und SN ................. 42 Tabelle 6: Zusammenfassung der geprüften Hypothesen H1, H2, H3 und H4 .............................. 46 Anhang 60 Anhang A Geplante Stichprobe: Studierende des Grundlagenmoduls der Psychologie ................. 61 B Grundlage für die Auswahl der TAM 3 Determinanten ...................................................... 62 C Link zu den Video Use Cases ............................................................................................. 63 D Übersetzung der Skalen-Items von Englisch auf Deutsch ................................................ 64 E Modifizierung der Skalen-Items .......................................................................................... 65 F Der Fragebogen ................................................................................................................... 66 G Einleitung der empirischen Durchführung......................................................................... 72 H Beschreibung der Fragestellung der Bachelorarbeit ........................................................ 73 I Beschreibung des Ablaufs der Datenerhebung ................................................................ 74 J Erklärung der Video Use Cases .......................................................................................... 75 K Fragebogeninstruktion ........................................................................................................ 76 L Dateneingabe in SPSS ......................................................................................................... 77 M Datenansicht im SPSS ......................................................................................................... 78 N Erstellung der Skalen im SPSS ........................................................................................... 79 O Mauchly-Test auf Sphärizität von BI, PEOU, PU und SN................................................... 80 P Häufigkeiten von BI, PEOU, PU und SN ............................................................................. 81 Q Tests der Innersubjekteffekte von BI, PEOU, PU und SN ................................................. 82 R Post-hoc-Tests mit Bonferroni-Korrektur .......................................................................... 83 Anhang 61 A Geplante Stichprobe: Studierende des Grundlagenmoduls der Psychologie Studienbeginn HS17/18 133 Personen92 Frauen: 69%41 Männer: 31%69 Vollzeit: 52%64 Teilzeit: 48%Durchschnittliches Alter bei Studienbeginn: 24.9 Jahre ,von 20 bis 53 Jahre alt 1 21 Anhang 62 B Grundlage für die Auswahl der TAM 3 Determinanten 49.11.2017 / Bachelor Arbeit Anwesend: Adrian Schwaninger und Patrick Schnider Technology Acceptance Model 3 adaptiert an Venkatesh und Bala (2008, S. 280) Item-Pool (Excel-File): https://groups.inside.fhnw.ch/workspace_sites/DigitalisierunginderAus- bildung/_layouts/15/WopiFrame.aspx?sourcedoc=/workspace_sites/Di- gitalisierunginderAusbildung/Dokumente/Bachelorarbeit/Fragebogen/ Technology Acceptance Model (TAM) Adjustment Anchor Perceived Usefulness Perceived Ease of Use Behavioral Intention Subjective Norm Image Output Quality Job Relevance Result Demonstrability Experience Voluntariness Computer Self- efficacy Perceptions of External Control Computer Anxiety Computer Playfulness Perceived Enjoyment Objective Usability Use Behavior 0.55*** 0.40*** 0.03 SN x EXP x VOL = –.46*** -.29*** 0.27*** 0.22 *** 0.20** -.22*** 0.0 2 0.0 4 0.2 0**0.1 8** 0.04 0.35*** 0.0 6 0.2 4** * - .24 *** 0. 22 ***0.35*** 0.37*** -0.22***0.21*** Korrelationen zwischen entsprechenden Konstrukten (Venkatesh & Bala, 2008, S. 290-291 Verhaltensabsicht Nutzungsverhalten FairnessErfahrung Anhang 63 C Link zu den Video Use Cases https://tube.switch.ch/channels/dba27442 Anhang 64 D Übersetzung der Skalen-Items von Englisch auf Deutsch Bezeichnung Skalen-Items Englisch (original) Skalen-Items Deutsch (übersetzt) BI1 Assuming I had access to the system, I intend to use it Wenn ich Zugriff auf das System hätte, würde ich es benutzen. BI2 Given that I had access to the system, I predict that I would use it. Wenn ich Zugriff auf das System hätte, würde ich es benutzen. BI2 NEU I would be pleased to use the system in the fu-ture Ich würde mich freuen, wenn ich das System in der Zukunft nutzen könnte. BI3 I plan to use the system in the next months. Ich möchte das System in den nächsten Monaten nutzen. PEOU1 My interaction with the system is clear and un-derstandable. Meine Interaktion mit dem System ist klar und verständlich. PEOU2 Interacting with the system does not require a lot of my mental effort. Die Interaktion mit dem System ist mental nicht sehr aufwändig. PEOU3 I find the system to be easy to use. Ich finde, dass die Benutzung des Systems ein-fach ist. PEOU4 I find it easy to get the system to do what I want it to do. Ich kann mit dem System einfach das erreichen, was ich will. PU1 Using the system improves my performance in my job. Die Nutzung des Systems steigert meine Leis-tung in meinem Job. PU2 Using the system in my job increases my productivity. Die Nutzung des Systems steigert die Produkti-vität in meinem Job. PU3 Using the system enhances my effectiveness in my job. Die Nutzung des Systems steigert meine Effekti-vität in meinem Job. PU4 I find the system to be useful in my job. Ich finde das System in meinem Job nützlich. SN1 People who influence my behavior think that I should use the system. Personen, welche Einfluss auf mein Verhalten haben, denken, dass ich dieses System nutzen sollte. SN2 People who are important to me think that I should use the system. Wichtige Personen würden denken, dass ich das System nutzen sollte. SN3 The senior management of this business has been helpful in the use of the system. Die Geschäftsleitung von dieser Firma war bei der Nutzung des Systems behilflich. SN4 In general, the organization has supported the use of the system. Im Allgemeinen hat die Firma die Nutzung des Systems unterstützt. Anhang 65 E Modifizierung der Skalen-Items Bezeichnung Skalen-Items Deutsch (übersetzt) Skalen-Items modifiziert BI1 Wenn ich Zugriff auf das System hätte, würde ich es benutzen. Wenn ich Zugriff auf dieses eLearning-System hätte, würde ich es benutzen. BI2 Wenn ich Zugriff auf das System hätte, würde ich es benutzen. Wenn ich Zugriff auf dieses eLearning-System hätte, würde ich es benutzen. BI2 NEU Ich würde mich freuen, wenn ich das System in der Zukunft nutzen könnte. Ich würde mich freuen, wenn ich mit diesem eLearning-System in der Zukunft lernen könnte. BI3 Ich möchte das System in den nächsten Monaten nutzen. Ich möchte dieses eLearning-System in den nächsten Monaten benutzen. PEOU1 Meine Interaktion mit dem System ist klar und verständlich. Ich denke, meine Interaktion mit diesem eLearn-ing-System wäre klar und verständlich. PEOU2 Die Interaktion mit dem System ist mental nicht sehr aufwändig. Die Interaktion mit diesem eLearning-System wäre mental nicht sehr aufwändig. PEOU3 Ich finde, dass die Benutzung des Systems einfach ist. Ich denke, dass die Benutzung dieses eLearning-Systems einfach wäre. PEOU4 Ich kann mit dem System einfach das errei-chen, was ich will. Das Lernen mit diesem eLearning-System wäre einfach. PU1 Die Nutzung des Systems steigert meine Leis-tung in meinem Job. Die Benutzung dieses eLearning-Systems würde die Qualität meines Lernens in diesem Modul stei-gern. PU2 Die Nutzung des Systems steigert die Produk-tivität in meinem Job. Die Benutzung dieses eLearning-Systems würde mir bei meinem Studium von diesem Modul Zeit ersparen. PU3 Die Nutzung des Systems steigert meine Ef-fektivität in meinem Job. Die Benutzung dieses eLearning-Systems würde mir helfen in diesem Modul effektiver zu lernen. PU4 Ich finde das System in meinem Job nützlich. Im Allgemeinen finde ich dieses eLearning-Sys-tem ein nützliches Lernmittel. SN1 Personen, welche Einfluss auf mein Verhalten haben, denken, dass ich dieses System nut-zen sollte. Personen, welche Einfluss auf mein Verhalten ha-ben, würden denken, dass ich dieses eLearning-System nutzen sollte. SN2 Wichtige Personen würden denken, dass ich das System nutzen sollte. Wichtige Personen meines Umfeldes würden den-ken, dass ich dieses eLearning-Systems benutzen sollte. SN3 Die Geschäftsleitung von dieser Firma war bei der Nutzung des Systems behilflich. Ich denke, dass verantwortliche Personen der FHNW mir bei der Benutzung dieses eLearning-Systems helfen würden. SN4 Im Allgemeinen hat die Firma die Nutzung des Systems unterstützt. Ich denke, dass die FHNW im Allgemeinen dieses eLearning-System einsetzen möchte. Anhang 66 F Der Fragebogen Erhebung der Technologie-Akzeptanz verschiedener E-Learning-Systeme 20.12.2017 stimme über- haupt nicht zu stimme stark zu 1 2 3 4 5 6 7 Die Benutzung dieses E-Learning-Systems würde die Qualität meines Lernens in diesem Modul steigern. Die Benutzung dieses E-Learning-Systems würde mir bei meinem Studium von diesem Modul Zeit ersparen. Die Benutzung dieses E-Learning-Systems würde mir helfen in diesem Modul effektiver zu lernen. Im Allgemeinen finde ich dieses E-Learning-System ein nützliches Lernmittel. Ich denke, meine Interaktion mit diesem E-Learning- System wäre klar und verständlich. Die Interaktion mit diesem E-Learning-System wäre mental nicht sehr aufwändig. Ich denke, dass die Benutzung dieses E-Learning- Systems einfach wäre. Das Lernen mit diesem E-Learning-System wäre einfach. Personen, welche Einfluss auf mein Verhalten haben, würden denken, dass ich dieses E-Learning-System benutzen sollte. Wichtige Personen meines Umfeldes würden denken, dass ich dieses E-Learning-Systems benutzen sollte. Ich denke, dass verantwortliche Personen der FHNW mir bei der Benutzung dieses E-Learning-Systems helfen würden. Ich denke, dass die FHNW im Allgemeinen dieses E-Learning-System einsetzen möchte. Wenn ich Zugriff auf dieses E-Learning-System hätte, würde ich es benutzen. Ich möchte dieses E-Learning-System in den nächsten Monaten benutzen. Ich würde mich freuen, wenn ich mit diesem E-Learning-System in der Zukunft lernen könnte. Augmented Reality System 1 Anhang 67 Anhang 68 Anhang 69 Anhang 70 Anhang 71 Anhang 72 G Einleitung der empirischen Durchführung Anhang 73 H Beschreibung der Fragestellung der Bachelorarbeit Anhang 74 I Beschreibung des Ablaufs der Datenerhebung Anhang 75 J Erklärung der Video Use Cases Anhang 76 K Fragebogeninstruktion Anhang 77 L Dateneingabe in SPSS Anhang 78 M Datenansicht im SPSS Anhang 79 N Erstellung der Skalen im SPSS Anhang 80 O Mauchly-Test auf Sphärizität von BI, PEOU, PU und SN Innersubjekteffekt Mauchly-W Approx. Chi-Quadrat df Sig. Epsilonb Green-house-Geis-ser Huynh-Feldt Unter-grenze Behavioral Intention [BI] 0.697 31.886 9 0 0.825 0.86 0.25 Perceived Ease Of Use [PEOU] 0.681 35.573 9 0 0.832 0.867 0.25 Perceived Usefulness [PU] 0.802 20.415 9 0.016 0.886 0.925 0.25 Subjective Norm [SN] 0.777 23.12 9 0.006 0.881 0.92 0.25 Prüft die Nullhypothese, dass sich die Fehlerkovarianz-Matrix der orthonormalisierten transformierten abhängigen Variablen proportional zur Einheitsmatrix verhält. a. Design: Konstanter Term Innersubjektdesign: eLearning-System b. Kann zum Korrigieren der Freiheitsgrade für die gemittelten Signifikanztests verwendet werden. In der Tabelle mit den Tests der Effekte innerhalb der Subjekte werden korrigierte Tests angezeigt. Anhang 81 P Häufigkeiten von BI, PEOU, PU und SN Rang System BI PEOU PU SN M SD N M SD N M SD N M SD N 1 ELS 6.10 1.17 91 6.21 0.74 95 5.51 1.10 95 5.65 0.99 94 2 CRS 5.60 1.29 91 5.78 1.06 95 4.94 1.20 95 5.38 1.03 94 3 WBS 5.20 1.54 91 5.38 1.08 95 4.83 1.47 95 4.98 1.26 94 4 ARS 4.61 1.61 91 4.64 1.22 95 4.08 1.39 95 4.59 1.15 94 5 VRS 3.50 1.77 91 4.41 1.33 95 3.08 1.52 95 3.87 1.27 94 Anhang 82 Q Tests der Innersubjekteffekte von BI, PEOU, PU und SN Quadratsumme vom Typ III df Mittel der Quadrate F Sig. Partielles Eta-Quadrat Behavioral Intention [BI] Sphärizität angenom-men 363.129 4 90.782 51.109 0 0.362 Huynh-Feldt 363.129 3.44 105.575 51.109 0 0.362 Untergrenze 363.129 1 363.129 51.109 0 0.362 Fehler Behavioral Intention [BI] Sphärizität angenom-men 639.449 360 1.776 Huynh-Feldt 639.449 309.557 2.066 Untergrenze 639.449 90 7.105 Quadratsumme vom Typ III df Mittel der Quadrate F Sig. Partielles Eta-Quadrat Perceived Ease of Use [PEOU] Sphärizität angenom-men 217.353 4 54.338 65.664 0 0.411 Huynh-Feldt 217.353 3.467 62.699 65.664 0 0.411 Untergrenze 217.353 1 217.353 65.664 0 0.411 Fehler Perceived Ease Of Use [PEOU] Sphärizität angenom-men 311.147 376 0.828 Huynh-Feldt 311.147 325.859 0.955 Untergrenze 311.147 94 3.31 Quadratsumme vom Typ III df Mittel der Quadrate F Sig. Partielles Eta-Quadrat Perceived Usefulness [PU] Sphärizität angenom-men 334.44 4 83.61 66.908 0 0.416 Huynh-Feldt 334.44 3.7 90.385 66.908 0 0.416 Untergrenze 334.44 1 334.44 66.908 0 0.416 Fehler Perceived Usefulness [PU] Sphärizität angenom-men 469.86 376 1.25 Huynh-Feldt 469.86 347.815 1.351 Untergrenze 469.86 94 4.999 Quadratsumme vom Typ III df Mittel der Quadrate F Sig. Partielles Eta-Quadrat Subjective Norm [SN] Sphärizität angenom-men 182.441 4 45.61 58.269 0 0.385 Huynh-Feldt 182.441 3.678 49.598 58.269 0 0.385 Untergrenze 182.441 1 182.441 58.269 0 0.385 Fehler Subjective Norm [SN] Sphärizität angenom-men 291.184 372 0.783 Huynh-Feldt 291.184 342.087 0.851 Untergrenze 291.184 93 3.131 Anhang 83 R Post-hoc-Tests mit Bonferroni-Korrektur (I) Behavioral Intention [BI] (J) Behavioral Intention [BI] Sig.b 95% Konfidenzintervall für die Differenzb Untergrenze Obergrenze 1 (ARS) 2 (CRS) 0 -1.526 -0.444 3 (ELS) 0 -2.062 -0.905 4 (VRS) 0 0.598 1.621 5 (WBS) 0.108 -1.234 0.062 2 (CRS) 1 (ARS) 0 0.444 1.526 3 (ELS) 0.046 -0.991 -0.005 4 (VRS) 0 1.554 2.637 5 (WBS) 0.266 -0.11 0.909 3 (ELS) 1 (ARS) 0 0.905 2.062 2 (CRS) 0.046 0.005 0.991 4 (VRS) 0 1.942 3.245 5 (WBS) 0 0.399 1.396 4 (VRS) 1 (ARS) 0 -1.621 -0.598 2 (CRS) 0 -2.637 -1.554 3 (ELS) 0 -3.245 -1.942 5 (WBS) 0 -2.37 -1.022 5 (WBS) 1 (ARS) 0.108 -0.062 1.234 2 (CRS) 0.266 -0.909 0.11 3 (ELS) 0 -1.396 -0.399 4 (VRS) 0 1.022 2.37 Basiert auf den geschätzten Randmitteln *. Die mittlere Differenz ist auf dem ,05-Niveau signifikant. b. Anpassung für Mehrfachvergleiche: Bonferroni. Anhang 84 (I) Perceived Ease Of Use [PEOU] (J) Perceived Ease Of Use [PEOU] Sig.b 95% Konfidenzintervall für die Differenzb Untergrenze Obergrenze 1 (ARS) 2 (CRS) 0 -1.585 -0.689 3 (ELS) 0 -1.937 -1.2 4 (VRS) 0.87 -0.153 0.617 5 (WBS) 0 -1.166 -0.313 2 (CRS) 1 (ARS) 0 0.689 1.585 3 (ELS) 0.002 -0.755 -0.108 4 (VRS) 0 0.96 1.777 5 (WBS) 0.003 0.096 0.698 3 (ELS) 1 (ARS) 0 1.2 1.937 2 (CRS) 0.002 0.108 0.755 4 (VRS) 0 1.406 2.194 5 (WBS) 0 0.522 1.136 4 (VRS) 1 (ARS) 0.87 -0.617 0.153 2 (CRS) 0 -1.777 -0.96 3 (ELS) 0 -2.194 -1.406 5 (WBS) 0 -1.373 -0.569 5 (WBS) 1 (ARS) 0 0.313 1.166 2 (CRS) 0.003 -0.698 -0.096 3 (ELS) 0 -1.136 -0.522 4 (VRS) 0 0.569 1.373 Basiert auf den geschätzten Randmitteln *. Die mittlere Differenz ist auf dem ,05-Niveau signifikant. b. Anpassung für Mehrfachvergleiche: Bonferroni. Anhang 85 (I) Perceived Usefulness [PU] (J) Perceived Usefulness [PU] Sig.b 95% Konfidenzintervall für die Differenzb Untergrenze Obergrenze 1 (ARS) 2 (CRS) 0 -1.325 -0.396 3 (ELS) 0 -1.902 -0.956 4 (VRS) 0 0.582 1.423 5 (WBS) 0.001 -1.276 -0.224 2 (CRS) 1 (ARS) 0 0.396 1.325 3 (ELS) 0.002 -0.993 -0.143 4 (VRS) 0 1.37 2.356 5 (WBS) 1 -0.319 0.54 3 (ELS) 1 (ARS) 0 0.956 1.902 2 (CRS) 0.002 0.143 0.993 4 (VRS) 0 1.946 2.917 5 (WBS) 0 0.273 1.085 4 (VRS) 1 (ARS) 0 -1.423 -0.582 2 (CRS) 0 -2.356 -1.37 3 (ELS) 0 -2.917 -1.946 5 (WBS) 0 -2.274 -1.231 5 (WBS) 1 (ARS) 0.001 0.224 1.276 2 (CRS) 1 -0.54 0.319 3 (ELS) 0 -1.085 -0.273 4 (VRS) 0 1.231 2.274 Basiert auf den geschätzten Randmitteln *. Die mittlere Differenz ist auf dem ,05-Niveau signifikant. b. Anpassung für Mehrfachvergleiche: Bonferroni. Anhang 86 (I) Subjective Norm [SN] (J) Subjective Norm [SN] Sig.b 95% Konfidenzintervall für die Differenzb Untergrenze Obergrenze 1 (ARS) 2 (CRS) 0 -1.172 -0.397 3 (ELS) 0 -1.398 -0.713 4 (VRS) 0 0.39 1.046 5 (WBS) 0.035 -0.766 -0.016 2 (CRS) 1 (ARS) 0 0.397 1.172 3 (ELS) 0.284 -0.622 0.079 4 (VRS) 0 1.109 1.896 5 (WBS) 0.012 0.055 0.733 3 (ELS) 1 (ARS) 0 0.713 1.398 2 (CRS) 0.284 -0.079 0.622 4 (VRS) 0 1.367 2.181 5 (WBS) 0 0.327 1.003 4 (VRS) 1 (ARS) 0 -1.046 -0.39 2 (CRS) 0 -1.896 -1.109 3 (ELS) 0 -2.181 -1.367 5 (WBS) 0 -1.544 -0.674 5 (WBS) 1 (ARS) 0.035 0.016 0.766 2 (CRS) 0.012 -0.733 -0.055 3 (ELS) 0 -1.003 -0.327 4 (VRS) 0 0.674 1.544 Basiert auf den geschätzten Randmitteln *. Die mittlere Differenz ist auf dem ,05-Niveau signifikant. b. Anpassung für Mehrfachvergleiche: Bonferroni.