GfA, Dortmund (Hrsg.): Frühjahrskongress 2019, Dresden Beitrag B.8.3 1 Arbeit interdisziplinär analysieren – bewerten – gestalten Browserbasiertes Beratungssystem in der Bankenbranche Kamalatharsi MUTUURA, Andreas PAPAGEORGIOU, Oliver CHRIST Institut Mensch in komplexen Systemen, Fachhochschule Nordwestschweiz Riggenbachstrasse 16, CH-4600 Olten Kurzfassung: Die Digitalisierung im Servicebereich hat viele Branchen er- reicht. Vielfach unerklärt sind die Effektivität und die Benutzerakzeptanz dieser elektronischen Beratungssysteme. Ziel der vorliegenden Studie war die Evaluation eines browserbasierten Beratungssystems für die Banken- branche. Dabei wurden auf die Gestaltungsmerkmale der Weboberfläche und das Co-Browsing fokussiert. Das Evaluationsdesign entsprach einem Mixed-Methods-Ansatz. Hierbei hatten 39 Probanden verschiedene Aufga- ben (z.B. Überweisung im E-Banking) zu lösen. Anschließend folgten Kurz- fragebögen und ein halbstrukturiertes Interview. Die Resultate des ersten Studienabschnitts zeigen, dass gebräuchliche Visualisierungen besser ver- standen, die des zweiten Studienabschnittes, dass die Beratungszeit durch Co-Browsing signifikant reduziert werden kann. Schlüsselwörter: Co-Browsing, Nutzerakzeptanz, Usability, Beratung, Nutzererfahrung, Bankenbranche 1. Digitalisierung in der Bankenbranche und Co- Browsing Die Digitalisierung im Servicebereich hat viele Branchen erreicht (Likkaanen 2018). Vielfach unerklärt sind die Effektivität und die Benutzerakzeptanz dieser elektroni- schen Beratungssysteme (Aneiros & Castro 2005). Ziel der vorliegenden Studie war die Evaluation eines im Entwicklungsprozess befindlichen browserbasierten Bera- tungssystems für die Bankenbranche. Um die Interaktion zwischen Bankagenten und der Kunden zu unterstützen, sind verschiedene Elemente in diesem System integriert. Dazu gehört u.a. ein Chat-Fenster, das Teilen von Dokumenten und Co-Browsing. Bei Letzterem wird der Bildschirm des Kunden an den Bankagenten übertragen. Diese Funktion ist vielleicht von Programmen wie Team Viewer (Kumar et al. 2013) bekannt. Der Bankagent übernimmt für eine kurze Zeit während des Beratungsprozesses die Bedienung am Bildschirm des Kunden und hat dabei ausschliesslich Zugriff auf die Bankenwebseite. Die Sichtbarkeit dieser Funktion kann, analog zu den anderen Ele- menten, unterschiedlich dem Kunden präsentiert werden. Um zu entscheiden welche Kombinationen von unterschiedlich gestalteten Elementen einen Vorteil für die Bera- tung bringen, braucht es Evaluationskriterien, die nachfolgend dargestellt werden. 1.1 Von Technikakzeptanz zu Evaluationskriterien Das Technology Acceptance Model 3 (Venkatesh & Bala 2008) diente in dieser Stu- die als Basismodel für Nutzer/Technikakzeptanz. Durch Expertengespräche wurde vor allem die Wichtigkeit folgender theoretischer Konzepte deutlich: Behavioral Intention of Use (Intention zur Nutzung), Perceived Usefulness (wahrgenommene Benutzer- freundlichkeit), Perceived Ease of Use (Wahrnehmung der Person, mit wie viel – oder besser mit wie wenig – Aufwand das Erlernen der Nutzung der neuen Technologie GfA, Dortmund (Hrsg.): Frühjahrskongress 2019, Dresden Beitrag B.8.3 2 Arbeit interdisziplinär analysieren – bewerten – gestalten verbunden ist), External Control (Wahrnehmung externer Kontrolle / erleichternde Um- stände) und Enjoyment (wahrgenommenes Vergnügen). Zusätzlich wurde noch das Konzept der internen Kontrolle (wahrgenommene Kontrolle über das technische Sys- tem) als wichtig erachtet, da mit der Abgabe der Steuerung beim Einsatz von Co- Browsing an den Bankagenten möglicher Kontrollverlust beim Kunden auftreten könnte. Mittels einer Übersetzung dieser Konzepte in ein «ein Item-Format» (Fuchs & Diamantopoulos 2009) konnte eine erste Basis für die Evaluation gelegt werden. Da- rauf aufbauend und den Empfehlungen von Venkatesch, Brown & Bala (2013) folgend, wurde ein halbstrukturiertes Interview entwickelt. Weiterhin wurde Eyetracking und die Bearbeitungszeiten für die Evaluation herangezogen. Zur Variation der Nutzerstimuli wurden ebenfalls durch Expertengespräche zwei GUI-Profile entwickelt. Als Gegen- stände der Evaluation interessierte vor allem, ob sich durch Veränderung der Darstel- lungsform der Software-Funktionen, die Wahrnehmung von Kunden hinsichtlich der oben erwähnten theoretischen Konzepte verändert und ob in den objektiven Variablen auch Unterschiede zu finden sind. Dies wurde mittels zweier, aufeinander aufbauender und experimentell simulierter Beratungen überprüft. 2. Methode Die Evaluation wurde mittels eines Mixed-Methods-Design mit zwei, auf einer auf- bauenden, Teilstudien gelöst. Für die Beantwortung der Fragestellung wurden zwei Versionen des browserbasierten Beratungssystems entworfen. Die Probanden (N=29) hatten dabei verschiedene Aufgaben und Unteraufgaben zu lösen, zum Beispiel: «„Finde das Chat-Icon und öffne den Chat“, „Starte eine Konversation mit dem Bank- agenten.“, „Akzeptiere seine Co-Browsing Einladung.“, „Finde den Weg zurück zur Webseite.“, „Beende die Konversation und tätige eine Banküberweisung.“». Hierbei wurden sie von einem weiteren Versuchsleiter, der sich als Bankagent standardisiert verhielt, beraten. Zu jedem Software-Element (Icon Chat, Nachricht, Sichtbarkeit für Bankagent, Dokumenteneinblendung, Rückkehr Webseite und Co-Browsing), welches evaluiert wurde, wurde eine entsprechende Unteraufgabe gestellt. Nach Abschluss je- der Unteraufgabe folgte ein eigens erstellter Kurzfragbogen, der je ein Item zu den theoretischen Konzepten (Behavioral Intention of Use, Perceived Usefulness, Percei- ved Ease of Use, External Control, Internal Control und Enjoyment) erhob. Am Ende der Studie folgte ein halbstrukturiertes Interview. Die Studie 2 basierte auf den Ergeb- nissen der ersten Studie. Dabei wurde die Beratungsmodalität insofern verändert, dass entweder eine Chat-Unterhaltung (A) oder eine Chat-Unterhaltung verbunden mit Co-Browsing (B) zum Einsatz kam. Abbildung 1: Mixed-Method-Studiendesign GfA, Dortmund (Hrsg.): Frühjahrskongress 2019, Dresden Beitrag B.8.3 3 Arbeit interdisziplinär analysieren – bewerten – gestalten 3. Ergebnisse 3.1 Auswertung Aufgrund des Umfangs der Daten sind in der folgenden Ergebnisdarstellung nur quantitativen Fragebogendaten, sowie die Zeitdaten in Minuten dargestellt. Diese wurden über alle Probanden gemittelt und sind in Abbildung 2-4 als Mittelwerte mit Standardabweichung abgebildet. Zur inferenzstatistischen Auswertung kamen MA- NOVAs (Studie 1) und nicht parametrische Tests (Studie 2) zum Einsatz. Die Kon- trollfragen zur Technikaffinität ergaben in keiner der beiden Studien einen signifikan- ten Unterschied zwischen den Gruppen (Studie 1 MANOVA p=.759; part. eta2=.072; Studie 2 U-Mann p=.628 – p=.836). 3.2 Studie 1 In Studie 1 konnten bei drei Softwareelementen überzufällige Unterschiede in den Profilen gefunden werden. Sowohl beim „Icon Chat“ (p=.016, part. eta2 = .46) sowie bei „Sichtbarkeit für Bankagent“ (p=.03, part. eta2 = .442) und „Co-Browsing“ (p=.029, part. eta2 = .444) zeigten sich in den Konstrukten «Intention of Use», «Perceived Usefulness» und «Enjoyment» auch in den Einzelvergleichen überzufällige Unter- schiede. Besonders hervorzuheben ist, dass sich die meisten überzufälligen Unter- schiede beim Element Co-Browsing zeigen. Dies wurde auch hinsichtlich der qualita- tiven Daten als wertvolle Erweiterung gesehen. Icon Chat 6.00 5.00 4.00 3.00 Profil B 2.00 Profil A 1.00 Dieses Icon stellt Das Icon Das Icon habe ich Ich kann den Live Beim Lösen dieser Das Symbol des für die symbolisiert am erwarteten Ort Chat starten, ohne Aufgabe hatte ich Live Chats Symbolisierung eindeutig, dass gefunden. dass ich dabei jederzeit volle empfand ich als von «Live Chat» damit der Live Unterstützung Kontrolle über das angenehm. die beste Option Chat gestartet brauche. System. dar, und soll daher wird. weiterhin verwendet werden. Abbildung 2: Ergebnisse Ein-Item Format Fragebogen Element Icon Chat. Dargestellt sind Mittel- werte und Standardabweichung für N=29 Probanden. GfA, Dortmund (Hrsg.): Frühjahrskongress 2019, Dresden Beitrag B.8.3 4 Arbeit interdisziplinär analysieren – bewerten – gestalten Bankagent 6.00 5.00 4.00 3.00 Profil B 2.00 Profil A 1.00 Ich möchte auch Die Art und Weise Es war immer klar Ich kann sehen, Beim Lösen dieser Die Art und Weise zukünftig auf die der Visualisierung, ersichtlich, welchen Bereich Aufgabe hatte ich der Visualisierung, gleiche Art und um aufzuzeigen welchen Bereich der Bankagent jederzeit volle um aufzuzeigen Weise darauf was der meines sieht, ohne dass Kontrolle über das was der aufmerksam Bankagent sieht, Bildschirms der mich jemand System. Bankagent sieht, gemacht werden, empfinde ich als Bankagent sehen darauf hinweist. empfand ich als welchen Bereich nützlich. kann. angenehm. der Bankagent sieht. Abbildung 3: Ergebnisse Ein-Item Format Fragebogen Element Sichtbarkeit Bankagent. Dargestellt sind Mittelwerte und Standardabweichung für N=29 Probanden. Co-Browsing 6.00 5.00 4.00 3.00 Profil B 2.00 Profil A 1.00 Auf diese Art und Die Es ist einfach, Co- Ich kann Co- Beim Lösen dieser Die Weise kann ich Vorgehensweise, Browsing zu Browsing Aufgabe hatte ich Vorgehensweise, am besten Co- um Co-Browsing beenden. beenden, ohne jederzeit volle um Co-Browsing Browsing zu beenden, dass mich jemand Kontrolle über das zu beenden, schliessen. Dies empfinde ich als dabei unterstütz. System. empfand ich als soll beibehalten effizient. angenehm werden. Abbildung 4: Ergebnisse Ein-Item Format Fragebogen Element Co-Browsing. Dargestellt sind Mit- telwerte und Standardabweichung für N=29 Probanden. 3.3 Studie 2 Da in Studie 1 insbesondere Co-Browsing als Element mit der stärksten trennenden Eigenschaft innerhalb der TAM3 Konstrukte auffiel, stand in der zweiten Studie dieses Element im Vordergrund. Während die Ergebnisse in der Selbsteinschätzung keine überzufälligen Unterschiede aufzeigten, konnte bei «Zeit» ein bedeutender signifikan- ter Unterschied beobachtete werden. Die Zeit (siehe Abbildung 4) der Beratung fiel mit Co-Browsing etwa 4 Minuten kürzer aus (Mann- Whitney-U- Test p=.009). GfA, Dortmund (Hrsg.): Frühjahrskongress 2019, Dresden Beitrag B.8.3 5 Arbeit interdisziplinär analysieren – bewerten – gestalten Abbildung 5: Ergebnisse der Dauer der Beratung mit oder ohne Co-Browsing. Dargestellt sind Mit- telwerte und Standardabweichung für N=10 Probanden. 4. Diskussion In der vorliegenden Studie sollte untersucht werden, ob durch Veränderung der Dar- stellungsform von Software-Elementen einer in Entwicklung befindlichen Beratungs- software, die Wahrnehmung von potentiellen Kunden hinsichtlich der in TAM3 postu- lierten Konstrukte verändert werden kann und ob in den objektiven Variablen auch Unterschiede zu finden sind. Mit den vorliegenden Daten konnten wir zeigen, dass nicht alle theoretischen Konzepte des TAM3 Unterschiede aufwiesen, wenn auch die von Venkatesch, Brown & Bala (2013) beschriebenen Mixed Methods Paradigmen ei- nen Mehrwert und die «ein-Item-Form» von Fuchs & Diamantopoulos (2009) eine schlanke und effektive Befragung ermöglichten. Dies kann zum einen an der Auswahl der Konzepte, zum anderen an der Gestaltung der Elementen-Kombination gelegen haben. Es scheint, dass die vom Venkatesh & Bala (2008) postulierte Abhängigkeit von Perceived Usefulness und Nutzungsintention auch bei der Trennung der beiden Gruppen gleichermaßen von Bedeutung sind. Der Einfluss von Perceived Easy of Use auf Perceived Usefulness hat bei der Trennung eher keine trennende Rolle gespielt. Das gleiche scheint für die externe und interne Kontrolle zu gelten. Regressionsana- lytische Verfahren werden dies bei einer Re-Analyse der Daten aufzeigen können. Besonders auffallend sind jedoch die Daten zum Element Co-Browsing, da sie in allen TAM3 Konstrukten überzufällige Effekte zum Vorteil von Co- Browsing aufzeig- ten. In der zweiten Studie konnte darüber hinaus ein interessanter Effekt beobachtet werden. Trotz dessen sich die beiden Gruppen hinsichtlich ihrer Selbst-Einschätzung nicht unterschieden, kam die Gruppe mit Co-Browsing schneller ans Ziel. Dies ist zu- nächst kritisch zu sehen, da N=10 ein sehr kleines Sample darstellt. Jedoch ist mit diesem Ergebnis auch der Auftrag der Replikation verbunden. Hierbei muss auch be- achtet werden, dass Personen unterschiedlichen Alters vielleicht mehr Varianz produ- zieren könnten, was die Überzufälligkeit wieder schwinden lassen könnte. Dies werden in der Zukunft weitere Studien klären müssen. Auch sind manche Widersprüche aus qualitativen und quantitativen Daten noch nicht dokumentiert, so dass noch kein fina- les Urteil gesprochen werden kann. Jedoch scheint zum jetzigen Zeitpunkt Co- Browsing ein für die Nutzererfahrung im Servicebereich nutzenbringendes Tool zu sein, das die Servicezeit signifikant reduzieren kann. GfA, Dortmund (Hrsg.): Frühjahrskongress 2019, Dresden Beitrag B.8.3 6 Arbeit interdisziplinär analysieren – bewerten – gestalten 6. Literatur Aneiros M, Estivill-Castro V (2005) Usability of Real-Time Unconstrained WWW-Co-Browsing for Edu- cational Settings. Proceedings of the IEEE/WTC/ACM International Conference on Web Intelligence. Compiègne: 105-111. Fuchs C, Diamantopoulos A (2009) Using Single-Item Measures for Construct Measurement in Man- agement Research: Conceptual Issues and Application Guidelines. Die Betriebswirtschaft 69(2):195- 210. Karrer K, Glaser C, Clemens C, Bruder C (2009). Technikaffinität erfassen - Der Fragebogen TA-EG. In: Lichtenstein A, Stössel C, Clemens C (Hrsg) Der Mensch als Mittelpunkt technischer Systeme. 8. Berliner Werkstatt Mensch Maschine-Systeme. Düsseldorf: VDI Verlag GmbH, 196-201. Kumar AMV, Naik B, Guddemane DK, Bhat P, Wilson N, Sreenivas AN, Lauritsen JM, Rieder HL (2013) Efficient, quality-assured data capture in operational research through innovative use of open-access technology. Public Health Action 3(1): 60-62. Likkanen L (2018) Accessed Dez 15, 2018. https://www.futurice.com/blog/tools-for-data-driven-design- of-digital-services/. Ullrich D, Deifenbach S (2010) Exploring the Facets of Intuitive Interaction. In: Ziegler J, Schmidt S (Hrsg) Mensch & Computer. Oldenbourg: 251-260. Venkatesh V, Bala H (2008) Technology Acceptance Model 3 and a Research Agenda on Interventions. Decision Sciences 39(2): 273-315. Venkatesh V, Brown S, Bala H (2013) Bridging the Qualitative-Quantitative Divide: Guidelines for Con- ducting Mixed Methods Research in Information Systems. MIS Quarterly 37(1): 21-54.