Learntec 2019: Am Stand von TriCAT treffe ich Markus Herkersdorf. Er lädt mich gleich ein, mit VR-Brille in eine neue Lernwelt einzutreten. Eine virtuelle mannshohe Figur spricht mich gleich an, und bittet mich, ihr an eine Maschine zu folgen. Diesen Avatar interessiert sogar was ich sage. Ich kann mit ihm sprechen. Er hilft mir im Gespräch – sogar ganz nett – die Maschine in Gang zu setzen. Nur die Messehallen-Geräusche passen nicht so recht zur Fabrik-Umgebung. Sonst fühle ich mich gerade ganz stolz, die Maschine in Gang gesetzt zu haben.
Darüber – und über Wirkungen von VR aufs Lernen, habe ich mit Markus ein Gespräch geführt, das ich glücklicherweise auch gleich aufgezeichnet habe. Markus sieht gerade in der Möglichkeit, einen Avatar für sich selbst zu steuern, große Chancen fürs Lernen. Ich erahne langsam, was es bedeuten kann, damit ungewohntes eigenes Verhalten mutiger auszuprobieren.
Ein Satz von Markus aus dem Interview lässt mich nicht mehr los: “Wir haben die letzten Jahrzehnte Daten und Prozesse virtualisiert. Und wir sind gerade mit diesen Umgebungen dabei, die gegenständliche Welt zu virtualisieren.“
Du kannst Dir das ganze Gespräch selber anhören – oder hier als Transkript nachlesen.
Transkript des Interviews:
Karlheinz:
Ich stehe gerade am Stand von TriCAT. Mir gegenüber steht Markus Herkersdorf. Markus Herkersdorf ist bei fast jedem Corporate Learning Camp dabei. Und ich habe eben die Gelegenheit gehabt, eine kurze Präsentation von virtueller Realität in einem Produktionsumfeld zu erleben. Ich war sehr beeindruckt.
Markus, vielleicht erklärst du ein bisschen, worum geht’s bei dieser Präsentation und was für einen Hintergrund hat die?
Markus:
Karlheinz, das was Du hast gerade live ausprobiert hast, ist ein Forschungsprojekt mit dem Akronym Vase. Es geht dabei darum, zu untersuchen, wie im Bereich Maschinen- und Anlagenbau entlang der gesamten Wertschöpfungskette auf der Basis von Service Analytics und von virtuellen Services, Optimierungen stattfinden können. Und welche digital basierten neuen Geschäftsmodelle dabei entstehen können. Für unsere Zuhörer, um das ein bisschen zu illustrieren: Du warst in einem Setup, wo Du im Schulungszentrum der Firma Trumpf an einem neuen 3D-Laser standest. Und Du hast ja gesehen, da ist tatsächlich die gesamte Umgebung mit abgebildet. Und das ist schon mal ein entscheidender Punkt: Das ist nicht nur der digitale Zwilling dieser Maschine. Das ist eine Kategorie in der wir bisher denken. Aber wir haben jetzt die gesamte Umfeld-Situation, und du hast jetzt eine VR-Brille getragen. Das würde auch ohne VR-Brille gehen. Und es würde auch in einem Multi-User Setting gehen. Das heißt, dass mehrere Personen in diesem Schulungszentrum anwesend sein könnten. Die Maschine selber ist tatsächlich ein digitaler Zwilling, einmal als 3D-Modell, aber auch von der ganzen funktionalen Interaktionsmöglichkeit. Das heißt, man kann die Maschine bedienen. Man kann tatsächlich mit der Maschine so agieren, wie man das mit der physischen Repräsentanz dieser Maschine tun könnte.
Karlheinz:
Mich hat ja fasziniert, dass nicht nur die Maschine da war und ich, sondern da war dann auch noch so ein Avatar, oder so jemand, der wirklich wie ein echter Mensch aussah, und der hat sogar mit mir gesprochen. Also von daher war es so der Ausbilder, der Anleiter. Ist das der Kern dieses Projektes, das da praktisch ein Mensch ersetzt wird?
Markus:
Das ist in der Tat eine interessante Variante, die wir jetzt dazu packen, weil wir in einem anderen BMBF-Vorhaben, das letztes Jahr zu Ende gegangen ist, untersucht haben, wie weit man heute Avatare, die über künstliche Intelligenz gesteuert werden, und diese KI mit Emotions- und Verhaltensmodellen hinterlegt ist. Inwieweit gelingt es also, sozusagen nicht nur einen Tutor und Instruktor in das Szenario zu übernehmen, der fachlich etwas zu sagen hat. Sondern für uns ist spannend, herausfinden, inwieweit man tatsächlich so eine Art persönlichen Lernbuddy schafft in so einer Umgebung bereitzustellen. Der natürlich fachlich inhaltlich versiert ist, mit dem man im Sprachdialog sein kann, der aber vielleicht auch über emotionale Eigenschaften, wie Geduld, wie Zuwendung, wie Tempo rausnehmen, wenn man merkt, dass ein Lerner nicht mitkommt. Also all das was einen guten Ausbilder, einen guten Trainer ausmacht.
Karlheinz:
Ja, das habe ich auch erlebt, um den Hörern das so zu sagen: Der hatte meine Körpergröße. Der stand richtig vor mir und hat mir dann gesagt, was ich jetzt tun soll und als ich ein bisschen zögerte, fragte er mich ob er mir helfen könne. Und sagte: Nimm doch dein Handgerät und geh auf das blaue Feld und dann startet die Maschine. Also es war wirklich, als wenn ein Mensch neben mir steht und mich dort wohlwollend anleitet.
Markus:
Genau, und das war du hier erlebt hast, und so schön beschreiben hast: Der Eindruck wäre falsch, wenn man anhand von solchen Erlebnissen glaubt, dass die KI heute so weit ist, dass man völlig frei dialogisch interagieren kann. Der Vorteil von virtuellen Szenarien ist, dass ich natürlich in einer virtuellen Umgebung sozusagen exakt informiert bin, was ist der aktuelle Kontext, was ist die Situation, was ist die Trainingssituation. Ich hab also als System sozusagen, ein umfangreiches Wissen, in welchem Moment der Lerner sich befindet. Und mit diesem Wissen inklusive der Sprach-Dialogführung bin ich hinreichend gut in der Lage abzuschätzen, welches Problem könnte derjenige gerade haben. Also um es am Beispiel zu machen: Wenn der autonome Agent zeigt, über welchen Hauptschalter die Maschine einzuschalten ist, dann wissen wir natürlich in einer virtuellen Umgebung, wo der Lerner gerade steht und wenn er theoretisch in der Reichweite zu dem Hauptschalter steht, und er auch dort hin schaut, und trotzdem keine Aktion erfolgt, dann kann ich annehmen, dass er entweder die Instruktion nicht verstanden hat, oder vielleicht in dem Fall mit dem VR-Controller nicht zurechtkommt, oder noch über irgendwas nachdenkt. Und dann kann ich sozusagen an dieser Stelle reinspringen und kann ihn unterstützen. Und wenn man das mal weiterdenkt, dann ist schon die Vorstellung, dass Menschen mit unterschiedlichen Lerngeschwindigkeiten, mit unterschiedlichem Hintergrund-Wissen, vielleicht auch mit einer geringen Technik-Akzeptanz, durch solche autonomen Agenten in ihrem individuellen Lerntempo, aber auch unterstützend zu ihrer Motivation gerade zu lernen – oder auch nicht zu lernen – geführt – geführt klingt zu streng – unterstützt werden.
Das ist sicher noch eine Vision. Nur – es ist keine Science-Fiction mehr. Es findet jetzt statt. Es beginnt jetzt. Und wir werden von vielen kleinen Schritten, die da jetzt passieren, zu Umgebungen kommen, die das Thema Lernen – auch im Sinne von „Was macht der Trainer noch“, durchaus revolutionieren können.
Karlheinz:
Also mich fasziniert dabei, Du hast ja vorhin gesagt, das könnte jetzt man auch in Gruppen machen. Aber irgendwie ist ja der Vorteil, dass jetzt jeder praktisch in seinem Tempo lernen kann, jeder seine Schwierigkeiten mit dem Avatar besprechen kann – geht ja wirklich. Und damit ausprobieren kann, wie er es sich am besten erarbeitet, worum es hierbei geht. Und damit ist ja die – nur aus wirtschaftlichen Gründen zusammengefasste Seminar-Gemeinschaft – wir fassen ja möglichst viele zusammen, damit sich‘s rechnet – gar nicht mehr nötig. Wenn das jeder für sich jetzt machen kann, könnte man das ja auch zeitlich entzerren. Die müssen ja nicht alle zur gleichen Zeit da sein. Und damit wäre ja so dieses individuelle Lernen endlich praktisch für den gleichen Preis realisierbar.
Markus:
Also ich würde drei Qualitäten des Lernens und der Begegnung unterscheiden wollen:
- Zum einen, das was Du gerade angesprochen hast, die große Chance, die uns solche immersiven Umgebungen bieten, dass tatsächlich in der eigenen Geschwindigkeit jemand selbst für sich hoch interaktiv, sehr anschaulich und unterstützt durch solche autonomen Agenten lernen kann.
- Dann so etwas, wie wir in den letzten Jahren auch entwickelt haben: Virtuelle 3D-Klassenräume, virtuelle 3D-Akademien, wo wir merken, dass viele Unternehmen jetzt genau auf dieses Thema anspringen. Weil man zum Einen möglicherweise nicht mehr bereit ist, die hohen Kosten für Präsenz-Zusammenkünfte zu bezahlen. Aber ich glaube, noch wesentlich zentraler, als das Kostenargument, ist die Tatsache, dass Unternehmen heute im wahrsten Sinne des Wortes agil sein müssen, nicht als Schlagwort. Sondern wer heute als Unternehmen nicht schnell genug sich selbst weiterentwickelt, in den unterschiedlichsten Themenbereichen, Innovation, Produkt, Markt, Unternehmenskultur, ist vielleicht morgen nicht mehr da. Und dieses bedrohende Wissen ist heute spürbar, überall. Und die Möglichkeit, uns virtuell zu begegnen, und in einer Präsenz-ähnlichen Qualität mit vielen Abstrichen – darum gehts gar nicht, dass Avatare künstlich aussehen, dass der Dialog mit Avataren ein bisschen ungewohnt ist, das wir heute Mimik und Gestik zwar in der Labor-Situation eins zu eins schon in solche virtuellen Umgebungen bringen, aber noch nicht in jeder Form des Produktes. Aber trotzdem bietet es in dieser großen Lücke zwischen dem was wir heute in physischer Präsenz an Begegnungen haben, und dem was wir klassischerweise mit dem bisherigen E-Learning machen, eine Lösung, die hinreichend gut an der Präsenzerfahrung ist. Und trotzdem die Vorteile der Digitalisierung hat.
- Der Dritte Bereich – und der ist mir ebenfalls wichtig – auch wenn wir solche Lösungen virtueller Lern- und Arbeitswelten seit vielen Jahren entwickeln, ist die tatsächliche persönliche Begegnung zwischen zwei Menschen oder zwischen mehreren Menschen. Und wir verstehen unsere Lösungen nicht als Ablösungen dieser persönlichen Begegnung. Sondern wir wollen ganz im Gegenteil wieder die Freiräume schaffen, dass man nicht zu x Standard-Terminen und zu reiner Wissensvermittlung zusammenkommen muss, und in den Staus feststeckt und die Umwelt verpestet. Sondern qualitativ hochwertige Austausch-Begegnungen – zeitlich und von der Lust, so etwas wieder zu machen – schafft.
Karlheinz:
Beim ersten und beim dritten Punkt sind wir uns völlig einig. Beim zweiten habe ich noch eine Frage Markus. Wenn ich es richtig verstanden habe, sprichst Du von virtuellen Seminaren. D.h. nicht ich selber bin im Seminar, sondern mein Avatar vertritt mich und die Avatare unterhalten sich untereinander. Wo liegt eigentlich der Vorteil, wenn ich mich jetzt verstecke hinter dem Avatar, Warum bin ich nicht ich selber, und interagiere mit den Anderen im Seminar?
Markus:
Na ja, der Vorteil ist schon sehr deutlich. Ich werde durch diesen Avatar repräsentiert. Ich steuere aktiv diesen Avatar. Ich stecke quasi in seinem Körper. Ich nehme die Umgebung aus seinen Augen wahr, und ich höre alles was in dieser Umgebung passiert quasi durch seine Ohren. Und damit kann ich – und das ist vielleicht, wenn man dieses Sprachbild gebrauchen darf: Wir haben die letzten Jahrzehnte Daten und Prozesse virtualisiert. Und wir sind gerade mit diesen Umgebungen dabei, die gegenständliche Welt zu virtualisieren. Die Maschinen, die Anlagen, die Handlungsumgebungen, aber letztendlich auch die Fähigkeit für uns Menschen jederzeit an jedem virtuellen Ort präsent werden zu können. Heute noch mit einer überschaubaren Qualität in der Darstellung der Persona, aber wir können heute schon 3D-Echzeit-Scans machen, wo dann tatsächlich die Person dasteht und wir können heute schon in Echtzeit Mimik auf den Avatar spielen. Und die Wissenschaft zeigt uns sehr deutlich – renommierte Wissenschaftler wie Mel Slater – dass wir Menschen, unser menschliches Gehirn, diese Avatare tatsächlich als Repräsentanten anderer Menschen wahrnimmt. Und man damit eben nicht nur mit der Kunstfigur spricht, sondern eigentlich mit dem Menschen dahinter. Diese soziale Form der Interaktion hat man in keinem anderen elektronischen Medium. Noch nicht einmal in der Video-Konferenz – die natürlich das bessere Bild bietet – aber Distanz manifestiert, nicht handeln lässt, soziale Interaktion einsperrt, limitiert. In der virtuellen Umgebung habe ich quasi vergleichbar die soziale Interaktion wie in der physischen Präsenzumgebung. Da gibt es Forschungen, Prof. Zinn, Technik-Didaktik der Universität Stuttgart, konnte in solchen Umgebungen bei Servicetechnikern, das Erreichen eines Flow-Zustandes nachweisen. Also das vollständige Aufgehen in einer Handlung – und das in einer sozialen Lerngruppe.
Karlheinz:
Und wenn ich Dich richtig verstehe, meinst Du, wenn man mit so einem Avatar handelt, wird man mutiger, wird man Dinge tun, die man sich sonst als normale Person nicht so trauen würde?
Markus:
Also zum einen zeigt das Verhalten, dass man in der physischen Präsenz auch zeigen würde. Das ist ja auch ein weiterer Vorteil an solchen virtuellen Umgebungen. Ich kann da drin völlig frei handeln. Das heißt, ich werde, wenn ich entlang eines Zieles handele, vergisst man relativ schnell, dass man eigentlich in einer Simulationsumgebung ist, und tut dann genau das, was man im echten Leben auch täte – in der entsprechenden guten oder nicht so guten Qualität. Das andere ist aber das Zuschreiben von Eigenschaften, die mit der Erscheinung dieses Avatars korrelieren. Also es gibt z.B. Untersuchungen, die zeigen, dass ein großer gutaussehender selbstbewusster Avatar, einen im eigenen Verhalten beeinflusst. und wenn ich in diese Avatar-Persona wechsle, dann verhalte ich mich tatsächlich extrovertierter, z.B. als Vertriebsmensch.
Karlheinz:
Das heißt, man übt mal andere Verhaltensweisen ein, die man sonst sich selber nicht so trauen würde. Wenn man die aber mit dem Avatar erlebt hat, kann man sie auf sich selbst auch wieder in der realen Situation übertragen?
Markus:
Genau. Das ist tatsächlich so, dass man vielleicht noch gar nicht im ersten Schritt einübt, sondern man wird überhaupt erst mal einem anderen Verhalten bewusst, kann das reflektieren, kann das mit dem eigenen Verhalten in Verbindung bringen und sozusagen auf einer Meta-Perspektive diese Reflektion betreiben. Und daraus kann dann ein Lernen entstehen.
Karlheinz:
Na ja, also mich überzeugt, auch, wenn ich einmal in anderer Weise gehandelt habe und festgestellt habe, oh, das war ja eigentlich ganz gut, die anderen haben ja gut drauf reagiert und es war für mich nur positiv, dann werde ich ermutigt, es dann auch selber beim nächsten Mal zu probieren. Ja, das ist ein Aspekt, den ich bisher noch gar nicht so gesehen habe.
Markus:
Vielleicht noch ein sehr anschauliches Beispiel: Wir schließen jetzt gerade ein anderes BMBF-Forschungsprojekt ab. Da geht es um die Notfallsanitäter-Ausbildung in einem VR-Multiplayer-Setting. Das heißt, die beiden Notfallsanitäter-Auszubildenden tragen beide VR-Brillen und behandeln in einem Einsatzszenario einen virtuellen Patienten. Und wenn man mal überlegt, dass das ein lebensbedrohlicher Schock bei einem Klein- oder Kleinstkind ist, dann habe ich in der normalen Ausbildungssituation im Hörsaal oder in einem Simulationszentrum entweder den Rollenspieler, den kann ich aber insbesondere, wenn es ein Kind ist, nicht mit dem vollen Erscheinungsbild – ein zuschwellender Hals, Hautrötungen, starke Ausschläge, nicht mit den Vital-Parametern, die sich negativ verändern – simulieren. Ich kann das teilweise mit der Simulationspuppe, aber auch dort bin ich eingeschränkt. Auch dort lässt sich das dynamische Geschehen nicht abbilden.
Wir haben solche Situationen in dieser virtuellen Umgebung gebaut. Ein Kleinkind, dass Nüsse gegessen hat, oder von der Wespe gestochen ist. Jetzt kommen die beiden Notfall-Sanitäter dort hin, müssen erstmal diese Situation bewerten, fangen an, sich ein Bild zu machen. Dann verändert sich der Gesundheitszustand des Kindes dramatisch. Und man sieht das auch. Man hat sozusagen alle visuellen, alle akustischen und alle gerätetechnischen Signale, die mir diese Indikation geben. Und wenn man jetzt noch die Mutter – und das muss kein echter Rollenspieler sein – sondern das kann genauso ein autonomer Agent sein – die sieht, wie ihr Kind gerade droht zu ersticken, wie es blau anläuft, wie die Herzfrequenz nach unten geht. All das zusammengenommen, beschreibt eine reale aber extrem seltene Einsatzsituation. Und wir haben nicht nur frühe Anfänger in dieser Notfallsanitäter-Ausbildung erlebt, wie sie unter maximalen Stress kamen. Wir haben diese Situation auch mit erfahrenen Notärzten, mit 10 Jahren und mehr Dienstzeit. Und auch dort stellt man fest, welcher Stress plötzlich da ist. Und das einfache Rechenaufgaben, die richtige Adrenalin-Dosis zu errechnen, plötzlich einen enormen kognitiven Aufwand bedeuten, und nicht mehr routinemäßig sind. Das zeigt wie dicht wir mit diesem Trainings-Setting an ein reale Einsatz-Situation, die im Zweifel Leben rettet, herankommen können. Das bringt auch sehr gut auf den Punkt, wieso diese virtuell immersiven Umgebungen in Kombination mit Simulation mit Avataren – und bei dem kleinen Kind setzen wir tatsächlich auch diese KI-basierten Dialog-Fähigkeiten ein, weil wir ja nicht wirklich dieses kleine Kind als Rollenspieler haben – also antwortet sozusagen die KI über Fragen von Schmerzen, stöhnt aber auch auf, wenn man eine Spritze gibt und ähnliches.
Karlheinz:
Ok, das letzte war jetzt mehr Simulation. Während für mich ja noch die Frage war: In den Avatar hineinschlüpfen ist ja eine Art Simulation eines anderen eigenen Verhaltens. Diese Verhaltensänderung, das fasziniert mich eigentlich. Das wir in dem Punkt überhaupt keine Möglichkeit haben, in Weiterbildungen so etwas mal zu probieren. Rollenspiele versuchen es zwar, aber da ist man immer noch als eigene Person zu sehen und da traut man sich nicht ganz so viel. Aber hier kann man wirklich mal echt ausprobieren, ein ganz anderes Verhalten, als man es sonst an den Tag legen würde. Nur um mal zu sehen, was passiert denn eigentlich.
Markus:
Man kann sich selbst ausprobieren, aber es hat auch eine besondere eigene wertvolle Qualität. Andere Avatare, die man in so einer digitalen und virtualisierten Umgebung beliebig auf eine bestimmte Absicht hin ausstatten kann. Von der Kleidung, vom Auftreten, also ich hab das ganze Setting in der Hand. Ich kann jemanden streng agieren lassen. Ich kann jemanden freundschaftlich unterstützend agieren lassen. Und allein schon das Herstellen von solchen Situationen, in denen ich mich dann selber wiederfinde, und in denen ich in irgendeiner Form zurechtkommen muss, sind die Möglichkeiten, die ich in der physischen Präsenz – wenn überhaupt – mit enormem Aufwand und kaum standardisiert herstellbar zur Verfügung hab.
Karlheinz:
Also mir kommt da grad so in den Sinn, das ist ein viel realistischeres Ausprobieren von komplexen Situationen. Und diese komplexen Situationen werden dadurch ja auch wieder erzeugt, in dem die anderen Avatare auch wieder von Menschen gesteuert werden, die sich jetzt davon ja irgendwie beeinflussen lassen. Und damit muss man selber wieder reagieren. Dieses Spiel, ich glaube, das ist hochinteressant.
Markus:
Es ist die Umgebung. Es sind ja nicht nur die anderen Avatare, und das bin ich als handelnder Akteur, es ist natürlich auch die Umgebung. Und auch diese Umgebung lässt sich in einer virtualisierten Welt beliebig beeinflussen, im Sinne von freundlich, entspannt, stressig, häßlich – was auch immer man an Kategorien haben möchte – man kann das standardisiert herstellen.
Karlheinz:
Schönen Dank, Ich hab eben wieder ganz viel gelernt. Markus Danke für das Interview – und weiter viel Erfolg hier auf der Learntec!
Markus:
Sehr gerne Karlheinz.