Mein 3D-Body-Scan: Sirkka als geklonter 3D-Avatar. Gibt es uns 2025 alle doppelt?

Hilfe, ich habe mich geklont. Richtig gelesen. Seit ein paar Tagen gibt es mich doppelt. Das erinnert mich irgendwie an das doppelte Lottchen von Erich Kästner. Mich gibt es jetzt einmal im physischen und einmal im virtuellen Leben.

In der virtuellen Welt gibt es mich jetzt in Lebensgröße, als hochauflösendes 3D-Modell. Damit ist es mir quasi möglich, mich unter bestimmten Voraussetzungen, an jeden Ort der Welt augmentieren bzw. beamen zu lassen. Ob ich das nun gut finde, weiß ich im Moment noch gar nicht genau. Ich bin am Experimentieren, am Tüfteln und am Nachdenken.

Es würde mich freuen, wenn sich ein paar Menschen hier in der Community auf dieses Gedankenexperiement einlassen und mit mir zusammen darüber nachdenken wollen, wie es wohl wäre, wenn wir in 2025, also irgendwann in der Zukunft (2025 ist meiner Meinung nach durchaus realistisch) alle einen Klon von uns selbst hätten? Welche Potenziale und Risiken gäbe es zu reflektieren und zu diskutieren?

Schreibt mir Eure Gedanken @EduOrakel mit Hashtag #SmartLearning.

#SmartLearning – Wenn ich einen Klon von mir hätte, dann…

SmartLearning – Wenn es mich auch in der virtuellen Welt gäbe, dann…

Im Folgenden beschreibe ich zunächst einmal, wie ich mich geklont habe und warum ich mich damit überhaupt beschäftige. Denn um ehrlich zu sein bin ich schon länger auf der Suche nach einer deratigen Lösung. Um genau zu sein seit März 2019. Dort hatte ich die Gelegenheit, an der International Conference on Smart Learning Environments (ICSLE) 2019 in Texas teilzunehmen. Ein Kernthema der Konferenz war Virtual Reality (VR). Der beste Vortrag den ich je zum Thema gehört habe war von Sun Joo (Grace) Ahn. Sie hat über ihre VR-Forschungsergebnisse gesprochen. Es ging insbesondere um die „Lernwirksamkeit“ von VR im Vergleich zu herkömmlichen Lehr-/ Lernszenarien in Form von traditionellen Vorlesungen/ Vorträgen.

Zum Glück habe ich sogar noch ein paar Auszüge aus ihrer Präsentation auf Twitter gefunden. Da ihre Präsentation so skuril und deswegen auch so einprägsam war, habe ich die VR-Simulationen noch immer gut in Erinnerung. In der Studie ging es darum, einen resourcenschonenden Umgang mit der Umwelt zu erlernen. Es gab 3 unterschiedliche Ziele:

  1. weniger Fleisch zu konsumieren
  2. weniger Papier zu verbrauchen
  3. den Anteil an Kohlendioxid in der Luft zu reduzieren

Es gab 2 Versuchsgruppen. Gruppe [1] hat Daten & Fakten über eine Präsentation vermittelt bekommen. Gruppe [2] hat drei unterschiedliche VR-Simulationen durchlaufen:

  1. Become a cow
  2. Become a Tree
  3. Become a Piece of Coral

In den VR-Simulationen ging es zusammen gefasst darum, die Perspektive zu wechseln. Also eine Kuh zu werden. Einen Baum oder eben eine Koralle. In der Simulation „Become a cow“ musste man sich beispielsweise mit VR-Brille auf dem Kopf in den Vierfüßerstand begeben. In der Simulation war man am Anfang eine glückliche Kuh auf der grünen Wiese, die dann zum Schlachthaus geführt wurde. Die Simulation war sehr kurz, vielleicht +/- 5 Minuten. Ähnliches Szenario im Hinblick auf das zweite Ziel – in der VR-Simulation war man ein Baumfäller und hat einen anfangs wunderschönen, grünen Wald mit seinen hoch gewachsenen Bäumen nach und nach abgeholzt, bis zum Schluss kein einziger Baum mehr übrig blieb und nur noch ödes, graues Land zu sehen war. Und am erstaunlichsten fand ich eigentlich das dritte Beispiel, weil man in der VR-Simulation die Rolle einer Koralle eingenommen hat, die anfangs wunderschön sanft mit den Strömungen des Meeres hin und her schaukelte bis das Meer allmählich immer wärmer wurde. Schritt für Schritt kam man dem Korallensterben immer näher und fühlte sich selbst als Teil davon, als ein Teil einer Koralle, die langsam stirbt. Durch VR war man in der Lage, sich als Mensch wie eine Koralle zu fühlen (!!!!!).

Die Studie von Sun Joo (Grace) Ahn hat zu folgenden Erkenntissen geführt (kurze Zusammenfassung):

Die Teilnehmenden der Studie, die in Gruppe [1] den Vortrag gehört hatten, waren in der Lage, mehr Fachbegriffe und Fakten widerzugeben, als die Vergleichsgruppe.

Die Teilnehmenden der Studie, die in Gruppe [2] die VR-Simulationen durchlaufen hatten, haben ihr Verhalten verändert. Im Vergleich zur Vergleichsgruppe haben die Probanden einen ressourcenschonenderen Umgang in ihren Alltag integriert.

Nun muss man natürlich differenzieren, welche Art von Lernen man fördern möchte, aber für mich ist effektives Lernen immer eine Erweiterung des eigenen Handlungsspielraums, also eine Transferleistung in das eigene Leben. Wer pures Auswendiglernen als Lernen deklariert (hat sicherlich auch seine Berechtigung), der liegt auch mit einem knackigen, gut aufbereiteten Vortrag richtig.

Wenn es aber darum geht, Menschen zum Denken & Handeln zu befähigen, brauchen wir Lernszenarien, die uns berühren. Die uns als Menschen ins Zentrum rücken. Egal ob es um derart gewichtige und harte Themen wie eben beschrieben geht oder um pure Freude, um Lachen oder Spaß im Leben. Emotionen sind wichtig, um aus losgelösten Fakten ein Erlebnis zu machen, das wir nicht vergessen. Ein Lernerlebnis, das wir so stark verinnerlicht haben, dass wir intrinsisch motiviert sind, um neues Verhalten zu praktizieren.

So, das war der Prolog. Denken wir mal einen Schritt weiter.

Auf der International Conference on Smart Learning Environments (ICSLE) 2019 in Texas habe ich viele spannende Menschen kennengelernt. Unter anderen auch Aleshia Hayes. Sie ist spezialisiert auf das Thema VR und wir haben uns darüber unterhalten, wie es wohl wäre, wenn wir uns als natürliche Menschen 1:1 in die digitale Welt „klonen“ könnten. Mich hat die ICSLE Konferenz in Texas und die vielen inspirierenden Gespräche so stark fasziniert, weil sie nicht nur technische Aspekte adressierten, sondern v.a. eine verantwortungsvolle Gesellschaft zum Ziel hatte, die rücksichtsvoll mit unserem Planeten umgeht. Einen kleinen Überblick zu den von mir gewählten Themen gibt es noch auf meinem Twitter Moment.

Die Frage lautet also: Was kann man als nachhaltig sinnvolle technische Innovation bezeichnen? Wie können neue Technologien wie IoT, AR, MR oder VR dazu beitragen, dass wir Menschen friedvoll miteinander und auch mit unserer Umwelt agieren? Wie können diese Technologien das Lernen beflügeln und auf ein komplett neues Level heben?

Mit meinem virtuellen ICH, das (fast) genau so aussieht wie ich im „echten“ Leben, möchte ich mich auf eine Reise begeben. Was könnte man damit wohl SINNVOLLES tun? Oder welche Ressourcen könnte man damit schonen?

2019 gab es für das menschliche 1:1 Klonen noch keine öffentlich zugängliche, finanziell erschwingliche und mir bekannte Lösung, um uns Menschen 1:1 zu virtualisieren.

HEUTE GIBT ES EINE LÖSUNG

Durch mein XR-Netzwerk bin ich letztlich auf Full-Body-Scanner aufmerksam geworden. Es gibt in diesem Segement bereits ein paar wenige Anbieter (auch in Deutschland). Zwei Anbieter gibt es auch in Berlin.

Eine Weltneuheit in diesem Bereich bietet botspot in Berlin. Ich hatte das Glück, einen Termin zu bekommen und mit Antje Lewerenz, Head of Marketing & PR über ein paar Details sprechen zu können. Frau Lewerenz hat mir die Werkstatträume am Hafen von Oberschöneweide in Berlin gezeigt, wo die 3D-Scanner gebaut werden und hat mir darüber hinaus auch ein paar spannende Fragen beantwortet, die ich im Folgenden zusammenfassen möchte.

Botspot entwickelt photogrammetrische 3D-Scanner als 3D-Körperscanner oder 3D-Objektscanner. Botspot hat die photogrammetrische 3D-Scan-Technologie derart professionalisiert, dass es HEUTE bereits möglich ist, jegliches Objekt oberflächengetreu zu digitalisieren. Seit 2013 entwickelt und baut botspot 3D-Scanner »Made in Germany«. Angefangen als Start-Up im Bereich 3D-Druck von menschlichen Miniaturen hat sich das Unternehmen mittlerweile als Technologieführer im Bereich Photogrammetrie entwickelt.

© botspot GmbH

Das Unternehmen bietet 5 unterschiedliche Scanner an. Von der Funktionsweise sind sie alle recht ähnlich, sie unterscheiden sich insbesondere in der Größe.

Ich durfte den botscan NEO ausprobieren. NEO ist ein Scanner, in den man hineinlaufen kann und hauptsächlich aus hochwertigen Fotokameras besteht. Neben den Kameras besteht der Scanner aus zahlreichen weiteren Bauteilen, die zum Beispiel für die Synchronität des Auslösemechanismus´ sorgen. Diese sind jedoch im Inneren verbaut und deshalb nicht sichtbar. Die äußere Form besteht aus einem runden Metallgestell, an welchem 82 hochauflösende Canon Kameras befestigt sind. Innerhalb von weniger als 1 Sekunde können auf diese Art und Weise 82 Fotos von den Objekten/ Menschen im Inneren des NEO SCANS geschossen werden.

Die Scanzeit beim botscan NEO beträgt genau genommen 0.01 Sekunden (0.6 Sekunden mit Pattern Projection). Alle Scanner arbeiten mit Photogrammetrie: Bei den Fullbodyscannern befinden sich die Sensoren rings um das Scanobjekt herum. Somit benötigt man nur diesen kurzen Moment für die Objekterfassung. Dies ist insbesondere bei beweglichen Objekten praktisch.

© botspot GmbH

Die einzelnen Fotos werden danach mit Hilfe einer Software in ein realistisches 3D-Modell umgerechnet. Dieser Vorgang dauert ca. 15-30 Minuten, wobei die Berechnungszeit je nach Computersystem variieren kann. Ausgegeben wird das 3D-Modell dann als OBJ, GLB, PLY, ABC, DAE, FBX, DXF, XYZ, PXT oder LAS. Darüber hinaus ist eine Skalierung der 3D-Modelle möglich. Das bedeutet, ich kann mich als 3D-Modell kleiner oder größer augmentieren bzw. größer oder kleiner in 3D Lern-und Arbeitswelten einbinden. Oder eben natürlich auch in Orgiginalgröße.

Das Unternehmen ist in den vergangenen Monaten stark gewachsen. Der Markt ist vielfältig. Über den botscan MOMENTUM können unterschiedlichste Arten von Objekten innerhalb von 1 Sekunde digitalisiert werden. MOMENTUM erzeugt hochpräzise, farbtreue 3D-Daten von Objekten ab 5 bis 50 cm. Genutzt wird der botscan MOMENTUM zur schnellen 3D-Digitalisierung in den Bereichen E-Commerce, eHealth oder in der Industrie. Auch im Bereich Reverse Engineering gibt es etliche Use Cases.

Angenommen, alte Maschinen, Fahrzeuge oder sonstige Bauteile werden nicht mehr hergestellt. Mit dem Objekt-Scanner können nicht mehr verfügbare Ersatzteile gescannt und anschließend über einen 3D-Drucker nachproduziert werden. Im eCommerce könnte in naher Zukunft jeder seinen eigenen 3D-Avatar haben, an dem man die Kleidung realitätsgetreu anprobieren könnte. Das System schlägt einem automatisch die richtige Größe & Passform vor. So könnten unnötige Retouren vermieden werden.

Ein sehr hohes Potenzial liegt meiner Meinung nach im Healthcare Bereich. Das Scannen von menschlichen Organen in der Pathologie könnte beispielsweise dazu beitragen, Tumore oder Veränderungen an Organen sichtbar und ÄrztInnen auf der ganzen Welt verfügbar zu machen. Ob es sich um einen Wissensaustausch auf einer internationalen Konferenz oder um den Aufbau von Fachwissen an der Universität geht. Gerade in den Naturwissenschaften wird oft an Modellen gelernt. Am menschlichen Körper, an realen Organen, an nachgebauten Molekülen etc.

Wenn man nunmehr in der Lage wäre, alle naturwissenschaftlichen Modelle als hochauflösendes 3D-Modell zu generieren, könnten WissenschaftlerInnen (oder auch andere Interessierte) auf der ganzen Welt ganz neu lernen und arbeiten. Laut Frau Lewerenz gibt es bereits heute Bestrebungen, die Technologien der 3D Photogrammetrie mit der Computertomografie (CT) zu verbinden. Das CT ist ein medizinisches Verfahren zur Darstellung von inneren Körperstrukturen. Damit lassen sich Herz, Lunge, Gehirn und viele weitere Strukturen sehr detailliert abbilden.

Ein weiteres, sehr nützliches Einsatzgebiet wäre die Herstellung von Prothesen. Über eine exate 3D-Körpervermessung könnten personalisierte Prothesen in einem sehr hohen Detaillierungsgrad gefertigt werden. Aber auch im Bereich der Ergonomie könnten 3D-Scanner von großem Vorteil sein. Egal ob im Fahrzeug- oder Maschinenbau. Eine Planung anhand von menschengetreuen 3D Modellen hilft, ergonomische Anforderungen zu optimieren.

Last but not least gibt es natürlich auch gigantische Potenziale im Gaming Segment. Richtig spannend sind hier aktuelle Entwicklungen in Kombination mit Gesten- und Sprachsteuerung. Sicherlich nur eine Frage der Zeit, bis man mit der Playstation oder der Nintendo Wii mit seinem eigenen Avatar zocken kann.

Was die Herausforderung betrifft, ist auch hier das Thema Datenschutz und Datensicherheit zu nennen. Weiterhin geht es auch um ethische Fragestellungen: Möchte ich, dass meine Muttermale regelmäßig von einem KI-gestützen Computer automatisiert begutachtet und bewertet werden? Aber auch: Was für Vorteile hätte Derartiges zum Beispiel in Ländern, wo es zu wenig Ärzte gibt oder die Entfernungen einfach zu weit sind? Fragen über Fragen. Wird die Matrix von 1999 bald real???? Immerhin bin ich nicht so grau wie Mr. Smith…

Wie wollen wir als Gesellschaft 3D-Scanner nutzen?

Zukünftig wird es möglich sein, reale Objekte oder eben auch Lebewesen digital abzuscannen und in vorhandene 3D-Welten, wie z.B. Tricat zu integrieren. Welche Auswirkungen könnten 3D-Scanner im Corporate Learning Bereich haben?

Virtuelle 3D Lern- und Arbeistwelten könnten dadurch sicherlich um einiges realistischer werden. Das war zum Beispiel eines meiner größten Probleme, als ich Tricat getestet hatte. Ich konnte mich einfach nicht mit meinem Avatar identifizieren. Zumindest am Anfang. Wahrscheinlich gibt es bald die Möglichkeit (oder ist es schon möglich??), seinen eigenen 3D-Avatar auf Plattformen wie z.B. roooom hochzuladen? So wie es in vielen anderen 3D Lernwelten bereits möglich ist. Mit dem Object Viewer von Merge kann ich 3D Dateien (OBJ, FXB…) uploaden. Bei geeigneter Hardware kann ich also heute schon jegliche Objekte frei im Raum platzieren und augmentieren.

Demnach auch meinen Sirkka 3D-Klon. Ich habe das bereits getestet. Nachts, als ich nicht schlafen konnte, weil mich die Idee so fasziniert hat. Zuerst habe ich mein Gesicht mit einer 3D-Scanner App für Android von Lubos Vonasek gescannt. Die Datei habe ich gespeichert und im Merge Object Viewer hochgeladen.

Und es hat funktioniert. Ich habe mich selbst mehrfach in meiner Küche „platziert“, „kopiert“ und auch „skaliert“ – ich konnte um mich selbst herumlaufen. Das war ein absolut komisches, schon fast gruseliges Gefühl, sich selbst im Raum augmentiert zu sehen.

Da mir aber die Qualität des Scans noch nicht gefallen hat – eine Übersicht von Scan-Apps gibt es hier – dachte ich mir, dass es das doch mittlerweile etwas besseres geben müsste. Grundsätzlich muss ich hier auch anmerken, dass das ARKit von Apple wesentlich bessere Ergebnisse erzielt, als dies via Android derzeit noch der Fall ist.

Wer also AR-Apps testen möchte, am besten mit einem iPad starten. Im Schulbereich können da wirklich tolle Sachen gemacht werden, indem beispielsweise Kunstobjekte von Museen eingescannt und über den Merge Cube / Object Viewer betrachtet werden können. Über die Plattform von Merge stehen schon etliche 3D-Modelle frei zur Verfügung. Die Inhalte für Biologie, Erdkunde, Mathematik, Chemie etc. sind derzeit noch ausschließlich für das amerikanische Schulsystem konzipiert, aber ich bin mir sicher, es wird nicht mehr all zu lange dauern (hoffentlich) und auch deutsche (Hoch-)Schulen erkennen das Potenzial und vielfältigen Möglichkeiten, die digital-hybride Lernwelten eröffnen. Insbesondere auch im Hinblick auf kreatives und aktives Lernen, indem die Lernenden ihre Lernwelten selbst gestalten.

Zum Schluss nun das finale Ergebnis über den botspot Scan. Mein Ziel, mich überall hin augmentieren/ beamen zu können, habe ich in 2020 also schon mal erreichen können. Isabella Gipson von MERGE habe ich in Austin Texas besucht und sie hat mich im Flugzeug mit nach Deutschland genommen 😉 Seht selbst:

So, what´s coming next?

  1. Pimp my texture
  2. Let´s animate my clone

Leider hat beim Upload des zip archives inkl. texture files irgendetwas nicht geklappt. Ich schätze, das hat mit der Originalgröße des Scans zu tun, der für den Upload stark reduziert werden musste. Die Lösung wäre laut MERGE folgende:

„She would need to use what’s called a „High to Low Poly Workflow“ and bake the textures down onto the low resolution model.“

Wer mir dabei irgendwie behilflich sein kann, meldet sich gerne bei mir!!!!

So, nun muss ich mir nur noch überlegen, was ich mit meinem 3D-Scan in Lebensgröße und bester Qualität anstellen werde. Habt ihr zufällig Ideen?? Ich verrate meine Idee dann im neuen Jahr u.a. auf der L&D Pro und auf der LEARNTEC 😉

UPDATE – – Kleiner Nachtrag ein Jahr später, Januar 2022

Es geht, sogar noch viel leichter als je gedacht. Sirkka Nr. 2 tanzt auf der ganzen Welt, per webbasiertem AR ohne App, einfach den QR Code scannen und ich tanze in deiner Wohnung. Danke an rooom. Probier es gerne aus: Hier klicken, um es direkt über den Browser zu öffnen.

Oder Sirkka in Lebensgröße bei dir zu Hause: Hier klicken, um es direkt über den Browser zu öffnen.

UPDATE – – FAST GENAU 2 JAHRE SPÄTER

Wie rasant sich die Technologie entwickelt sieht man an meinem neuesten Avatar. Produziert habe ich diesen Ende August 2022 innerhalb von 5 Minuten und zwar in Jena, im brand neuen Volumetric Capturing Studio der rooom AG. Leider musste ich zum Zug und hatte nicht mehr Zeit zur Vorbereitung oder gar für ein Interview mit unserem Studioleiter, von daher zunächst einmal ein kleiner Einblick. So sieht das Studio aus:

Das Besondere daran:

Es werden keine einzelnen Fotos aufgenommen, die nachträglich in ein 3D Modell überführt werden, sondern es wird direkt ein Video aus allen Perspektiven aufgezeichnet. Das Ergebnis sieht nach 5 Minuten so aus:

Schaut euch gerne das Ergebnis als AR Hologramm an. Scannt dazu den QR Code oder klickt mit eurem Smartphone auf diesen Link: Hier direkt auf dem Smartphone öffnen.

Das Studio bzw. die simple Technologie hat mich total beeindruckt, daher werde ich auf unserem nächsten Barcamp der Smart Learning Pirates ich eine Session dazu anbieten.

3 Kommentare

Kommentar verfassen