Genau heute vor drei Wochen hat das Festival der Berliner Wirtschaft unter dem Motto „Wissen macht Wirtschaft“ an der IHK Berlin stattgefunden. Innerhalb von 3 Themensträngen wurde das Thema Bildung in den Fokus gerückt: Bildung x Daily Business, Bildung x Diversity und Bildung x Innovation.
In meiner Keynote „Science Fiction becomes Science Fact“ habe ich zunächst den Blick in die Vergangenheit geworfen und die BesucherInnen gefragt, was HAL 9000 (Odyssee im Weltraum, 1968), Terminator (1984) und Roboter Andrea (2022) mit der Zukunft der Aus- und Weiterbildung zu tun haben?
Anhand von 4 Thesen haben wir uns dann schrittweise der Antwort genähert, was eine perfekte Überleitung zum anschließenden Panel darstellte.
Nun war die Digitalisierung der Keynote eine perfekte Gelegenheit, noch weiter mit unterschiedlichen KI-Tools zu experimentieren. Vor allem auch im Zuge der Vorbereitung unserer Smart Learning Facilitator Ausbildung, die im November stattfinden wird. Dort wir es nämlich auch um die Entwicklung von smarten Bildungsinnovationen gehen.
Meine Slides wollte ich im Nachgang sowie zur Verfügung stellen, von daher habe ich mir überlegt, was ich darüber hinaus noch anbieten könnte und welche KI-Tools für die Digitalisierung in Frage kämen. Am einfachsten wäre es wahrscheinlich gewesen, die 20-minütige Keynote zu Hause mit Zoom aufzuzeichnen und als Video zur Verfügung zu stellen. Ganz ohne KI. Da ich aber sowie einen Instant AI-Avatar von mir entwickeln wollte, habe ich mir folgendes, kleine KI Experiment überlegt:
- Keynote mit meinen AI-Avatar über HeyGen nachproduzieren
- Einen Podcast zur Keynote mit NotebookLM zu generieren
Meine Erfahrungen mit HeyGen
Zunächst einmal möchte ich hervorheben, dass die Produktion eines lebensechten, digitalen Avatars inkl. persönlicher Stimme super easy ist. Für die Produktion meines Instant AI-Avatars habe ich mit HeyGen ca. 10 Minuten gebraucht. Dafür muss man lediglich ca. 30 Sek. Video aufzeichnen und hochladen. Danach musste ich dann noch bestätigen, dass ich wirklich Sirkka Freigang bin und zack, war der Avatar einsatzbereit.
Danach beginnt dann die eigentliche Arbeit, zumindest wenn man nicht nur irgendeinen Text als Skript eingibt und in x anderen Sprachen ausgeben möchte. Videos bis 5 Minuten sind im Creator Modell enthalten. Meine Keynote ist aber 20 Minuten lang, von daher habe ich mir zu Testzwecken mal die „Team-Variante“ für einen Monat gegönnt. Ziemlich teuer muss man dazu sagen.


Wie ihr oben im rechten Bild erkennen könnt, gibt es etliche Einstellungsmöglichkeiten, wie bei einem Video Editor üblich. Da ich aber KEINERLEI Vorerfahrung mit Videoschnittprogrammen oder ähnlichem habe, musste ich mich da erstmal reinarbeiten, weil es schon wichtig ist, dass der richtige Text an der richtigen Stelle kommt. Von daher habe ich sicherlich 2-3h daran gefeilt und unterschiedliche Test-Versionen erstellt. Wenn man aber erstmal die Basics verstanden hat, dann gehts eigentlich recht schnell.
Eine gute Anleitung gibt es natürlich auch. Einmal habe ich auch ChatGPT befragt, weil ich gerne die Videos noch hätte abspielen lassen wollen, aber das war mir dann doch zu viel Aufwand für so ein „kleines“ KI-Experiment.
Wie gefällt euch nun das Ergebnis?? Anbei das mit HeyGen produzierte Video:
Um den Spannungsbogen der Keynote verstehen zu können, sind die eingebundenen Videos wichtig, von daher nochmals separat verlinkt. Im Vortrag hatte ich nur kurze Sequenzen drin:
- Terminator 2 Intro, LA in 2029 – 3min Video
- HAL 9000, I am sorry Dave – 2min Video
- Terminator im Vergleich zum Roboter Andrea – Video zur Frage, ob Andrea Arnold Schwarzenegger kennt
- AI or Not – Video mit Boris Eldagsen
Was mir nun beim Video von HeyGen so grundsätzlich aufgefallen ist: Die Stimme und Tonlage sind zwar okay, also man erkennt dass es meine Stimme ist, was aber wirklich fehlt ist irgendwie der „Schwung und die Power“, die ich normalerweise bei einem Speaking rüberbringe. Es ist ziemlich eintönig und es könnte schwer fallen, da wirklich länger zuzuhören. Man hat bei HeyGen viele Möglichkeiten, das Skript schneller und in anderen Gemütslagen zu generieren, aber so richtig gut geklappt hat es bei mir noch nicht, da fehlte mir dann doch auch die Zeit und Muße. Zudem werden manche Begriffe falsch ausgesprochen, da muss man quasi das Skript überall nochmals manuell nachbearbeiten, um alles zu optimieren.
Zudem fällt auf, dass man beim Produzieren vom Instant Avatar mit Gestik und Mimik vorsichtig sein sollte, da diese in einer Art „Dauerschleife“ wiederholt werden und nicht immer zum Text passen. Daher habe ich bewusst mehrere unterschiedliche Instant Avatare eingebunden.
Erstes Fazit: Mit einem Original-Speaking ist das bis jetzt noch nicht vergleichbar, aber ggf. ein praktischer Ersatz, falls man eben nicht die Möglichkeit hatte live dabei sein zu können. ENORMES Potenzial bietet es natürlich dann, wenn ich den Vortrag wirklich optimiere, was Stimme, Gestik und Mimik des Avatars betrifft und ich den Vortrag dann mit einem Klick in einer oder x anderen Sprachen ausgeben könnte.
Meine Erfahrung mit NotebookLM
Das Testen von NotebookLM hat mich wirklich krass überrascht. Denn die UI und UX sind super simpel. Zudem kann man alles kostenfrei testen. Man läd z.B. ein PDF hoch, in meinem Fall das PDF zu meiner Keynote (ohne Skript) und klickt auf „Detaillierte Unterhaltung generieren“


Das Generieren dauert nur wenige Sekunden und anschließend habe ich eine ca. 7-minütige Zusammenfassung meiner Keynote als Podcast erhalten. Hört mal rein:
Was hier sofort auffällt ist die motivierende und interessierte Stimmlage. Vielleicht liegt es auch einfach daran, dass der Podcast auf Englisch ist und die deutsche Sprache insgesamt sachlicher wirkt. Aber aus irgendeinem Grund kommt mir der Podcast wie so ne unterhaltsame Talkshow vor, bei der man einfach Lust hat immer weiter zu hören.
Weiterhin ist mir positiv aufgefallen, dass die Inhalte richtig interpretiert wurden, obwohl ich ja kein Skript mitgeliefert habe. Anscheinend habe ich die richtige Mischung aus Inhalten auf den Folien gefunden. Selbst mein Plädoyer für „Design Utopia“ wird pointiert und absolut korrekt interpretiert. Und was mich auch geflashed hat war das Beispiel „Zurück in die Zukunft“ mit dem DeLorean, das ich nirgends auf den Folien wirklich erläutert habe, sondern nur am Ende als Workshop-Option zum Deep-Dive aufgeführt hatte.
Was mir noch aufgefallen ist: Nachdem ich eine weitere Quelle (mein Buch „Smart Learning Design“ als PDF) hochgeladen habe und auf „Unterhaltung generieren“ geklickt habe, wurde der erste Podcast überschrieben und beide Quellen wurden kombiniert in einem neuen Podcast ausgegeben. Zum Glück hatte ich den vorherigen Podcast schon runtergeladen, ich find den nämlich wirklich super, da alle Key Messages drin sind. Danach habe ich mein Buch als Quelle gelöscht und erneut nur mit dem PDF der Keynote einen neuen Podcast erstellt. Das Ergebnis ist dieses mal anders geworden, aber durchaus auch hörenswert:
Fazit
Ich weiß nicht wie es dir geht, aber ich finde den Podcast echt super. Beim Vortrag mit meinem HeyGen Avatar müsste ich noch einiges optimieren, dass es wirklich Spaß macht sich sowas anzusehen. Aber die Vorteile der weltweiten Skalierung liegen natürlich auf der Hand.
Vor allem: Das ist ja erst der Anfang von dem, was uns alles noch erwartet. Die US-Amerikanerin Fei-Fei Li hat es geschafft, in nur vier Monaten ein milliardenschweres Startup aufzubauen, wie die „Financial Times“ berichtete. Li, die einen Doktor in Informatik besitzt, unterrichtet an der Stanford University und gilt als eine der führenden Experten für Künstliche Intelligenz. Ihre Forschungen brachten ihr bereits den Spitznamen „Godmother of AI“ (auf Deutsch „Patin der KI“) ein.
Fei-Fei Li arbeitet an einer räumlich intelligenten KI. Ihr Startup „World Labs“ entwickelt ‚Large World Models‘, die 3D-Umgebungen und physische Interaktionen abbilden, u.a. um realitätsnahe virtuelle Welten zu generieren. Bald schon werden wir in der Lage sein, meine Visionen aus der Keynote wie z.B. ein ein Wikipedia in 3D zu ermöglichen. Dank KI-generierter 3D Lern- und Arbeitswelten. Es gibt bereits einige KI-Tools, mit denen man per Texteingabe 3D-Objekte oder Spaces bauen kann.
Deine Chance KI für smarte Bildungsinnovationen zu nutzen
Du magst mehr über smarte Lernkonzepte erfahren und selbst KI-generierte Inhalte oder 3D-Objekte als magische Lernmomente entwickeln? Dann melde dich zu unserer Smart Learning Facilitator Ausbildung an. Dort zeige ich dir, wie schnell man neue Technologien nutze kann, um wirksame Lernangebote zu entwickeln.
🎉 Wie wäre es, wenn wir uns zukünftig mit KI-generierten Avataren wie Marie Curie, Albert Einstein, Leonardo da Vinci oder Ada Lovelace über den Sinn des Lebens unterhalten könnten?
🎉 Wie wäre es, wenn wir in virtuellen Welten neben Ihnen auf einer Parkbank im Rosengarten sitzen und über die Zukunft des Lernens philosophieren könnten?
Ich bin mir sicher, es wird nicht mehr lange dauern, bis solche Utopien Realität werden könnten. Aber um konkrete Antworten auf solche & weitere Fragen zu finden, müssen wir letztlich ins aktive TUN und EXPERIMENTIEREN kommen, damit es uns gelingt, passives Lernen in eine nachhaltige Lernerfahrung zu transformieren und damit die Zukunft des Lernens positiv mitzugestalten.
Ich nutze seit vielen Jahren neueste Technologien, um Bildungsinnovationen in der Praxis zu verankern. In der Ausbildung befähigen wir genau dazu.
Die bisher nur inhouse durchgeführte Facilitator Ausbildung bekommt nun in 2024 ein ordentliches Update Dank ChatGPT und Co und kann im November von jedem besucht werden, der sich zum Smart Learning Expert professionalisieren möchte. In unserem 8-wöchigen Programm lernt ihr u.a. in 4 ganztägigen Online Trainings alles, um Smart Learning fundiert in der Praxis zu verankern 🤩
Konkret geht es um eine wirksame Kombination aus STRATEGIE, TECH & METHODEN HACKS:
1️⃣er Tag: 𝗪𝗶𝘀𝘀𝗲𝗻𝘀𝗰𝗵𝗮𝗳𝘁𝗹𝗶𝗰𝗵 𝗳𝘂𝗻𝗱𝗶𝗲𝗿𝘁𝗲 𝗚𝗿𝘂𝗻𝗱𝗹𝗮𝗴𝗲𝗻 & 𝗜𝗻𝘀𝘁𝗿𝘂𝗺𝗲𝗻𝘁𝗲: u.a. 30 Erfolgsfaktoren, Reifegradanalysen mit HoLEX ®Framework, Canvas Toolkit 1+2
2️⃣er Tag: 𝗙𝗼𝗿𝗺𝗮𝘁𝗲 & 𝗠𝗲𝘁𝗵𝗼𝗱𝗲𝗻 𝗛𝗮𝗰𝗸𝘀: u.a. Smart Learning Navigation Map, Tools & Templates, Best-of Magic Moments
3️⃣er Tag: 𝗧𝗲𝗰𝗵𝗻𝗼𝗹𝗼𝗴𝗶𝘀𝗰𝗵𝗲 𝗚𝗿𝘂𝗻𝗱𝗹𝗮𝗴𝗲𝗻 𝗮𝘂𝘀 𝗜𝗼𝗧, 𝗫𝗥, 𝗔𝗜: u.a. Nerdy Tech Talk, KI Must Haves, Entwicklung eigener Magic Moments inkl. KI-basierte 3D-Modellierung, Merge-Cube Hacks & Distribution via XR-Plattformen
4️⃣er Tag: 𝗙𝘂𝘁𝘂𝗿𝗲𝘀 𝗟𝗶𝘁𝗲𝗿𝗮𝗰𝘆 & 𝗗𝗲𝘀𝗶𝗴𝗻 𝗙𝗶𝗰𝘁𝗶𝗼𝗻 𝗮𝗹𝘀 𝗙𝘂𝘁𝘂𝗿𝗲 𝗦𝗸𝗶𝗹𝗹s: u.a. Methodik zum Futures Literacy Laboratory, Mein zukünftiges ICH, Transferaufgaben, Peer & Community-Learning, Lizenzierung & Zertifikat
Komm mit an Bord unserer Lernreise, es wird megaa spannend werden.









