KI & Ethik (1)

Dieser Blogpost ist Teil 1 (von 3) zum Thema KI im Bildungsbereich. Er beschäftigt sich mit den KI Grundlagen und den damit einhergehenden ethischen Herausforderungen. Man könnte auch provokant die These formulieren „Science Fiction is becoming Science Fact“.

Da das Thema KI im Bildungsbereich für nur einen Artikel zu komplex ist, habe ich mir überlegt, insgesamt drei Artikel mit jeweils folgenden Schwerpunkten zu verfassen:

  1. KI & Ethik
  2. KI & Tooling
  3. KI & Business

Dies ist nun der erste (und Vorwarnung längste) Teil mit dem Schwerpunkt KI Grundlagen & Ethik.

Seit vielen Monaten kuratiere ich für mich die wichtigsten Informationen zum Thema KI im Bildungsbereich und habe tagtäglich den Eindruck, dass mich die unglaubliche Menge an Artikeln, Videos und Podcasts überfordert. Daher habe ich mir einen persönlichen Lernpfad überlegt, der es mir ermöglicht, mich über die nächsten Wochen und Monate kontinuierlich selbst zu professionalisieren. Bei all den vielen News zum KI-Thema habe ich oft das Gefühl, ständig „nicht genug informiert“ zu sein. Ein perfektes (und absurdes) Beispiel dafür waren die jüngsten Entwicklungen rund um Sam Altman und OpenAI vom 17.11.-22.11.2023. Tagtäglich gab es neue Informationen, die sich „OnTop“ noch widersprachen. Die „Chronologie des Dramas“ im Detail nachzulesen bei Sascha Pallenberg. Ich habe einen Weg gesucht, wie ich mich einerseits mit relativ konsistenten Grundlagen & Kursen „aufschlauen“ und andererseits auf dynamische Art und Weise die neuesten Trends & Entwicklungen mitbekommen kann. Falls du ähnliche Herausforderungen beim Thema KI haben solltest, dann ist dieser Blogpost vielleicht ganz nützlich für dich.

Meine Lösung: Eine dynamische KI-Navigation-Map

Die KI-Navigation-Map baut auf meinen Blogpost „Komplexität sichtbar machen“ auf. Meiner Meinung nach ist es sinnvoll, Komplexität nicht zu reduzieren, sondern sichtbar, greifbar, besprechbar und bearbeitbar zu machen.

Wir müssen lernen, generative KI sinnvoll zu nutzen, insbesondere auch im Bildungsbereich. Und das nicht erst seit der neuesten, verheerenden PISA-Studie oder dem Absturz der digitalen Wettbewerbsfähigkeit Deutschlands im Vergleich zu USA, Niederlande, Singapur, Schweiz oder gar China.

Damit sich jeder kostenfrei und selbstgesteuert in das Thema „KI mit Fokus auf den Bildungsbereich“ einarbeiten kann, habe ich eine KI-Lernlandschaft in Form einer dynamischen Wissenslandkarte gebaut. Ich nenne sie KI-Navigation-Map, weil sie Orientierung, Struktur und hochwertig kuratierte Inhalte in einem hoch komplexen KI-Ökosystem bereitstellt. Die Map visualisiert insgesamt 7 Schritte bzw. Stationen auf meinem persönlichen Lernpfad, die es meiner Meinung nach braucht, um ein KI Professional im Bildungsbereich werden zu können. Jede dieser Stationen liefert wertvolles Wissen zu folgenden Clustern:

  1. NETZWERKE aufbauen
  2. GRUNDLAGEN erarbeiten
  3. HERAUSFORDERUNGEN reflektieren
  4. TOOLS testen
  5. FAKTEN vertiefen
  6. ZERTIFIZIERUNG absolvieren
  7. PRAXISTRANSFER sicherstellen

In meiner Bubble habe ich oft den Eindruck, dass KI einseitig betrachtet wird. Das liegt an der Komplexität des Gegenstands. Ich beobachte einerseits viele „Power User“, die aus dem Schwärmen gar nicht mehr herauskommen und auf der anderen Seite die Stimmen derer, die eher vor einer „freien Verfügbarkeit“ warnen oder gar für Verbote im Bildungsbereich plädieren. Meiner Meinung nach ist es wichtig, die Thematik aus unterschiedlichen Perspektiven zu beleuchten, ganzheitlich zu bewerten und lösungsorientiert zu agieren.

Daher habe ich zum Thema KI keine Infografik, sondern eine dynamische KI-Navigation-Map entwickelt, weil sich die Inhalte a) schnell verändern und man sich (b) seinen eigenen Fokus, seine eigene Perspektive auf das Thema „selbst generieren“ kann. Mit der dynamischen Visualisierung ist es mir möglich, die Fülle der Inhalte selektiv auszuwählen und zu konsumieren. Zudem können Ökosystemische Verbindungen untereinander visualisiert werden. Die Strukturierung in o.a. Themencluster unterstützt einen zielgerichteten Lernpfad, der systematisch aufeinander aufbaut. Man kann also die Map nutzen, um beispielsweise ein 7-wöchiges, selbstgesteuertes Lernprogramm zu durchlaufen (z.B. jede Woche einen Cluster bearbeiten) oder man geht ganz explorativ vor und erkundet die KI-Welt intuitiv. Meine Empfehlung wäre, sequenziell vorzugehen, also zunächst die Grundlagen zu erarbeiten, um dann sukzessive einen fundierten Praxistransfer ermöglichen zu können. Aber natürlich nur, falls Schritt 7 das Lernziel wäre. Je nachdem wie viel Zeit man pro Woche aufwenden kann, empfehle ich folgende Schritte in 7 -14 Wochen zu durchlaufen:

Schritt (1): Netzwerke aufbauen

Wir MÜSSEN in Deutschland besser und schneller werden, wenn es darum geht, neue Technologien sinnvoll zu nutzen. KI oder auch ChatGPT werden nie wieder weg gehen, uns bleibt keine andere Möglichkeit als sofort anzufangen, uns mit der Technologie vertraut zu machen. Das bedeutet auch, dass wir nachhaltige Kompetenzen aufbauen müssen. Meiner Meinung nach gelingt dies am besten, wenn ich ein Netzwerk habe, das mich kontinuierlich mit neuen Informationen zum Thema versorgt. Ich erhalte relevante Informationen und muss diese (nur wenig) recherchieren. Daher startet meine KI Learning Journey bei (1), Netzwerk aufbauen. Da ich überwiegend LinkedIn nutze, sind alle aufgeführten KI-ExpertInnen oder Institutionen auf LinkedIn vertreten. Manche bieten auch den Versand von Newslettern an, was ich sehr empfehlen kann. Während ich für den Aufbau meines KI-Netzwerks sicherlich einige Wochen benötigt habe, brauchst du mittels Map nur 5 Minuten und bist ab sofort immer Up to date.

Schritt (2): Grundlagen erarbeiten

In diesem Teil der Map habe ich überwiegend Podcasts und Artikel kuratiert, die ein Grundverständnis über KI-Systeme und Anwendungsbereiche vermitteln. Je nach verfügbarer Zeit kann man mal eben zwischendurch einen Artikel lesen oder beim Spazierengehen einen Podcast hören.

Schritt (3): Herausforderungen reflektieren

In diesem Bereich habe ich vor allem kritische Perspektiven auf das Thema KI zusammengetragen. Die meisten der von mir kuratierten Inhalte beschäftigen sich ohnehin immer mit Chancen & Risiken, aber in diesem Cluster geht es verstärkt auch um dystopische (Zukunfts-)Szenarien, wenngleich ich persönlich derartiges nicht präferiere und davon überzeugt bin, dass man mit KI auch Positives bewirken und gesellschaftliche Probleme lösen kann. Meiner Meinung nach ist es trotzdem unerlässlich, sich ein ganzheitliches Bild zu verschaffen, um entsprechende Aufklärung betreiben und v.a. aktiv an wünschenswerten Zukünften arbeiten zu können.

Schritt (4): Tools testen

Wenn die Basics abgeschlossen sind, kann man ins Experimentieren mit den unterschiedlichen Tools einsteigen. Dieser Punkt ist wahrscheinlich am interessantesten in der kompletten Learning Journey. Das Testen der Tools ist ein wichtiger Bestandteil, um generative KI effektiv und sinnvoll nutzen zu können.

Schritt (5): Fakten vertiefen

Dieser Themencluster kuratiert insbesondere erste Studien und Policy Paper, die beim Einsatz in unternehmerischen Kontexten unbedingt berücksichtigt werden sollten. Auch Leitsätze oder entstehende EU-Gesetze wie der AI-Act kann man hier vertiefen.

Schritt (6): Zertifizierung absolvieren

Wer ein Badge bzw. ein Weiterbildungszertifikat im Bereich KI erlangen möchte, hat dazu vielfältige Möglichkeiten, (kostenfreie) hochwertige Qualifizierungen zu durchlaufen und im Anschluss einen Nachweis zu erhalten. In diesem Bereich findest du verschiedene Anbieter und Kurse, die eine Weiterbildung zum Thema KI inkl. Zertifizierung anbieten.

Schritt (7): PRAXISTRANSFER sicherstellen

Am Ende der KI-Lernreise steht natürlich der Praxistransfer. Von daher habe ich hier etliche How-To-Tutorials oder auch Auflistungen der sogenannten Master-Prompts für dich hinterlegt. Es ist eine bunte Mischung aus Schritt-für-Schritt Anleitungen und Videos, die die wichtigsten Anwendungsfälle überwiegend mit Fokus auf den Bildungsbereich praxisnah erklären.

Zusammenfassung zur KI-Navigation-Map

Ich habe o.a. Struktur und die KI-Navigation-Map für meine persönliche Weiterbildung angelegt und lasse alle daran teilhaben, die zusammen mit mir Lust haben, sich in das Thema KI mit Fokus auf den Bildungsbereich einzuarbeiten. Alle in der Map verlinken Inhalte basieren auf meiner persönlichen Einschätzung. Die Map wird darüber hinaus regelmäßig aktualisiert. Sofern ihr also Quellen kennt, die unbedingt noch aufgenommen werden sollten, lasst es mich gerne wissen. Kleiner Tipp: Über die Suchfunktion könnt ihr direkt nach ExpertInnen oder Themen wie z.B. „AI Act“ suchen.

Hier geht es nun zur Original Map, die ihr euch am besten an einem großen Bildschirm anschaut 😉

Die Map ist aufgrund der Komplexität und der dynamischen Filterfunktionen nicht so einfach in der Usability wie eine Infografik. Man muss sich aktiv damit beschäftigen (was für das Lernen ja sehr zielführend ist) und sich etwas in das Tool einarbeiten. Man muss damit experimentieren, die Filter ein- und aus schalten, hinein und hinaus zoomen etc., um die Mehrwerte der Map erfassen zu können. Vielleicht werde ich die Tage noch ein kleines Screencast-Video zur Nutzung ergänzen, aber insgesamt sollte es relativ selbsterklärend sein.

Die KI-Navigation-Map habe ich mit Kumu.io gebaut. Als ich dieses Tool entdeckt habe, war ich sofort begeistert. Nicht nur, weil „KUMU“ auf Hawaiianisch „Wissenquelle“ bedeutet, sondern weil es vor allem darum geht, komplexe Ökosysteme visualisieren zu können. Wer sich für das Tool interessiert, kann hier mehr über die Idee und die Gründer aus dem Silicon Valley erfahren. Meine KI-Navigation-Map ist derzeit in der Version 001 verfügbar. Diese wird fortlaufend aktualisiert und optimiert. Die Map ist also weder perfekt noch fertig, wer zufällig Lust auf Mitgestalten hat, lässt es mich gerne wissen, das geht natürlich auch.

Falls ihr euch nun wundert, wo dieser Startansicht die ganzen Inhalte geblieben sind, liegt das an meiner vordefinierten Filter-Einstellung, die ihr hier erweitern könnt:

Ihr dürft die KI-Navigation-Map auch gerne in eurem Netzwerk teilen. Nutzt dafür gerne diesen Link: KI-Navigation-Map-für-alle.

Ich bin davon überzeugt, dass Bildung & Aufklärung zum Thema KI absolut notwendig sind, damit wir Positives für unsere Zukunft entwickeln können. Oder um es in den Worten von Prof. Doris Wessels zu verdeutlichen:

„Die Zukunft von KI im Bildungsbereich wird davon abhängen, ob es uns gelingt, schnell genug – und im Konsens mit allen relevanten Stakeholdern – Mechanismen zur kontinuierlichen Neujustierung an veränderte Rahmenbedingungen zu schaffen und einen ausbalancierten Weg zu finden, der die Stärken von Mensch und Maschine bestmöglich kombiniert und zugleich die Risiken kontinuierlich im Blick behält und sie beherrschbar hält.“

Doris Wessels (2023)

Hierfür benötigt es einen fundierten Diskurs. Die KI-Navigation-Map soll ein kleines Puzzleteil dazu beitragen, dass dieser Diskurs stattfinden kann.

Das war der Prolog, kommen wir zum Wesentlichen dieser ersten Blogpost-Reihe:

KI-Grundlagen & Ethik:

Vor Kurzem durfte ich zum Tag der Lehre an der Hochschule Landshut eine Keynote halten mit dem Titel „Science Fiction Becomes Science Fact – Die Ren”AI”ssance des Lernens in der Hochschule“.

Das Motto der Veranstaltung lautete „2023: AI Space Odyssey“. Ein besseres Motto hätte ich mir gar nicht wünschen können. Wer mich kennt weiß, dass ich schon früher mit Science-Fiction Klassikern wie „Matrix“ provokative Zukunftsszenarien thematisiert habe (vgl. die Matrix wird kommen).

Nunmehr ging es in meinem aktuellen Vortrag vom 21.11.23 darum, den SciFi-Klassiker „2001: a space odyssey“ unter der Regie von Stanley Kubrick aus dem Jahre 1968 zu interpretieren und mit Gegenwärtigem sowie Zukünftigem in Verbindung zu setzen. Eine wunderbare Aufgabe. Ich finde es einfach total inspirierend, mit Zukünften zu arbeiten bzw. über utopische und dystopische Entwicklungen nachzudenken. Meine Idee zu diesem Motto war es, dass ich HAL 9000, also den Supercomputer als Fiktion zum Kino-Epos aus 1968 mit humanoiden Robotern von heute wie Ameca, Andrea, Grace oder auch mit KI-Systemen wie ChatGPT vergleiche.

Mein Intro begann mit der bekanntesten Filmszene aus „A Space Odyssey (1968)“, in der man HAL9000 kurz kennenlernen konnte:

Darauf aufbauend lautete meine erste These:

Soll heißen, dass wir aktuell schon Systeme haben, die wie im Science-Fiction-Klassiker aus 1968 unsere Autos (vgl. Tesla), Züge, Flugzeuge oder Raumschiffe steuern. Der Einzug von KI wird mehr und mehr auch in unserem täglichen Alltag zu finden sein. So zumindest meine 1. These.

Bestärkt habe ich diese These durch den Vergleich von HAL9000 mit Ameca:

Und mit Andrea, ein androider Roboter an der HdM (Hochschule der Medien) unter Leitung von Prof. Dr. Christian Becker-Asano:

Letztlich gelten bereits heute gängige Haushaltsroboter als „Normal“, vorausgesetzt man kann sich die Investition von ca. 300-800€ für einen Staubsaug-/ Rasenmähroboter leisten. Ich selbst möchte meinen Robi nicht mehr missen……

ChatGPT ist anders. Anders deshalb, weil zumindest die Version 3.5 seit dem 30.11.2022 für ALLE Menschen frei zugänglich ist. Androide Roboter sind nur sehr eingeschränkt für wenige Menschen verfügbar. Zudem handelt es sich um physische Roboter, die mit hohen Kosten verbunden sind. ChatGPT ist ein skalierbares LLM (engl. large language models – LLMs –> nähere Infos dazu folgen weiter unten). Für ca. 20,-€ pro Monat kann ich die Pro-Version mit unglaublich vielen Features und PlugIns nutzen. Es gibt quasi eine KI vor und nach dem 30.11.2022. Vor Kurzem hatte ChatGPT seinen ersten Geburtstag und es ist unglaublich, was in dieser kurzen Zeit alles passiert ist. Selbst KI-ExpertInnen vom DFKI konnten nicht vorhersehen, dass es sooooooo schnell möglich sein wird, sprachgesteuerte Assistenzsysteme nutzen zu können (vgl. Telekom Stiftung, Studie KI@Bildung, Folie 24).

Seit dem neuesten Update von ChatGPT-4 Turbo vom 06.11.2023 ist es den Pro-Usern von ChatGPT möglich, eigene, personalisierte Bots zu bauen. Mein absoluter Traum wurde wahr:

  1. Mein Foto hochladen
  2. Meine Websites angeben
  3. Wissenschaftliche Text-Ressourcen hochladen

Und fertig war mein erster Sirkka Bot am 17.11.2023 innerhalb von nur 30 Minuten. Wie gerne hätte ich meine komplette Zotero-Literaturdatenbank mit 529 Papern verlinkt, so easy ist es leider noch nicht ganz. Aber dafür habe ich stattdessen meine über 300-seitige Dissertation und das neueste „Smart Learning im Metaverse“ Whitepaper hochgeladen. Und zack, da ist er, mein personalisierter Smart Learning Assistent, den ihr gerne mal ausprobieren könnt.

Natürlich muss der digitale „Sirkka Assistent“ noch optimiert werden, aber dass Version_001 so einfach geht hat mich schon total überrascht. Ich habe ChatGPT gefragt, wie ich den Sirkka-Bot nun in meiner WordPress Website einbinden kann und habe eine Schritt-für-Schritt Anleitung erhalten. Einfach unglaublich. Mehr zum Thema „Tooling“ gibt es dann noch in der nächsten KI-Blogpost-Folge 2.

Die Frage an dieser Stelle ist ja eher philosophischer Natur: Inwieweit wird ChatGPT unsere Jobs verändern? Werden wir künftig unsere eigenen personalisierten Assistenten tagtäglich nutzen? Inwiefern können sie uns Menschen ergänzen, bereichern oder gar ersetzen? Werden wir künftig vielleicht sogar von Choaching-Bots in unserer Karrriere begleitet und gefördert?

Um auf diese und weitere Fragen Bezug zu nehmen habe ich zum Ende meines Vortrages einige utopische und auch dystopische Zukunftsvisionen aufgeführt. Erschreckend und absolut fantastisch zugleich. Schaut auch dazu die Videos von Folie 31-39 im Detail an. Hier geht’s zum Vortrag und den Slides: „Science Fiction Becomes Science Fact – Die Ren”AI”ssance des Lernens in der Hochschule“ oder hier das PDF:

KI-Bots werden zukünftig viele Aufgaben für uns erledigen können. Vor allem im Bereich Text- und Medienproduktion wird es einen erheblichen Impact haben. Von daher lautet meine nächste These:

Es wird uns zukünftig schwer fallen, gute Inhalte von schlechten Inhalten oder gar von Fake News zu unterscheiden. Aber auch hier kann KI helfen. Denn auch davon bin ich überzeugt:

Viele gute Beispiele von KI im Bildungsbereich habe ich in meinem Vortrag erläutert (vgl. Folie 36-39), weit aus mehr davon sind im World Wide Web oder übersichtlich kuratiert in der KI-Navigation-Map im Cluster „PRAXISTRANSFER“ zu finden.

Meine Empfehlung zu KI & Ethik ist relativ simpel, auch wenn das Thema extrem komplex ist:

Mit VIELEN guten Beispielen AKTIV voran gehen…

und dabei das Zitat von Prof. Doris Wessels (s.o.) berücksichtigen. Ich bin ziemlich pragmatisch und glaube an das Gute im Menschen und in der Gesellschaft. Natürlich benötigen wir Regularien, die es verhindern, dass ein sehr kleiner Teil der Menschheit mit Hilfe von ChatGPT Bomben bauen, Viren kreieren oder sonstige kriminelle Aktivitäten jeglicher Art professionalisieren können. Aber wenn es uns gelingt, das Positive in einer großen Anzahl in den Fokus zu rücken und AKTIV an wünschenswerten Zukünften gemeinsam zu erarbeiten, dann habe ich Hoffnung, dass die fortschreitende Technologisierung viele Vorteile für die Gesellschaft erbringen kann. Wichtig dabei ist die AKTIVE Gestaltung wünschenswerter Zukünfte. Wir dürfen nicht passiv und ohnmächtig darauf warten, was andere tun. Meine Empfehlung: DESIGN UTOPIA!

Gelernt habe ich das u.a. in einem Vortrag von Dr. Deborah Schnabel mit dem Titel „Chances and limits of immersive environments for anti-discrimination and (historical-) political education“. Eigentlich hätte hier nun ein Interview mit Deborah und mir verlinkt werden sollen, das aufgrund von Krankheit leider ausgefallen ist. Vielleicht ergibt sich die Chance, dieses nachzuholen. Die wertvollen Kernbotschaften von Deborah kann man in der Screenshot-Galerie nachverfolgen:

Warum ist es nun so wichtig, sich AKTIV mit der Gestaltung wünschenswerter Zukünfte zu beschäftigen?

Dieser Frage möchte ich nun im letzten Abschnitt näher skizzieren, indem Risiken und mögliche Missbrauchsszenarien von LLMs näher beleuchten werde (vgl. BSI, 2023):

Seit Dezember 2022 sind große KI-Sprachmodelle in Zeitungen, Sozialen Medien und anderen Informationsquellen omnipräsent. Insbesondere die Ankündigung und Veröffentlichung von Modellen, die teilweise frei verfügbar sind, haben zu einem rasanten Anstieg hinsichtlich der Popularität und der Nutzung von großen KI-Sprachmodellen geführt. Dabei beeindruckt die hohe Qualität der von einer KI generierten Texte selbst Fachleute. Gleichzeitig werden intensive Diskussionen über Anwendungsgebiete der neuen Technologie sowie die aus ihr resultierenden Gefahren geführt. Das BSI (Bundesamt für Sicherheit in der Informationstechnik) zeigt die aktuellen Risiken und Bedrohungen von großen KI-Sprachmodellen für die IT-Sicherheit auf, um ein Bewusstsein für diese Aspekte bei Behörden und Unternehmen zu schaffen, die über den Einsatz dieser Modelle in ihren Arbeitsabläufen nachdenken (vgl. BSI, 03.05.2023).

Definition von großen KI-Sprachmodellen

Unter dem Begriff große KI-Sprachmodelle (engl. large language models – LLMs) wird Software verstanden, die natürliche Sprache in schriftlicher Form auf der Basis von maschinellem Lernen verarbeitet und Ausgaben ebenfalls als Text präsentiert (vgl. ebenda). Es sind allerdings auch akustische oder Bildeingaben denkbar, da diese inzwischen in vielen Fällen nahezu fehlerlos in Text konvertiert werden können. Auch akustische Sprachausgaben können kaum mehr von menschlichen Stimmen unterscheidbar sein. Einige LLMs werden bereits zu sogenannten multi-modalen Modellen, die z.B. neben Text auch Bilder verarbeiten und/oder produzieren können, erweitert (vgl. ChatGPT – Version 4). Die modernsten LLMs sind mit großen Datenmengen trainiert und können Texte produzieren, die oft nicht ohne Weiteres von menschengeschriebenen Texten zu unterscheiden sind. Szenarien, in denen LLMs verwendet werden können, sind zum Beispiel Chatbots, Frage-Antwort-Systeme oder automatische Übersetzungen.

Große KI-Sprachmodelle sind Computerprogramme, die in der Lage sind, natürliche Sprache in geschriebener Form automatisiert zu verarbeiten. Potenziell können solche Modelle in einer Vielzahl von Anwendungsfällen frei zugänglich für alle genutzt werden und stellen somit eine Chance für die Digitalisierung dar. Andererseits birgt die Verwendung von großen KI-Sprachmodellen neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen. Dazu zählt insbesondere das Missbrauchspotenzial, das von solchen Modellen durch Generierung von Spam-/ Phishing-Mails oder Schadsoftware ausgeht.

Über Dr. Holger Schmidt habe ich eine spannende (internationale) Übersicht der LLMs gefunden (Quelle: Yang et al. vom 27.04.2023):

Ergänzend dazu habe ich eine Übersicht zu LLMs aus einem Vortrag von Prof. Doris Wessels, die ergänzend zur o.a. Übersicht eine europäisch/deutsche Sichtweise auf das Thema beinhaltet (Quelle: Zukunftskongress vom Bundesverband der Fernstudienanbieter e.V., 07.11.2023):

Als einzig deutsches KI-Startup können wir auf das LLM Luminous von Aleph Alpha hoffen, das kürzlich mit 500 Millionen Investment u.a. durch SAP und Bosch unterstützt wurde.

Was in beiden Übersichten fehlt ist das Anfang November angekündigte LLM von Elon Musk namens Grok, das auf Basis der Social Media Plattform X (ehemals Twitter) trainiert wurde. Wenn man diesbezüglich die kürzlichen Skandale hinsichtlich „Bedenken der Verbreitung von Desinformationen“ berücksichtigt, weswegen etliche Werbekunden gekündigt haben, könnte der Chat-Bot Grok antisemitische und/ oder rechtsradikal orientierte Texte generieren.

Oben aufgeführte Grafiken verdeutlichen das internationale KI-Wettrennen. In diesem Zusammenhang ist vielleicht auch interessant zu wissen, dass Microsoft anscheinend über 10 Milliarden in OpenAI investiert haben soll.  

Vor diesem Hintergrund möchte ich die wichtigsten Grundlagen generativer KI zusammenfassen, die sich im Wesentlichen auf ein Dossier vom Bundesamt für Sicherheit in der Informationstechnik (BSI) mit dem Titel „Große KI-Sprachmodelle- Chancen und Risiken für Industrie und Behörden“ vom 03.05.2023 beziehen:

Anwendungsbereiche von LLMs

LLMs generieren für Problemstellungen, die als natürlichsprachiger Text formuliert sind, in vielen Fällen korrekte Antworten. Die Aufgaben können dabei in verschiedenen Themenbereichen liegen, nicht nur im Bereich der Sprachverarbeitung im engeren Sinne z.B. zur Erzeugung und Übersetzung belletristischer Texte oder der Textzusammenfassung, sondern auch in Bereichen wie der Mathematik, Informatik, Geschichte, Jura oder Medizin.

Die MMLU multiple-choice Testbatterie (Hendrycks, et al., 2021) enthält 15908 Probleme aus 57 Wissensbereichen, deren Schwierigkeitsgrad von kinderleicht, bis hin zu Problemen, die auch für menschliche Fachleute schwierig sind, reicht. Die Publizierenden von (Hendrycks, et al., 2021) schätzen, dass eine Gruppe von menschlichen Fachleuten 90% der Fragen richtig beantworten würde. Die besten LLMs im Frühjahr 2019 haben 32% der Fragen richtig beantwortet (Hendrycks, et al., 2021) (Papers With Code, 2023), was nur wenig über dem Wert von 25% bei reinem Raten der jeweils 4 multiple-choice Antworten lag. Allerdings beträgt die Quote bei Laien in den akademischen Bereichen auch nur 34,5% (Hendrycks, et al., 2021). Das bis dahin beste Ergebnis konnte im Oktober 2022 das LLM Flan-PaLM von Google mit einer Quote von 75% richtigen Antworten erreichen (Papers With Code, 2023) (OpenAI, 2023). Das im März 2023 veröffentlichte GPT-4 Modell beantwortete 86,4% der Aufgaben korrekt (OpenAI, 2023). Man kann davon ausgehen, dass die Fähigkeit der LLMs exponentiell ansteigt und irgendwann den Stand einer AGI (Artificial General Intelligence) erreichen wird. ExpertInnen schätzen, dass eine AGI in den nächsten Jahren zur Verfügung stehen könnte.

Was LLMs auszeichnet ist die Fähigkeit eines einzelnen KI-Modells, passende Antworten in verschiedenen Themenbereichen zu generieren, dies ist eine bedeutende Innovation:

LLMs sind in der Lage, eine Vielzahl von Text-basierten Aufgaben zu bearbeiten, und können daher vielfältig in Bereichen eingesetzt werden, in welchen eine (teil-)automatisierte Textverarbeitung und/ oder -produktion stattfinden soll. Hierzu zählen beispielsweise:

  • Textgenerierung, Textbearbeitung und Textverarbeitung: Verfassen eines ersten Entwurfs für ein formales Dokument (z.B. Einladung, Forschungsantrag, Pressemitteilung, Prüfungsarbeiten etc.), Verfassen von Texten in einem bestimmten Schreibstil, Werkzeuge zur Textfortführung, Rechtschreib- und Grammatikprüfung, Paraphrasierung, Textzusammenfassung, Frage-Antwort-Systeme oder Übersetzung
  • Programmcode: Werkzeuge zur Unterstützung beim Programmieren, Erzeugen von Programmcode zu einer in natürlicher Sprache verfassten Aufgabe, Umprogrammierung und Übersetzung eines Programms in andere Programmiersprachen
  • Sprach-Assistenten und Chat-Bots: Auf dem ersten DevDay von OpenAI am 06.11.2023 wurden neue Features angekündigt, die es jedem mit Pro-Account ermöglichen, eigene Bots zu bauen. Die sogenannten GPTs sind in wenigen Minuten erstellt. Man kann zur Beschreibung des GPTs Bilder/ Fotos hochladen und auch PDF-Texte oder Webseiten angeben, auf die sich der digitale Sprachagent dann beziehen soll. Eine erste Version zum Sirkka Bot gibt es hier: https://chat.openai.com/g/g-Uk4rijmjj-dr-sirkka-freigang

Problem fehlender Erklärbarkeit

Gerade in Bereichen, in denen Entscheidungen weitreichende Folgen haben können, ist die Erklärung der Ausgabe eines LLM wünschenswert. Dazu gehören beispielsweise Anwendungen aus folgenden Bereichen:

• Gesundheit (z.B. Entscheidungen über Behandlungsmethoden)

• Finanzen (z.B. Entscheidungen über Kreditvergabe)

• Justiz (z.B. Entscheidungen über Bewährungsmöglichkeiten)

• Personal (z.B. Entscheidungen über Bewerbungen)

Über Aspekte von „ungerechter KI“ forscht u.a. Eva Gengler, die auf Diskriminierung durch KI im Recruiting hinweist. Andere potenziell kritische Anwendungsgebiete sind beispielsweise solche, die voraussichtlich im Sinne der KI-Verordnung der EU (Europäische Kommission, 2021) als Hochrisiko-KI-Systeme eingestuft werden.

Neben der erwähnten Möglichkeit, Werkzeuge zur Kennzeichnung relevanter Wörter der Eingabe zu verwenden, kann dem Problem fehlender Erklärbarkeit bereits durch die Auswahl eines geeigneten Modells begegnet werden. Besonders in kritischen Bereichen sollte die Verwendung eines LLM für den jeweiligen Anwendungszweck kritisch hinterfragt werden; gegebenenfalls lässt sich der Anwendungsfall beispielsweise auch durch ein einfacheres direkt interpretierbares Modell (z.B. Entscheidungsbaum) statt mit einem LLM mit Black-Box-Charakter angehen.

Da LLMs in der Regel sprachlich fehlerfreien und inhaltlich überzeugenden Text generieren, entsteht bei Nutzenden schnell der Eindruck eines menschenähnlichen Leistungsvermögens eines Modells (automation bias) und damit ein zu großes Vertrauen in die Aussagen, die es generiert, sowie in seine generellen Fähigkeiten. Dadurch sind Nutzende anfällig dafür, falsche Schlüsse aus den generierten Texten zu ziehen, was kritisch sein kann, da generative LLMs darauf trainiert sind, Text auf Basis stochastischer Korrelationen zu generieren. Dadurch ist technisch nicht garantiert, dass dieser faktisch korrekt ist. Dieses potenzielle Erfinden von Inhalten wird auch als „Halluzinieren“ des Modells bezeichnet. Darin zeigt sich unter anderem, dass ein LLM zwar mit Sprache umgehen kann, sein „Wissen“ jedoch aus (bereits gesehenen) Texten ableitet. Bezüge zur realen Welt existieren für das Modell nicht; entsprechend kann es zu Sachverhalten, die für Menschen absolut selbstverständlich sind, gegebenenfalls inkorrekte Aussagen treffen. Des Weiteren können Ausgaben von LLMs zu derselben Eingabe aufgrund des wahrscheinlichkeitsbasierten Ansatzes in der Regel unterschiedlich sein. Dies kann ebenfalls als Indiz dafür interpretiert werden, dass inhaltliche Korrektheit nicht notwendigerweise gegeben sein muss.

Haben LLMs keinen Zugriff auf Live-Internetdaten (ausgenommen sind hier also z.B. Modelle, die im Rahmen von Suchmaschinen verwendet werden), liegen ihnen außerdem keine Informationen über aktuelle Ereignisse, wie z.B. den Ukraine-Krieg vor. Wie bereits erwähnt leiten LLMs ihre stochastischen Korrelationen aus den Texten, die sie als Trainingsdaten während des Trainings verarbeitet haben, ab. Da es sich dabei um Texte aus der Vergangenheit handelt, ist es unmöglich, dass LLMs ohne den Zugang zu aktuellen Daten faktische Informationen zu aktuellen Geschehnissen liefern können.

Vertraulichkeit der eingegebenen Daten

Bei der Nutzung einer externen API fließen alle Eingaben, die an das LLM getätigt werden, zunächst an den Betreiber des Modells ab. Inwiefern dieser auf die Daten zugreift und sie z.B. zum weiteren Training des Modells nutzt und speichert, ist von Modell zu Modell unterschiedlich geregelt. Auch auf die Ausgaben des Modells hat der Betreiber in der Regel uneingeschränkten Zugriff. Einige LLMs bieten zudem die Möglichkeit, für eine bessere Funktionalität gegebenenfalls unbemerkt vom Nutzenden auf Plug-Ins zuzugreifen. In diesem Fall besteht also zusätzlich die Gefahr, dass eingegebene Daten an unbekannte Dritte weitergegeben werden.

Die Nutzung eines LLM via einer externen API ist also insbesondere bei der Verarbeitung von sensiblen und vertraulichen Informationen kritisch zu hinterfragen; die Verarbeitung von eingestuften Informationen ist ohne weitere Maßnahmen unzulässig. Eventuell ist es möglich, eine On-Premise-Lösung zu realisieren, was aber aufgrund der benötigten Rechen- und Speicherkapazitäten bei vielen LLMs nicht mit herkömmlicher IT abgebildet werden kann. Es befinden sich allerdings auch kleinere Modelle in der Entwicklung, die zumindest in bestimmten Anwendungsfällen ähnliche Leistungen erbringen wie wesentlich größere LLMs und lokal betrieben werden können.

Abhängigkeit vom Hersteller/ Betreiber des Modells

Neben der fehlenden Datenhoheit entsteht durch die Verwendung eines LLM via API eine große Abhängigkeit vom Hersteller und Betreiber des Modells. Diese Abhängigkeit bezieht sich auf verschiedene technische Aspekte. Zum einen ist die Verfügbarkeit des Modells ggf. nicht kontrollierbar, zum anderen besteht i.d.R. auch keine Möglichkeit, in die (Weiter-)Entwicklung des Modells einzugreifen (vgl. LLM Grok), also z.B. Trainingsdaten für spezielle Anwendungsfälle zu wählen oder Sicherheitsmechanismen von vornherein zu etablieren.

Missbrauchsszenarien

LLMs können zur Textproduktion für böswillige Zwecke missbraucht werden. Mögliche Missbrauchsfälle sind zum Beispiel:

(1) Social Engineering

Unter dem Begriff Social Engineering versteht man Cyber-Angriffe, bei denen Kriminelle versuchen, ihre Opfer dazu zu verleiten, persönliche Daten preiszugeben, Schutzmaßnahmen zu umgehen oder selbstständig Schadcode zu installieren (BSI, 2022). Dies geschieht zumeist unter Ausnutzung von menschlichen Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst. Häufig werden hierbei Spam- oder Phishing-E-Mails genutzt, die Empfangende dazu bringen sollen, auf einen Link zu klicken oder einen schadhaften Anhang zu öffnen. Neue KI-Tools wie ElevenLabs ermöglichen das Klonen der menschlichen Stimme. Gängige Kriminalfälle wie z.B. der Enkeltrick werden durch derartige KI-Tools noch einfacher als bisher und gehen weit über den Diebstahl persönlicher Daten hinaus.

(2) Generierung und Ausführung von Malware

Die Fähigkeit von LLMs, Wörter zu generieren, beschränkt sich nicht nur auf die Erzeugung von natürlichsprachigen Texten. Innerhalb der Trainingsdaten findet sich zumeist auch öffentlich zugänglicher Programmcode, der es den Modellen ermöglicht, neben Texten auch Code zu generieren. Laut (Insikt Group, 2023) kann ein populäres LLM automatisch Code generieren, das kritische Schwachstellen ausnutzt und verschiedene Ziele verfolgt, wie z.B. Informationsdiebstahl, Diebstahl von Kryptowährung oder aber die Einrichtung eines Fernzugriffes auf dem Zielgerät. Neben reiner Codeerzeugung können LLMs zudem genutzt werden, um Anleitungen für die Suche nach Schwachstellen zu geben, Konfigurationsfiles für eine Malware zu generieren, oder aber command-and-control Mechanismen zu etablieren (vgl. BSI, 2023).

(3) Hoax (Falschmeldung)

LLMs werden auf der Basis einer sehr großen Menge an Texten trainiert. Der Ursprung dieser Texte und ihre Qualität werden aufgrund der großen Anzahl an Daten nicht vollständig überprüft. So verbleiben auch Texte mit fragwürdigem Inhalt (z.B. Desinformationen, Propaganda oder Hassnachrichten) in der Trainingsmenge und tragen zu einer unerwünschten Struktur des Modells bei, die eine Neigung zu potenziell kritischen Inhalten zeigt. Elon Musks „Grok“ wurde durch Trainingsdaten der Plattform X (ehemals Twitter) trainiert, was bei Anwendung von „Grok“ bedenklich sein könnte. Weiterhin können Kriminelle die Modelle verwenden, um damit die öffentliche Meinung durch automatisch generierte Propagandatexte, Beiträge in Sozialen Medien oder Fake News zu beeinflussen. Jüngstes Beispiel zeigt die BILD-Zeitung, die in einem YouTube-Spot die Stimme von Kanzler Olaf Scholz geklont und durch eigene Texte ersetzt hat. Wenn selbst Medienhäuser (nicht Kriminelle) in ihren Boulevardzeitungen zu solchen Falschmeldungen beitragen, muss man künftig mit weit mehr Fake-News rechnen als bisher. Durch den geringen Aufwand bei der Erstellung lassen sich diese Texte / Videos zudem massenhaft produzieren und verbreiten. Auch die Erzeugung von Hassnachrichten ist denkbar (vgl. BSI, 2023).

Gegenmaßnahmen

Eine generelle, implizite Methode zur Verhinderung von Angriffen besteht oft in der Absicherung der Authentizität von Texten und Nachrichten durch die NutzerInnen selbst, d.h. im Nachweis, dass bestimmte Texte oder Nachrichten tatsächlich von einer bestimmten Person, Personengruppe oder Institution stammen. Sofern man für die oben genannten Missbrauchsszenarien sensibilisiert ist, prüft man im Internet verfügbare Inhalte und auch die durch KI selbst generierten Texte z.B. auf Basis von ChatGPT sorgfältig. Nutzende sollten über die Schwächen von LLMs aufgeklärt werden (daher dieser Blogpost) und dazu angehalten werden, Aussagen auf ihren Wahrheitsgehalt zu prüfen bzw. kritisch zu hinterfragen. Ebenso ist es möglich, dass ein LLM unangemessene Ausgaben (z.B. diskriminierende Aussagen, „Fake News“, Propaganda, etc.) produziert. Eine manuelle Nachbearbeitung von maschinengenerierten Texten ist also ratsam, bevor diese weiterverwendet werden. Besonders sollte dieser Punkt beachtet werden, wenn man eine Entscheidung darüber trifft, ob ein LLM mit direkter Außenwirkung (z.B. ein Chatbot auf einer Webseite) eingesetzt werden soll.

Diese impliziten Verfahren zur Authentisierung können durch explizite technische Verfahren wie Kryptographie oder die Nutzung von CAPTCHAs ergänzt werden, welche die Urheberschaft einer Nachricht kryptografisch nachweisen können.

Auf Ebene des Modells kann der Missbrauch von LLMs im Wesentlichen durch zwei Strategien vorgebeugt werden. Einerseits können die Nutzungsmöglichkeiten generell eingeschränkt werden, was insbesondere bei eigens betriebenen Modellen nur geringe Aufwände erfordert, andererseits können Maßnahmen zur Unterbindung potenziell schädlicher Ausgaben durch eine Einschränkung der Zugriffsrechte getroffen werden, indem die möglichen Prompts eingeschränkt werden. Um schädliche Ausgaben zu verhindern können bestimmte Eingaben, wie z.B. „Wie baut man eine Bombe“, die eindeutig auf böswillige Zwecke abzielen, keine Ausgabe generieren. Stattdessen kann dann eine festgelegte Ausgabe („Für diesen Zweck kann dieses Modell nicht verwendet werden.“) erfolgen.

Darüber hinaus gibt es verschiedene komplementäre Ansätze zur Detektion automatisch generierter Texte. Sprich, KI durch KI-Systeme erkennen. Durch Detektionsmöglichkeiten erhalten Nutzende die Fähigkeit, Texte als maschinengeschrieben zu erkennen und somit gegebenenfalls ihre Authentizität und die Richtigkeit der enthaltenen Informationen anzuzweifeln (vgl. BSI, 2023).

FAZIT

Neben den vielen positiven Effekten, die u.a. in Erfahrungsberichten auf den Webseiten vom Hochschulforum Digitalisierung gebündelt vorliegen, muss man beim Einsatz von KI im Bildungsbereich immer kritisch hinterfragen, welche Ergebnisse wie erzeugt wurden und wie valide die dargestellten Informationen sind. Nichtsdestotrotz bin ich davon überzeugt, dass wir diese Herausforderung mit guten pädagogischen Konzepten einfach lösen können, indem z.B. Studierende in Teams spezielle Bots für bestimmte Fachdisziplinen selbst bauen, die auf o.a. Biases optimiert wurden. Weiterhin können sich die Teams gegenseitig beraten und Feedback geben, um weitere Fehlerquellen analysieren und ausschließen zu können. Eben dieses Lernen in Teams, das konstruktive Problemlösen (der Bot hat diesen und jenen Bias, wir müssen hierauf achten xy….) führt im Bildungsbereich zu wertvollen Kompetenzen (Digital Literacy, Teamfähigkeit, Futures Literacy, Problemlösekompetenz etc.), die zukünftig sowieso benötigt werden. Eine ähnliche Herangehensweise würde ich im Corporate Learning mittels Learning Circles empfehlen.

Die Technologien hinter LLMs entwickeln sich exponentiell weiter. Damit einhergehend MÜSSEN sich die Bildungssysteme meiner Meinung nach grundlegend anpassen. Und zwar alle Bildungsbereiche von der Hochschule bis zur beruflichen und betrieblichen (Aus-)Weiterbildung. Ich hoffe, dass dieser sowie mein erster Blogpost einen AKTIVEN Beitrag dazu leisten konnte.

Teil 2 und 3 werden wesentlich kürzer, versprochen 😊

Entstehung & Disclaimer

Dieser Blogpost wurde gänzlich ohne den Einsatz von generativer KI erstellt, da ich es persönlich bereichernd empfinde, Original-Quellen zu recherchieren, zu analysieren und für andere die Kernbotschaften herauszuarbeiten und zusammenzufassen. Der Blogpost spiegelt meine persönliche Wahrnehmung der aktuellen KI-Debatte im Bildungsbereich wider und erhebt keinen Anspruch auf Vollständigkeit.

Quellen:

BSI. 2022. Die Lage der IT-Sicherheit in Deutschland 2022.

BSI. 2023. Große KI-Sprachmodelle- Chancen und Risiken für Industrie und Behörden, 2023. Abgerufen am 29.11.2023: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Grosse_KI_Sprachmodelle.pdf?__blob=publicationFile&v=2

Europäische Kommission. 2021. Proposal for a regulation of the european parliament and of the council – Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. 2021.

Hendrycks, Dan, et al., 2021. Measuring Massive Multitask Language Understanding. ICLR 2021. 2021.

Insikt Group. 2023. I, Chatbot. Cyber Threat Analysis, Recorded Future. 2023.

OpenAI. 2023. GPT-4 Technical Report. [Online] 02. Mai 2023. https://cdn.openai.com/papers/gpt-4.pdf.

Papers With Code. 2023. Multi-task Language Understanding on MMLU. [Online] 02. Mai 2023. https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu.

Wessels Doris (2023). Hochschulforum Digitalisierung: Ein Jahr ChatGPT in der Hochschule – Ein Zwischenfazit. Abgerufen am 01.12.2023 via: https://hochschulforumdigitalisierung.de/blog/ein-jahr-chatgpt-wessels/

Yang, J., Jin, H., et al., 2023. Harnessing the power of llms in practice: A survey on chatgpt and beyond. arXiv preprint arXiv:2304.13712, abgerufen am 30.11.2023 unter: https://arxiv.org/abs/2304.13712