In diesem Blogpost geht es um eine medienpädagogische Perspektive zum Thema Selbst- und Fremdbestimmung im Kontext von Big Data. Der Beitrag skizziert zukünftige Gestaltungsmöglichkeiten von Smart Learning Environments (SLE) und formuliert darauf aufbauend kritische Fragestellungen hinsichtlich datenschutzrechtlicher Aspekte. Die Ausführungen basieren auf Literaturanalysen aus dem Bereich Artificial Intelligence in Education, auf Erkenntnissen einer Gruppendiskussion im Rahmen einer BarCamp-Session des OER-Festivals in Berlin (28.02.2016-01.03.2016) sowie auf dem aktuellen Datenschutzrecht.
Intelligente Lernumgebungen: Smart Learning Environments
Die Datenmenge wächst, sie potenziert sich. Die Menge an Daten im Internet ist bereits im Zettabyte-Bereich angekommen. Darunter befinden sich auch riesige Mengen qualitativ hochwertiger Informationen aus unterschiedlichsten Quellen wie z.B. aktuelle Studien, die via Twitter veröffentlicht werden, Experteninterviews auf YouTube oder wissenschaftliche Weblogs von Professor/inn/en. Für Wissensarbeiter/innen, die selbstorganisiert am Arbeitsplatz lernen, bedeutet dies sprichwörtlich, die Nadel im Heuhaufen zu finden. Dies ist eine von vielen Herausforderungen, mit denen wir im Zuge der Transformation zur Wissensgesellschaft umgehen müssen, nämlich diese verteilten, unstrukturierten Daten zur Wissensgenerierung handhabbar zu machen, indem geeignete Rahmenbedingungen für ein effektives, informelles Lernen am Arbeitsplatz entwickelt werden (Ittner & Knieriemen 2013). Intelligente Lernsysteme können dazu beitragen, die Entwicklung sowie kontinuierliche Anpassung persönlicher Lernumgebungen[1] zu unterstützten. Nähere Ausführungen zu Smart Learning Environments sind hier nachzulesen.
Die rapide Weiterentwicklung in unterschiedlichsten Technologiebereichen wie z.B. Internet of Things, Big Data & Data Sciences, Robotics, Human-Machine-Interaction, User Experience, Artificial Intelligence, Machine Learning, Deep Learning, Reinforcement Learning, Neural Networks, Image Recognition, Semantic, Sensors, Embedded Systems, Microcontrollers, Wearables, RAM, NVIDIA CPU etc. bieten die Grundlage zur Gestaltung innovativer, adaptiver, ubiquitärer und teilautomatisierter Lernszenarien (Back 2014; Brusilovsky & Peylo 2003; Erpenbeck & Sauter, 2013 u. 2015; Winkler et al. 2014).
„Smarte“ bzw. „ubiquitäre“ Lernumgebungen entstehen durch Anreicherung der physikalischen Umgebung mit Zusatzinformationen, die durch darin eingebettete Technologien und Auswertung von Big Data in Echtzeit ermöglicht werden. Hierdurch entstehen Mischformen des Lernens, die zwischen formalen und informellen Lernsettings, zwischen selbstorganisiertem und sozialen Lernen, zwischen verschiedenen Lernzeiten und Lernorten sowie zwischen analogen und digitalen Lernformaten zu verorten sind (Specht et al. 2013).
Ziel ist es, die richtigen Informationen, zum richtigen Zeitpunkt, am richtigen Ort und auf die richtige Art und Weise zu präsentieren. Das bedeutet, dass das System die Lernbedürfnisse und bevorzugten Lernmethoden kennt und auf dieser Grundlage „adaptive und kontextsensitive Informationen“ liefert. In diesem Zusammenhang wird von „Ubiquitous Learning Environment“ gesprochen (Bomsdorf 2005). Eine gleichwertige Definition ist in Hwang et al. 2008 zu finden:
“Smart learning environments can be regarded as the technology-supported learning environments that make adaptations and provide appropriate support (e.g., guidance, feedback, hints or tools) in the right places and at the right time based on individual learners’ needs, which might be determined via analyzing their learning behaviors, performance and the online and realworld contexts in which they are situated.”
Zur Gestaltung o.a. Lernumgebungen müssen Daten erhoben und ausgewertet werden. Ein zentrales Element ist die Erstellung eines individuellen Lern-Profils, das kontinuierlich verfeinert und angepasst wird. Dabei werden Informationen zur Person (Qualifikationen, berufl. Werdegang etc.), zum Aufenthaltsort, zum Surfverhalten, zu Interessensgebieten, zu beruflichen Tätigkeiten, zu Lernzielen, zu Netzwerken, zu Spezialkenntnissen etc. analysiert und ausgewertet (Brusilovsky & Peylo 2003; Bomsdorf 2005; Hwang et al. 2008). Derartiges Sammeln und Auswerten von (personenbezogenen) Daten hat fundamentale Auswirkungen auf den Einzelnen sowie die Gesellschaft (Schaar 2014).
Neue Herausforderungen an den Datenschutz durch Big Data Analysen
Ziel des Datenschutzes ist der Schutz der Persönlichkeit und die Gewährleistung der allgemeinen Handlungsfreiheit der Menschen. Bereits im Jahr 1983 entwickelten die Richter des BVerfG in Karlsruhe das „Grundrecht auf informationelle Selbstbestimmung“, da sie in der aufkommenden automatisierten Datenverarbeitung die Gefahr sahen, dass die bloße Registrierung persönlicher Daten bei den Bürgern zu der Befürchtung führen könnte, dass ihre personenbezogenen Daten ohne ihr Wissen ausgewertet, weitergegeben und langfristig gespeichert werden. Dies wäre nach Ansicht der damaligen Verfassungsrichter ein die Funktionsfähigkeit einer Demokratie gefährdende Umstand, da in der Folge die Bürger ihr gesellschaftliches Verhalten entsprechend dieser Befürchtungen anpassen würden, d.h. sich demgemäß nicht mehr „frei bewegen“ damit nicht mehr „frei entfalten“ würden (Art 2 Abs 1 iVm. Art 1 Abs 1 GG).[2] Die Grundprinzipien des Datenschutzes sind darauf aufbauend bis heute das „Verbot mit Erlaubnisvorbehalt“ (informierte Einwilligung oder gesetzliche Grundlage für eine Datenerhebung, -verarbeitung und -nutzung), die „Zweckbindung“, die „Datensparsamkeit“, die „Erforderlichkeit“ und die „Transparenz“.[3]
Big Data Anwendungen stellen diese Prinzipien vor große Herausforderungen (Feiler & Fina 2013; Bitter, & Buchmüller & Uecker 2014; Orthmann & Schwiering 2014). Das Besondere an Big Data ist die neue Qualität der Ergebnisse aus der Kombination bisher nicht aufeinander bezogener Daten.[4] Demgemäß sind viele Big Data Anwendungen mit den fundamentalen datenschutzrechtlichen Grundsätzen der „Zweckbindung“, „Datensparsamkeit“ und „Transparenz“ schwer zu vereinbaren. Die Schwierigkeit besteht darin, die Interessen der verantwortlichen Stelle an Big Data Analysen mit dem Recht auf informationelle Selbstbestimmung der Betroffenen ins Gleichgewicht zu bringen. Dazu müssen die konkreten Zwecke der Datenanalysen von Beginn der Erhebung, Verarbeitung und Nutzung sehr ausführlich, transparent und so verständlich wie möglich dargestellt werden und die Ausübung von Betroffenenrechte (Recht auf Auskunft, Widerspruch und Löschung) muss gewährleistet sein.[5] Eine personenbezogene Datenspeicherung auf Vorrat für spätere Big Data Auswertungen widerspricht dem Grundsatz, dass personenbezogene Daten nur für festgelegte eindeutige und rechtmäßige Zwecke erhoben und nicht in einer mit diesen Zweckbestimmungen nicht zu vereinbarenden Weise weiterverarbeitet werden dürfen und nicht länger, als es für die Realisierung der Zwecke, für die sie erhoben oder weiterverarbeitet werden, erforderlich ist, in einer Form aufbewahrt werden, die die Identifizierung der betroffenen Personen ermöglicht.[6]
Aktuell erfolgt innerhalb der Europäischen Union eine Erneuerung des Datenschutzrechts für den Europäischen Binnenmarkt durch eine unmittelbar anwendbare EU Datenschutzgrundverordnung (DSGVO) die bzgl. Big Data Anwendungen neue datenschutzrechtlich erlaubte Möglichkeiten schaffen kann.[7]
Fazit, Ausblick und offene Fragen
Big Data kann zwar die Qualität von Lernumgebungen wie bspw. von Smart Learning Environments deutlich steigern, eröffnet aber gleichzeitig gravierende Heraus-forderungen in Bezug auf eine pädagogisch fundierte Grundkonzeption sowie an gesetzliche Rahmenbedingungen was den Datenschutz betrifft (Alonso & Arranz 2016). In Bezug auf Datenautonomie und Datensicherheit ergibt sich die Notwendigkeit einer frühzeitigen und differenzierten Auseinandersetzung mit dem Thema. Hierbei sind (bekannte) Sicherheitslücken (Neumann 2014) sowie datenschutzrechtliche Aspekte gleichermaßen zu berücksichtigen. Zum Schutz der Privatsphäre und unter Gewährleistung des Grundrechts auf informationelle Selbstbestimmung sind Lösungsansätze erkennbar. Gute Tipps, wie man seine persönlichen Daten schützen kann, gibt es beispielsweise hier. Zudem sollten folgende Prinzipen im Rahmen von Privacy by Design[8] parallel zur Datenschutzgrundverordnung berücksichtigt werden:
- Aufklärung der Nutzer/innen
- Größtmögliche Anonymisierung
- Größtmögliche Löschung
- Klare Regelungen & Rollen (Anpassung und Modernisierung des Datenschutzrechts)
- Größtmögliche Transparenz
- Größtmögliche Datenautonomie beim Nutzer: Eröffnung von Handlungsspielräumen und Modifizierungsmöglichkeiten
- Vermeidung monopolartiger Strukturen (Google, Amazon, Facebook…)
- Prüfung von Sicherheitslücken
- Einsatz kryptographischer Verfahren
Damit Datenschutz und Datensicherheit nicht als Hindernis von Innovation empfunden werden, könnte ein Lösungsansatz in der stringenten Verfolgung des „Privacy by Design“-Ansatzes liegen, der bereits vor der Entwicklung von Systemen datenschutzrechtliche Aspekte im Vorfeld analysiert, beschreibt und zum Wohle der Nutzer/innen durch Berücksichtigung o.a. Prinzipien gestaltet (Schaar 2014).
Ein ähnlicher Ansatz wurde auch im “Digital-Manifest (I): Digitale Demokratie statt Datendiktatur” im Spektrum der Wissenschaft 1/2016 von den Autoren Dirk Helbing , Bruno S. Frey , Gerd Gigerenzer , Ernst Hafen , Michael Hagner , Yvonne Hofstetter , Jeroen van den Hoven , Roberto Zicari und Andrej Zwitter vorgestellt:
Zur Diskussion stehen folgende Fragestellungen, die im Rahmen einer BarCamp-Session zum Thema: „IT-Infrastrukturen der Zukunft: Intelligent, vernetzt, hybrid. Und Open Source?“ bereits andiskutiert wurden (vgl. hier):
Intelligente Infrastrukturen werden zukünftig in der Lage sein, Lernenden Zusatznutzen durch die Auswertung ihrer Daten zu generieren. Hierbei schlägt ein System relevante und benötige Informationen vor, die aus unterschiedlichen Quellen herangezogen werden. Persönliche Informationen werden mit anderen vernetzt und mittels Verfahren aus der Künstlichen Intelligenz (z.B. Semantic, Machine Learning) sinnvoll verknüpft.
- Wie frei ist jeder Einzelne in der Auswahl der Inhalte (Meinungsbildung), wenn ein System „vorgefertigte“ Empfehlungen abgibt?
- Wie frei sind wir diesbezüglich heute, wenn man die Vorauswahl von Google oder anderen Datenbanken/ Suchmaschinen betrachtet?
- Wie sind derartige Strukturen im Zusammenhang von „Meinungsbildung und Manipulation“ zu betrachten?
- Sind intelligente Systeme als Open-Source denkbar?
(–> OS würde größtmögliche Transparenz bieten) - Wer könnte Betreiber zukünftiger intelligenter Systeme sein?
- Wer sammelt und analysiert die Daten?
- Wer ist Eigentümer der Daten?
- Zu welchem Zweck werden die Daten verwendet?
- Wer hat die Kontrolle über die Datensammlung &-auswertung?
- Welche Modelle wären diesbezüglich denkbar?
- Kommerzielle Anbieter wie Facebook, Amazon, Google, LinkedIn (wirtschaftliche Interessen im Vordergrund)
- Gemeinnützig oder offen verwaltete Datenserver (Öffentliche Kontrolle & Datensouveränität der Nutzer steht im Vordergrund)
Dieser Beitrag entstand unter Mitwirkung von Christian Jaksch, Doktorand Universität Wien, Fachbereich IT-Recht unter Betreuung von Hon.-Prof. Univ.-Prof. Dr. Nikolaus Forgó.
Über weitere Fragen, Kommentare und Hinweise würde ich mich freuen!
[1] “Personal Learning Environments can be viewed as a concept related to the use of technology for learning focusing on the appropriation of tools and resources by the learner” (Buchem et al, 2011 S.1).
[2] BVerfG, 15. Dezember 1983 · Az. 1 BvR 209/83 Rz 172 f
[3] § 4 BDSG; Art 6 EG-Datenschutzrichtlinie 95/46/EG; und Art 8 Charta der Grundrechte der Europäischen Union (2010/C 83/02)
[4] Wissenschaftliche Dienste Deutscher Bundestag, Nr. 37/13, Aktueller Begriff Big Data
[5] §§ 33-35 BDSG
[6] Art 6 EG-Datenschutzrichtlinie 95/46/EG und Art 8 EU-Grundrechte Charta
[7] VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung)
[8] Privacy by Design is an approach to systems engineering which takes privacy into account throughout the whole engineering process.
2 Kommentare