Glossar

Glossar der AG Digitalisierung

Dieses Arbeitsdokument ist zur freien Editierung mit dem Ziel, ein für die HAWK nützliches Glossar zur Unterstützung von Forschungsanträgen zu schaffen.

Algorithmen

(Autoren: RB)

Algorithmen sind (in diesem Zusammenhang) Computerprogramme , die mit dem Ziel geschrieben werden, aus den ungeheuren Datenbeständen Erkenntnisse zu gewinnen. Erkenntnisse können in vielerlei Sinn definiert werden: für eine bessere Stadtplanung, für größere Wirksamkeit von Gesundheitsprävention, für die Optimierung von Produktionsabläufen, für die Identifizierung unentschlossener Hillary-Wähler, um sie gezielt zu verunsichern, für kommerzielle Ziele.

Theoretisch kann jede Person mit Programmierkenntnissen Algorithmen erstellen. In der Praxis findet diese Möglichkeit aber an begrenzten Ressourcen eine Grenze. Selbst Alphabet findet zu wenige Mitarbeiter, um all das zu programmieren, was möglich wäre und kauft deshalb Wissenschaftler von den Unis weg. Profitinteressen sind oft ausschlaggebend dafür, zu welchem Ziel Algorithmen entwickelt werden. Auch die Verfügungsgewalt über die Datenbestände in den Händen weniger Monopolisten ist eine Einschränkung beim Zugriff auf die Daten durch Andere, selbst wenn Google erhebliche Datenbestände für den allgemeinen Zugriff zur Verfügung stellt. Aus Algorithmen entsteht bei geeigneter Komplexität und hinreichend großem Datenbestand die sog. „Künstliche Intelligenz“. Die in Feuilletons beliebte Frage, ob diese eines Tages der menschlichen Intelligenz überlegen sein wird, mag uns einen Schauder über den Rücken jagen, führt aber an den relevanten und beantwortbaren Fragen (s.o.) vorbei. Sinnvoller stellt man die Frage im Rahmen eines Denkmodells von assistiven Technologien: Wie können Assistenzsysteme so gestaltet sein, dass sie körperliche oder kognitive Funktionen unterstützen oder ersetzen können. In diesem Sinn nehmen uns jetzt schon intelligente Assistenzsysteme eine Fülle von Funktionen ab, vom Gedächtnis über die Orientierung im Raum bis zu Orthesen oder steuernden Funktionen in Autos (Bader, 2019, im Druck). Ausschlaggebend für die Zielrichtung der Entwicklungen ist die Machbarkeit, die verfügbaren Ressourcen und – unter den derzeit herrschenden Verhältnissen (leider) – die Verwertbarkeit. In diesem Sinn hat Google seinen ursprünglichen Leitsatz „Do no evil“ im Mai 2018 eher sang- und klanglos aufgegeben.

 

Big Data

(Autoren: RB)

All diese Datenpunkte, die wir intentional in einer sehr großen Anzahl von Aktionen und Interaktionen im Netz erzeugen, werden zusammen mit einer stetig wachsenden Anzahl von Datenpunkten aus unseren Aktivitäten im Netz und den Daten, die Dritte ohne unsere Zustimmung oder unser Wissen über uns erzeugen, und den Daten aus dem Internet der Dinge in unvorstellbar (vermutlich unendlich) großen Datensammlungen gespeichert: Big Data. Wer die Verfügungsgewalt über diese Datenmengen hat, kann diese Daten nutzen, um daraus Erkenntnisse zu gewinnen, in der Regel über Muster. Muster spielen hinsichtlich des Ziels der Speicherung und Auswertung der Daten eine herausragende Rolle. Diese Erkenntnisse sind nicht nur wissenschaftlicher Natur. Vorrangig diesen die Erkenntnisse, die man derzeit gewinnt, kommerziellen Interessen und der Prognose von Verhalten. Das Geschäftsmodell von Facebook ist diesbezüglich von bestechender Einfachheit: in großem Stil können Werbetreibenden Daten über Nutzerprofile und –muster zur Verfügung gestellt werden, um Werbung zielgenau zu platzieren („targeting“).

Das Wissen darum, dass diese Daten erfasst und gespeichert werden („Das Internet vergisst nie“) wirkt zurück auf unser Verhalten und Erleben. Jemand, der weiß, dass er überwacht wird, agiert anders als jemand, der sich unbeobachtet wähnt. Insofern werden psychologische Erkenntnisse immer wichtiger für die effiziente Nutzung der Daten zu Steuerungszwecken (Nobelpreis 2017 für Richard Thalers Arbeiten zu Nudging). Darin liegen vielfältige Gefahren der Manipulation, wie etwa der Skandal um die Rolle von Cambridge Analytica  bei der Trump-Wahl gezeigt hat.

Die Hauptgefahr liegt aber m.E. darin, dass die größten Big Data Sammlungen bei amazon, Facebook, Alphabet und Apple liegen. Die granular gewonnenen Erkenntnisse (aus einzelnen Datenpunkten generiert, wohlgemerkt!) über Muster menschlichen Verhaltens wird genutzt zur Prognose. Facebook (und nicht nur Facebook) weiß von der Schwangerschaft einer Frau, noch bevor dies die Frau selbst weiß (im übrigen nicht nur Facebook. Schon zehn Jahre, bevor Facebook bestritten hat, dies errechnen zu können, hatte Walmart schon zugegeben, es zu wissen.) Die Verfügung über Big Data ist eine notwendige Voraussetzung für alle anderen Schritte in den geschilderten Prozessen. Big Data stehen bei politischen Auseinandersetzungen oft im Zentrum, mit gutem Grund. Seit Edward Snowden (2013) wissen wir, in welch totalem Ausmaß alle Daten von Geheimdiensten ausgewertet werden. Mittlerweile ist eine Diskussion um die scham- und grenzenlose Nutzung der Daten durch die Anbieter selbst (derzeit vor allem zu dem Ziel, Nutzerprofile zum targeting zu nutzen) im Entstehen. Es gibt mittlerweile gesetzliche Regelungen auf EU-Ebene, um dem Missbrauch dieser Datenbestände Grenzen zu setzen. Aus diesem Grund gibt eine Fülle von Alternativen zu den herrschenden Technologien von Alphabet, amazon und Facebook, vor allem Initiativen zu Open Data, um Daten als ein Allgemeingut (Allmende) zu betrachten. Apple sei hier ausgenommen, weil Apple andere Geschäftsstrategien verfolgt, bei denen die Inhalte eine größere Bedeutung haben.

 

IoT Internet of Things

Im Internet der Dinge (Englisch: Internet of Things, IoT) bekommen Gegenstände eine eindeutige Identität und können miteinander kommunizieren oder Befehle entgegennehmen. Mit dem Internet of Things lassen sich Anwendungen automatisieren und Aufgaben ohne Eingriff von außen erledigen.

Eine allgemeingültige Definition des Internet of Things existiert nicht. Je nach Anwendungsbereich und verwendeter Technik können sich die Definitionen des Internets der Dinge unterscheiden. Im Allgemeinen wird der Begriff Internet of Things für die Vernetzung von Gegenständen des Alltags oder von Maschinen im industriellen Umfeld per Internet verwendet. Geräte bekommen eine eindeutige Identität (Adresse) im Netzwerk und werden mit elektronischer Intelligenz ausgestattet. Dadurch sind sie in der Lage, über das Internet zu kommunizieren und Aufgaben voll automatisiert auszuführen. Die intelligenten Geräte werden oft auch als Smart Devices bezeichnet.

Neben der Möglichkeit der Kommunikation der Geräte untereinander (Machine-to-Machine-Kommunikation, M2M) stellen viele der vernetzten Objekte über das Internet eine Schnittstelle zur Verfügung, über die sich die Geräte durch einen Benutzer von einem beliebigen Ort aus bedienen und steuern lassen.

Quelle: https://www.bigdata-insider.de/was-ist-das-internet-of-things-a-590806/

 

Sensorisierung

(Autoren: RB)

Das zweite Projekt ist das Projekt der Sensorisierung. Die Welt wird immer mehr mit Sensoren ausgestattet, die ohne unser Wissen und ohne aktive Mitwirkung Daten generieren. Das geht über die Daten, die wir intentional erzeugen, weit hinaus, und dafür hat sich der Begriff des Internets der Dinge eingebürgert. Die Generierung von Daten ist das Hauptziel. Aber zu den Daten aus der absichtsvollen Kommunikation sind alle Phänomene der Welt getreten, die erfasst, quantifiziert und in digitale Daten verwandelt werden können. Denken Sie an Temperatur(-unterschiede), Bewegung(-sunterschiede), Füllstände, Beleuchtungsverhältnisse, Mobilitätsdaten, Verbrauchsdaten, …. Allen voran sind das Daten, die durch Smartphones generiert werden, die von Generation zu Generationen mit weiteren Sensoren ausgestattet werden, bis zu 20 verschiedene Sensoren. Smart Watches generieren Daten zu Vitalfunktionen und Bewegungsaktivitäten (bis hin zu den Schlafphasen). Wohnungen werden mehr und mehr mit vernetzten Technologien ausgestattet (Smart Home), die über Zustände und Aktionen Rechenschaft geben. Alexa kann in einem Raum alles, was gesprochen wird, erfassen und an die Cloud übermitteln. Städte werden mehr und mehr mit Sensoren ausgestattet, um die Interaktion mit und in der Stadt smarter (intelligenter) zu machen, für die Parkplatzsuche, die Erhöhung von Sicherheit durch Videoüberwachung, die Steuerung der Straßenbeleuchtung oder von Verkehrsströmen. All diese Sensoren liefern – zusätzlich zu den Beiträgen, die wir wissentlich und aktiv liefern (z. B. den absichtsvollen Post in Facebook) ohne unser bewusstes Zutun Daten, die in der Cloud gespeichert werden. (Ich füge ein Heft der medienpädagogischen Fachzeitschrift bei, das ich 2016 zum Internet der Dinge gemacht habe, um diese Prozesse an Beispielen zu erläutern).

Vernetzung

(Autoren: RB)

In einem eng gefassten Verständnis vernetzt man sich mit seinem Freundeskreis über Facebook, z. B. indem man postet. Unter dem Aspekt technischer Vernetzung (aus dem Blickwinkel z. B. von Facebook als Firma) fallen dabei sehr viele einzelne Datenpunkte an: von der IP-Adresse über das Internetgerät bis zur Tageszeit und dem Tonfall meines Posts. Vernetzung muss man sich also erheblich granularer (feinkörniger) vorstellen als man sie erfährt (Kucklick). Nicht der einzelne Beitrag als ganzer steht zur Diskussion, sondern die vielen hundert einzelnen Daten, die dabei generiert werden. So erzeugt etwa ein einzelner Klick bei amazon, um zwei Produkte zu vergleichen, 50 einzelne Datenpunkte. Diese Datenpunkte werden seit der Gründung von amazon gespeichert und miteinander in Beziehung gesetzt (das ist das explizit formulierte Geschäftsmodell von John Bezos schon 1995 gewesen. Bücher waren nur logistisch praktikable Produkte zum Einstieg in dieses Geschäftsmodell: sie sind haltbar, leicht und einfach zu verpacken). Eine Analogie zum menschlichen Gehirn ist zielführend und sei hier erlaubt: Bei kognitiven Prozessen wie Wahrnehmen, Denken, etc. werden Abermilliarden von synaptische Verknüpfungen zwischen Neuronen ausgebildet, also Netzwerke gebildet.  Vernetzung im medientechnischen Sinn sollte also nicht aufs Grobe (wie im ehemalige Slogan von Facebook deutlich wird„Wir vernetzen Menschen“) bezogen werden, sondern granularer: die Vernetzung von Daten durch eine unendliche Vernetzung von Datenpunkten, die  zueinander in Beziehungen gesetzt werden können.

Es geht nicht darum, welche Daten wichtig, sammelnswert und aussagekräftig sind. Entscheidend ist, dass sich aus Beziehungen zwischen Datenpunkten Muster herauskristallisieren lassen. Und dafür ist es hilfreich, so viele Daten wie möglich zu haben. Das Relevanzkriterium (das für uns in der Wissenschaft eine zentrale Bedeutung hat) ist zunächst nachrangig.

 

Autoren

Prof. Dr. Roland Bader (RB)