Big Data - Künstliche Intelligenz - Datenschutz

Die Digitalisierung krempelt das Personalmanagement um: Selbstlernende Algorithmen machen es möglich, bestimmte Aufgaben komplett zu automatisieren. Programme können beispielsweise Bewerbungsunterlagen sortieren und geeignete Kandidaten herausfiltern, per Sprachanalyse Interviews auswerten, durch die Analyse von Beschäftigtendaten Empfehlungen für Weiterbildungen oder Kündigungen generieren.

Der gläserne Mitarbeitende lässt grüssen! Digitale Technologien ermöglichen eine umfassende Überwachung von Beschäftigten. Dem Datenschutz und  der Mitwirkung der Personalvertretung kommt in der digitalen Arbeitswelt eine Schlüsselrolle zu.

Um Klarheit zu bekommen, um was es überhaupt geht, sind vorgängig die häufigsten verwendeteten Begriffe definiert.

Datenschutz wird häufig als Recht verstanden, dass jeder Mensch grundsätzlich selbst darüber entscheiden darf, wem wann welche seiner persönlichen Daten zugänglich sein sollen. Der Wesenskern eines solchen Datenschutzrechts besteht darin, dass die Machtungleichheit zwischen Organisationen und Einzelpersonen unter Bedingungen gestellt werden kann. Der Datenschutz soll der in der digitalen und vernetzten Informationsgesellschaft bestehenden Tendenz zum gläsernen Menschen, zum Ausufern staatlicher Überwachungsmassnahmen (Überwachungsstaat) und zur Entstehung von Datenmonopolen von Privatunternehmen entgegenwirken.

Das schweizerische Bundesgesetz über den Datenschutz ist seit 1992 in Kraft. Zur Zeit ist es in Überarbeitung bis voraussichtlich im Jahre 2022. Dieses Gesetz bezweckt den Schutz der Persönlichkeit und der Grundrechte von Personen, über die Daten bearbeitet werden.

Die neue Datenschutz-Grundverordnung (DSGVO) der EU ist seit Mai 2018 in Kraft. Obwohl die Verordnung in der Europäischen Union eingeführt wurde, gilt die DSGVO sowohl für Schweizer Unternehmen, die eine Niederlassung in der EU haben, als auch für Unternehmen, die ihren Sitz in der Schweiz haben, aber auf dem Gebiet der EU tätig sind. Die neue Verordnung vereinheitlicht die Regeln zur Verarbeitung personenbezogener Daten durch private Firmen und öffentliche Stellen. Als personenbezogene Daten gelten alle Informationen, die sich auf eine direkt oder indirekt identifizierbare Person beziehen. Dabei kann es sich um einen Vornamen, ein Foto, eine E-Mail-Adresse, IP-Adressen oder Beiträge aus Social Media handeln.

Mit dem neuen EU-Datenschutz sollen die Rechte der EU-BürgerInnen auf den Schutz ihrer personenbezogenen Daten gestärkt werden. Zudem nimmt die EU-DSGVO auch die Unternehmen bei der Verarbeitung von personenbezogenen Daten vermehrt in die Pflicht. 

Und betroffen sind beispielsweise Firmen, die eine mit Google Analytics verknüpfte Website betreiben, auf die auch Nutzer aus dem EU-Raum Zugriff haben. Um die Website DSGVO-konform zu betreiben, müssen die LeserInnen von den Website-Betreibern neu in der Datenschutzerklärung informiert werden, dass personenbezogene Daten gesammelt und verarbeitet werden. Zum Verarbeiten persönlicher Daten muss der Nutzer, die Nutzerin eine ausdrückliche Einwilligung erteilen, es muss aber auch die Möglichkeit einer Ablehnung geben.

Der Begriff Big Data bezeichnet zunächst Datenmengen, welche beispielsweise zu gross, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.

Big Data wird häufig als Sammelbegriff für digitale Technologien verwendet, die für eine neue Ära Datenverarbeitung und einen damit einhergehenden gesellschaftlichen Umbruch verantwortlich gemacht werden. Dabei unterliegt der Begriff als Schlagwort einem kontinuierlichen Wandel; so wird damit ergänzend auch oft der Komplex der Technologien beschrieben, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden.

Das Geschäft mit den Daten boomt. Laut Statista wurde im Jahr 2017 mit Big-Data-Lösungen ein Umsatz von rund 33,5 Milliarden US-Dollar erzielt werden. Tendenz stark steigend.

Eine allgemeingültige Definition für Data Science existiert (noch) nicht. Data Science beschäftigt sich mit der Art und Weise, wie sehr grosse Datenmengen erhoben, verarbeitet, aufbereitet und analysiert werden. Dabei lässt sich Data Science in vier Kernbereiche einteilen: 

  1. Data Engineering
    Unter Data Engineering sind alle Methoden und Prozesse zu verstehen, die für die Speicherung, den Zugriff sowie die Rückverfolgbarkeit von Daten nötig sind. Im Bereich Data Engineering liegen meist sehr grosse Datenmengen vor, für welche die genannten Aspekte (Speicherung, Zugriff, Rückverfolgbarkeit) zu gewährleisten sind. Data Engineering lässt sich in der Praxis durch verschiedene Tools umsetzen – beispielsweise Linked (open) Data, Informationsextraktion oder «Daten-Marktplätze».
     
  2. Data Analytics und als Ergebnis Smart Data
    Data Analytics beschäftigt sich mit der Datenanalyse. Die Aufbereitung und Verarbeitung von grossen Datenbeständen mittels geeigneter Algorithmen ist Voraussetzung für eine schnelle und leistungsfähige Analyse. Das Ergebnis von Data Analytics sind wertvolle Erkenntnisse aus grossen Datenmengen – beispielsweise in Form von Smart Data. Smart Data als Ergebnis von Data Analytics sind extrahierte Datenbestände im Kontext einer bestimmten Fragestellung. Im Kern geht es bei Smart Data um das Herausfiltern von «sinnvollen» Daten aus einem grossen, unübersichtlichen Datenbestand. Es handelt sich um eine automatisierte Informationsextraktion aus nicht formatiertem, nicht zahlenmässig erfassbarem und nicht für die Analyse aufbereitetem Datenmaterial, das in sehr grosser Menge vorliegt, zum Beispiel Geschäftsberichte und Textquellen aus dem Internet.
     
  3. Data Prediction
    Data Prediction befasst sich mit der Vorhersage von The men und Situationen auf Basis von Erfahrungswissen. Künstliche neuronale Netze oder andere mathematische Vorhersagemodelle erstellen dabei auf Basis aller bisher beobachtbaren Fälle eine Prognose für die Zukunft.
     
  4. Maschinelles Lernen  / Algorithmen
    Maschinelles Lernen ist ein Querschnittsbereich zu den anderen drei Bereichen. Maschinelles Lernen steht für die Entwicklung von Algorithmen, die aus Daten (Erfahrungswissen) lernen, dabei Muster erkennen, Modelle generieren und darauf aufbauend Themen und Situationen vorhersagen können. Beim Data Stream Mining wird ein kontinuierlicher Datenstrom verarbeitet und laufend interpretiert. Ein wichtiger Teilbereich des maschinellen Lernens ist das Deep Learning, das auf neuronalen Netzen mit zahlreichen Schichten basiert, die für die Extraktion von Merkmalen auf unterschiedlichen Abstraktionsebenen verantwortlich sind.

    Beim maschinellen Lernen wird das bisherige hypothesen  bezogene Lernen durch ein «datengetriebenes Lernen» er setzt. Dabei handelt es sich um einen explorativen Vorgang, bei dem «direkt aus den Daten heraus» gelernt wird. Aufgrund der beobachteten Fälle wird Erfahrungswissen kontinuierlich angepasst, ergänzt und aktualisiert. Dazu gehören beispielsweise mehrsprachige Sprachtechnologien und das Semantic Web.

 

Definitionen aus dem Bericht: Bericht: Data Science
Auswahl, Beschreibung, Bewertung und Messung der Schlüsselkompetenzen für das Technologiefeld Data Science
J. Gausemeier, M. Guggemos, A. Kreimeyer 2018 (Hrsg.)

Statt den mit Erwartungen überfrachteten Begriff «Künstliche Intelligenz» zu verwenden, halten wir den Begriff «automatisierte Entscheidungsfindung» (Automated Decision Making, ADM) für geeigneter. Damit wollen wir vor allem den Aspekt der Verantwortlichkeit thematisieren, denn die Verantwortung für ADM liegt weiter bei den Menschen, die an der Beauftragung, Entwicklung und Zulassung solcher Systeme beteiligt sind.

Informiert bleiben

Persönlich, rasch und direkt

Sie wollen wissen, wofür wir uns engagieren? Abonnieren Sie unseren Newsletter! Bei persönlichen Anliegen helfen Ihnen unsere RegionalsekretärInnen gerne weiter.

syndicom in deiner Nähe

In den Regionalsekretariaten findest du kompetente Beratung & Unterstützung

Newsletter abonnieren