Wie kann KI die Governance Ihrer Unternehmensdaten verbessern?

Wie kann KI die Governance Ihrer Unternehmensdaten verbessern?

Laut einem von McKinsey Ende 2022 veröffentlichten Bericht würden 50 % der Unternehmen bereits künstliche Intelligenz einsetzen, um ihre Serviceabläufe zu optimieren und neue Produkte zu entwickeln. Die Entwicklung von KI und Machine Learning im Unternehmensalltag zeigt, welch herausragende Rolle Daten in den Entwicklungsstrategien der Führungskräfte spielen. Um effektiv arbeiten zu können, ist die KI auf große Datensätze angewiesen, die einer methodischen und strengen Governance unterliegen müssen.

Hinter dem Begriff Data Governance steht die Gesamtheit der Prozesse, Richtlinien und Normen, um die Erfassung, Speicherung, Verwaltung, Qualitätssicherung und den Zugang zu Daten innerhalb einer Organisation zu regeln. Welche Rolle spielt die Data Governance? Sie stellt sicher, dass die Daten präzise, sicher, und zugänglich sind und mit den geltenden Vorschriften übereinstimmen. Zwischen KI und Data Governance besteht eine enge Beziehung, denn KI-Modelle lernen aus Daten, und minderwertige oder verzerrte Daten können zu falschen oder diskriminierenden Entscheidungen führen.

Möchten Sie sicherstellen, dass die von KI-Systemen und ihren Algorithmen verwendeten Daten vertrauenswürdig, ethisch korrekt und datenschutzkonform sind? Dann ist die Data Governance eine unabdingbare Voraussetzung für Sie. Wenn Sie zur selben Zeit ein Doppelprojekt aus KI und Data Governance vorantreiben, schaffen Sie positive Synergien. Die KI kann auf diese Weise direkt zur Verbesserung der Data Governance eingesetzt werden, indem sie Aufgaben wie die Erkennung von Anomalien oder die Klassifizierung von Daten automatisiert.

Zusammenfassung der (zahlreichen!) Vorteile einer Data Governance mit KI-Unterstützung.

Welche Vorteile bietet KI für die Data Governance?

Verbesserung der Qualität Ihrer Daten

 

Die Datenqualität muss die Grundlage jeder Datenstrategie sein. Je zuverlässiger die Daten sind, desto relevanter sind die daraus abgeleiteten Erkenntnisse, Entscheidungen und Leitlinien. KI trägt durch mehrere Mechanismen zur Verbesserung der Datenqualität bei. KI-Algorithmen können insbesondere die Erkennung und Korrektur von Fehlern in Datensätzen automatisieren und so Inkonsistenzen und Ungenauigkeiten reduzieren.

Darüber hinaus kann KI dabei helfen, Daten zu normalisieren, indem sie diese auf kohärente Weise strukturiert, damit sie flüssiger und zuverlässiger ausgewertet, verglichen und in einen Zusammenhang gebracht werden können. Mithilfe von maschinellem Lernen (Machine Learning) ist es auch möglich, versteckte Muster und Trends in den Daten zu erkennen und so Fehler oder fehlende Daten zu entdecken.

Automatisierung der Compliance Ihrer Daten

 

Da die Zahl der Cyberbedrohungen buchstäblich explodiert, muss die Einhaltung der Daten-Compliance in Ihrem Unternehmen absolute Priorität genießen. Die Gewährleistung dieser Compliance setzt jedoch eine ständige Wachsamkeit voraus, die nicht ausschließlich von der menschlichen Intelligenz getragen werden kann. Zumal KI potenzielle Verstöße gegen Datenvorschriften proaktiv überwachen kann. Wie genau? Indem sie alle Datenströme in Echtzeit auf Anomalien oder unbefugte Zugriffe hin analysiert, automatische Warnungen auslöst und sogar Empfehlungen zur Behebung möglicher Probleme macht. Darüber hinaus erleichtert KI die Klassifizierung und Kennzeichnung sensibler Daten und stellt so sicher, dass diese angemessen verarbeitet werden. Außerdem können KI-Systeme automatische Compliance-Berichte erstellen und so den Verwaltungsaufwand reduzieren.

Erhöhen Sie die Sicherheit Ihrer Daten

 

KI besitzt die Fähigkeit, Bedrohungen durch die Analyse von Datenzugriffsmustern in Echtzeit proaktiv zu erkennen und kann so vor verdächtigem Verhalten wie Eindringversuchen oder unbefugtem Zugriff warnen. Um im Dienste der Data Governance noch einen Schritt weiter zu gehen, nutzt die KI Systeme zur Erkennung von Malware, die auf maschinellem Lernen basieren. Diese Systeme sind in der Lage, Signaturen bekannter Malware zu identifizieren und unbekannte Varianten durch die Analyse ihres Verhaltens zu erkennen. Darüber hinaus trägt sie zur Sicherheit bei, indem sie die Verwaltung von Sicherheits-Patches automatisiert und die Einhaltung von Sicherheitsrichtlinien überwacht.

Demokratisierung der Daten

 

Der Kern Ihrer Datenstrategie beruht auf einem Ziel: Ihre Mitarbeiter sollen ermutigt werden, Daten zu nutzen, wann immer es möglich ist. Auf diese Weise fördern Sie die Entwicklung einer Datenkultur in Ihrer Organisation. Der Schlüssel zum Erfolg liegt darin, den Zugang zu den Daten zu erleichtern, indem Sie die Suche und Analyse komplexer Daten erleichtern. KI-Suchmaschinen können schnell relevante Informationen aus großen Datensätzen extrahieren, sodass Ihre Mitarbeiter in kürzester Zeit das finden, was sie brauchen. Darüber hinaus kann KI die Aggregation und Präsentation von Daten in Form von interaktiven Dashboards automatisieren, wodurch die Daten jederzeit leichter abgerufen und weitergegeben werden können!

Wie sieht die Zukunft der Data Governance aus?

 

Immer mehr Daten, immer mehr Analysen, immer mehr Vorhersagbarkeit. Das ist der Lauf der Dinge. Dies wird dazu führen, dass die Unternehmen ganzheitlichere Ansätze für ihre Herausforderungen wählen werden. Mehr Höhe, mehr Distanz, für immer mehr Nähe zu ihren Märkten. Um diese Herausforderung zu meistern, ist es von entscheidender Bedeutung, die Data Governance in die globalen Strategien einzubeziehen. In diesem Zusammenhang wird die Automatisierung von entscheidender Bedeutung sein und sich größtenteils auf Werkzeuge stützen, die künstliche Intelligenz und maschinelles Lernens nutzen, um Daten proaktiv zu finden, zu klassifizieren und zu sichern.

Die Zukunft wird unter dem Stern einer stärkeren Zusammenarbeit zwischen IT-, Rechts- und Geschäftsteams stehen, die für den Erfolg der Data Governance und die Aufrechterhaltung des Vertrauens aller Beteiligten von entscheidender Bedeutung ist.

Alles über Data Contracts

Alles über Data Contracts

In der heutigen datengesteuerten Welt tauschen Unternehmen große Datenmengen zwischen verschiedenen Abteilungen, Diensten und Partner-Ökosystemen aus, die aus verschiedenen Anwendungen, Technologien und Quellen stammen. Sicherzustellen, dass die ausgetauschten Daten zuverlässig, qualitativ hochwertig und vertrauenswürdig sind, ist für die Schaffung eines greifbaren Wertes von entscheidender Bedeutung. Hier kommen die Data Contracts ins Spiel – ähnlich wie traditionelle Verträge, die Erwartungen und Verantwortlichkeiten festlegen, legen die Datenverträge den Rahmen für einen zuverlässigen Datenaustausch fest.

In diesem Artikel erfahren Sie alles, was Sie über Data Contracts wissen müssen!

Was ist ein Data Contract?

 

Ein Data Contract ist im Wesentlichen eine Vereinbarung zwischen zwei oder mehr Parteien über die Struktur, das Format und die Semantik der ausgetauschten Daten. Er dient als Masterplan, der festlegt, wie die Daten während des Kommunikationsprozesses organisiert, kodiert und validiert werden müssen. Darüber hinaus müssen Datenverträge festlegen, wie und wann geliefert werden soll, um die Aktualität der ausgetauschten Daten zu gewährleisten. Idealerweise sollten Datenverträge zu Beginn der gemeinsamen Nutzung ausgearbeitet werden, um von Anfang an klare Richtlinien festzulegen und gleichzeitig die Anpassung an die sich verändernden Vorschriften und den technologischen Fortschritt zu gewährleisten.

Data Contracts dienen in der Regel als Brücke zwischen Datenproduzenten, wie z. B. Softwareentwicklern, und Datenkonsumenten, wie z. B. Data Engineers oder Data Scientists. In diesen Verträgen wird minutiös beschrieben, wie die Daten strukturiert und organisiert werden müssen, um ihre Nutzung durch nachgelagerte Prozesse, wie z. B. Datenpipelines, zu erleichtern. Die Genauigkeit der Daten ist von entscheidender Bedeutung, um Qualitätsprobleme zu vermeiden und die Genauigkeit der Analysen zu gewährleisten.

Dennoch kann es Datenproduzenten an Informationen über die spezifischen Anforderungen und wesentlichen Informationen mangeln, die von jeder Art von Organisation des Datenteams für eine effektive Analyse benötigt werden. Um diese Lücke zu schließen sind Data Contracts unverzichtbar geworden. Sie gewährleisten ein gemeinsames Verständnis und eine Vereinbarung über das Eigentum, die Organisation und die Eigenschaften von Daten, was eine reibungslosere Zusammenarbeit und eine effizientere Nutzung über verschiedene Teams und Prozesse hinweg ermöglicht.

Es ist wichtig zu betonen, dass Datenverträge manchmal von Vereinbarungen über die gemeinsame Nutzung von Daten getrennt werden. Während Data Contracts die technischen Details und rechtlichen Verpflichtungen, die mit dem Datenaustausch verbunden sind, detailliert beschreiben, bieten Vereinbarungen zur gemeinsamen Nutzung eine vereinfachte Version, oft in Form von Word-Dokumenten, die speziell für nicht-technische Beteiligte wie Datenschutzbeauftragte (DPO) und Rechtsberater entwickelt wurden.

Was steht in einem Data Contract?

 

Ein Data Contract umfasst in der Regel Vereinbarungen über:

Die Semantik

 

Der Abschnitt Semantik in einem Data Contract klärt die Bedeutung und den beabsichtigten Gebrauch von Datenelementen und -feldern und sorgt so für ein gegenseitiges Verständnis zwischen allen Parteien. Eine verständliche Dokumentation bietet Orientierung über Formate, Beschränkungen und Anforderungen und fördert die Konsistenz und Zuverlässigkeit beim Austausch zwischen den Systemen.

Das Datenmodell (Schema)

 

Das Schema in einem Data Contract definiert die Struktur der Datensätze, einschließlich der Datentypen und der Beziehungen, die sie verknüpfen. Es führt die Nutzer durch die Handhabung und Verarbeitung von Daten und stellt die Kohärenz zwischen den Systemen sicher, um eine nahtlose Integration und effektive Entscheidungsprozesse zu ermöglichen.

Service Level Agreements (SLAs)

 

Der Abschnitt über SLAs in einem Datenvertrag legt Standards für datenbezogene Dienstleistungen fest, um die Aktualität und Verfügbarkeit der Daten zu gewährleisten. Er definiert Metriken wie Antwortzeiten, Verfügbarkeit und Problemlösungsverfahren. SLAs weisen beiden Parteien Verantwortlichkeiten zu und stellen sicher, dass die Service Levels eingehalten werden.

Die Data Governance

 

Im Abschnitt Data Governance eines Datenvertrags werden Richtlinien für einen verantwortungsvollen Umgang mit Daten festgelegt. Er beschreibt die Rollen und Verantwortlichkeiten, gewährleistet die Einhaltung der Vorschriften und fördert das Vertrauen zwischen den Beteiligten. Dieser Rahmen hilft, die Integrität und Zuverlässigkeit der Daten in Übereinstimmung mit den gesetzlichen Anforderungen und den Zielen auf organisatorischer Ebene zu erhalten.

Die Datenqualität

 

Der Abschnitt eines Data Contracts über die Datenqualität gewährleistet, dass die ausgetauschten Daten vorab definierten Standards entsprechen, einschließlich Kriterien wie Genauigkeit, Vollständigkeit und Kohärenz. Durch die Festlegung von Regeln für die Datenvalidierung und von Protokollen für die Fehlerbehandlung zielt der Vertrag darauf ab, die Integrität und Zuverlässigkeit der Daten während ihres gesamten Lebenszyklus zu erhalten.

Die Sicherheit und Vertraulichkeit der Daten

 

Der Abschnitt über Datensicherheit und Datenschutz in einem Data Contract beschreibt die Maßnahmen zum Schutz sensibler Informationen und zur Einhaltung der Datenschutzbestimmungen. Er umfasst Verschlüsselungsrichtlinien, Zugangskontrollen und regelmäßige Audits, um die Integrität und Vertraulichkeit der Daten zu schützen. Der Vertrag betont die Einhaltung von Gesetzen wie DSGVO, HIPAA oder CCPA, um das Recht des Einzelnen auf Privatsphäre zu schützen und Vertrauen zwischen den Beteiligten aufzubauen.
Hier ist ein Beispiel für einen Data Contract aus dem PayPal open-sourced Data Contract:

 

Paypal Opensource Data Contract Example

Welche Rollen sind für Data Contracts verantwortlich?

 

Die Erstellung von Data Contracts erfordert in der Regel die Zusammenarbeit aller Beteiligten innerhalb einer Organisation, einschließlich der Data Architects, Data Engineers, Compliance-Experten und Business Analysts.

Data Architects

 

Data Architects spielen eine Schlüsselrolle bei der Definition der technischen Aspekte des Data Contracts, wie Datenstrukturen, Formate und Validierungsregeln. Sie stellen sicher, dass der Vertrag auf die Grundsätze und Standards der Datenarchitektur der Organisation abgestimmt ist, wodurch die Interoperabilität und Integration zwischen verschiedenen Systemen und Anwendungen erleichtert wird.

Data Engineers

 

Die Data Engineers sind für die Umsetzung der im Vertrag beschriebenen technischen Spezifikationen verantwortlich. Sie entwickeln Datenpipelines, Integrationsprozesse und Transformationsroutinen, um sicherzustellen, dass die Daten entsprechend den Vertragsanforderungen ausgetauscht, verarbeitet und gespeichert werden. Ihr Fachwissen in den Bereichen Modellierung, Datenbankmanagement und Integration ist entscheidend für die Umsetzung des Data Contracts in operative Lösungen.

Compliance-Experten

 

Compliance-Experten spielen ebenfalls eine entscheidende Rolle bei der Erstellung von Datenverträgen, da sie sicherstellen, dass die Verträge die geltenden Gesetze und Vorschriften einhalten. Sie prüfen und entwerfen Vertragsklauseln in Bezug auf Dateneigentum, Vertraulichkeit, Sicherheit, geistige Eigentumsrechte und Haftung, wägen rechtliche Risiken ab und stellen sicher, dass die Interessen aller beteiligten Parteien geschützt werden.

Business-Analysten

 

Business-Analysten leisten einen Beitrag, indem sie Informationen über Geschäftsanforderungen, Anwendungsfälle und Datenabhängigkeiten bereitstellen, die als Leitlinien für den Entwurf und die Ausarbeitung des Vertrags dienen. Sie helfen bei der Identifizierung von Quellen, der Definition von Datenattributen und der Artikulation von Geschäftsregeln und Validierungskriterien, welche den Rahmen des Vertrags festlegen.

Die Bedeutung von Datenverträgen

 

Im Mittelpunkt von Datenverträgen steht die Festlegung von Richtlinien, Bedingungen und Erwartungen für die Verwaltung von Aktivitäten zur gemeinsamen Nutzung von Daten. Durch die Definition von Rechten, Verantwortlichkeiten und Nutzungsparametern in Verbindung mit gemeinsam genutzten Daten tragen Verträge zur Förderung von Transparenz und zur Minderung potenzieller Konflikte oder Missverständnisse zwischen den am Datenaustausch beteiligten Parteien bei.

Eine der wichtigsten Aufgaben von Datenverträgen ist ihre Rolle bei der Gewährleistung der Qualität und Integrität von Daten während ihres gesamten Lebenszyklus. Durch die Festlegung von Standards, Formaten und Validierungsprotokollen für den Datenaustausch fördern Data Contracts die Einhaltung von kohärenten Datenstrukturen und Qualitätsstandards. Das hilft, Abweichungen, Fehler und Inkonsistenzen auf ein Minimum zu reduzieren und verbessert die Zuverlässigkeit und das Vertrauen in gemeinsame Datenbestände für Analysen und Entscheidungsprozesse.

Datenverträge sind ein wichtiges Instrument zur Förderung der Data Governance und der Compliance in Unternehmen. In einem immer stärker regulierten Umfeld, in dem Datenschutzgesetze und Normen den Umgang mit und den Schutz von sensiblen Daten regeln, bieten Datenverträge einen Rahmen für die Umsetzung robuster Schutzmaßnahmen und die Gewährleistung der Einhaltung gesetzlicher Anforderungen. Durch die Aufnahme von Bestimmungen zur Datensicherheit, Vertraulichkeit und die Einhaltung der einschlägigen Vorschriften helfen Datenverträge, rechtliche Risiken zu mindern, sensible Daten zu schützen und das Vertrauen der Beteiligten herzustellen.

Data Contracts erleichtern die effektive Zusammenarbeit und Partnerschaft zwischen den verschiedenen Interessengruppen, die an Initiativen zur gemeinsamen Nutzung von Daten beteiligt sind. Durch die Festlegung der Rollen, Verantwortlichkeiten und Erwartungen jeder Partei schaffen Datenverträge ein gemeinsames Verständnis und eine Ausrichtung der Ziele, was ein kooperatives Umfeld für Innovation und Wissensaustausch fördert.

Zusammenfassend lässt sich sagen, dass Data Contracts mehr als nur Rechtsinstrumente sind. Sie dienen als Eckpfeiler zur Förderung datengestützter Entscheidungen, zur Förderung von Vertrauen und Verantwortlichkeit und ermöglichen einen effizienten Datenaustausch zwischen Ökosystemen.

Was ist die Discovery sensibler Daten?

Was ist die Discovery sensibler Daten?

Der Schutz sensibler Daten hat sich zu einem wichtigen Anliegen für datengetriebene Unternehmen entwickelt. Um die richtigen Schutz- und Nutzungsstrategien anzuwenden, müssen die sensiblen Daten jedoch genau inventarisiert werden. Dies ist der Zweck der Discovery sensibler Daten, auch Sensitive Data Discovery genannt. Lesen Sie den Leitfaden, um mehr darüber zu erfahren!

Auch wenn die Vertraulichkeit von Daten ein zentraler Wert ist, sind nicht alle Daten gleichwertig. Daher müssen sensible Daten unterschieden werden, die besonders sorgfältig und sicher behandelt werden müssen. Sensible Daten sind personenbezogene oder vertrauliche Informationen, die, wenn sie offengelegt werden, Einzelpersonen oder Organisationen Schaden zufügen könnten.

Sie umfassen ein breites Spektrum an Informationen, darunter medizinische Daten, Sozialversicherungsnummern, Finanzdaten, biometrische Daten, Informationen über die sexuelle Orientierung, religiöse Überzeugungen, politische Meinungen und viele andere.

Bei der Verarbeitung sensibler Daten müssen strenge Sicherheits- und Datenschutzstandards eingehalten werden. In Ihrem Unternehmen sind Sie daher verpflichtet, robuste Sicherheitsmaßnahmen zu ergreifen, um Datenlecks, unbefugte Zugriffe und Datenschutzverletzungen zu verhindern. Dazu zählen Verschlüsselung, Zwei-Faktor-Authentifizierung, Zugriffsverwaltung und andere fortschrittliche Cybersicherheits-Maßnahmen.

Wenn man dieses Prinzip akzeptiert hat, stellt sich eine zentrale Frage: Sammeln und verarbeiten Sie im Rahmen Ihrer Tätigkeit sensible Daten? Um das herauszufinden, müssen Sie mit der Discovery sensibler Daten beginnen.

Wie definiert und unterscheidet man Data Discovery und Sensitive Data Discovery?

 

Data Discovery ist der Prozess, mit dem Sie Ihre Daten identifizieren, sammeln und analysieren können, um nützliche Informationen zu gewinnen. Bei der Data Discovery geht es im Allgemeinen darum, Daten als Ganzes zu untersuchen und zu verstehen, Trends zu erkennen, Berichte zu erstellen und fundierte Entscheidungen zu treffen. Sie ist für die Optimierung Ihrer Geschäftsabläufe, die Verbesserung der Effizienz und die Optimierung datengestützter Entscheidungsprozesse unerlässlich.

Gleichzeitig ist die Sensitive Data Discovery ein spezieller Zweig des Datenmanagements. Sie konzentriert sich auf die Identifizierung, den Schutz und die Verwaltung vertraulicher Daten. Bei der Discovery sensibler Daten geht es darum, diese Daten innerhalb einer Organisation zu lokalisieren, sie zu klassifizieren, geeignete Sicherheitsrichtlinien festzulegen und ihren Schutz vor Datenschutzverletzungen und unberechtigtem Zugriff zu gewährleisten.

Welche Daten sollten wir als sensible Daten betrachten?

 

Seit dem Inkrafttreten der DSGVO im Jahr 2018 können selbst kleinste Daten sensibel sein. Sensible Daten unterliegen jedoch einer eigenen Definition. Haben Sie Schwierigkeiten, den Überblick zu behalten? Hier sind einige Beispiele.

Zu diesen sensiblen Daten gehören zunächst die persönlich identifizierbaren Informationen (auch PII genannt). Dazu gehören Namen, Sozialversicherungsnummern, Adressen oder auch Telefonnummern, die z. B. für die Identifizierung Ihrer Kunden oder Mitarbeiter von entscheidender Bedeutung sind.

Auch Bankdaten, insbesondere Kreditkartennummern und Sicherheitscodes, sind hochsensibel, da sie häufig das Ziel von Cyberkriminellen sind. Kundendaten, einschließlich Bestellverlauf, Interessen und Kontaktdaten, sind für Unternehmen wertvoll und müssen ebenfalls geschützt werden, um die Privatsphäre Ihrer Kunden zu wahren.
Gesundheitsdaten wie Krankenakten, Diagnosen und Krankengeschichte sind aufgrund ihres persönlichen Charakters und ihrer Bedeutung für die Gesundheitsfürsorge besonders heikel.

Die Liste der sensiblen Daten geht aber noch weiter! So müssen rechtliche Dokumente wie Verträge, Geheimhaltungsvereinbarungen und juristischer Schriftverkehr, der wichtige rechtliche Informationen enthält, vertraulich behandelt werden, um die Interessen der beteiligten Parteien zu wahren. Je nachdem in welcher Branche Sie tätig sind, umfassen sensible Daten eine ganze Reihe kritischer Informationen, die angemessene Sicherheitsmaßnahmen erfordern, um unbefugten Zugriff oder Datenschutzverstöße zu verhindern.

Welche unterschiedlichen Methoden sind mit der Discovery sensibler Daten verbunden?

 

Die Sensitive Data Discovery erfordert mehrere zentrale Methoden, um nicht nur die ordnungsgemäße Identifizierung, sondern auch den Schutz und die Verwaltung der Daten sowie die Einhaltung gesetzlicher Vorschriften zu gewährleisten.

Identifikation und Klassifizierung

 

Bei dieser Methode werden sensible Daten innerhalb des Unternehmens lokalisiert und nach ihrem Vertraulichkeitsgrad eingestuft. Das ermöglicht eine effektive Ausrichtung auf Daten, die einen erhöhten Schutz benötigen.

Data Profiling

 

Beim Data Profiling werden die Merkmale und Eigenschaften sensibler Daten analysiert. So wird es möglich, diese Daten besser zu verstehen und mögliche Unstimmigkeiten, potenzielle Fehler und Risiken bei ihrer Nutzung zu erkennen.

Data Masking

 

Das Data Masking (auch Datenanonymisierung genannt) ist entscheidend für den Schutz sensibler Daten. Bei dieser Technik werden Daten so ersetzt oder maskiert, dass sie für legitime Zwecke nutzbar bleiben und gleichzeitig ihre Vertraulichkeit gewahrt wird.

Compliance

 

Die Einhaltung von Gesetzen und Vorschriften zum Schutz sensibler Daten ist ein strategischer Schwerpunkt. Regelungen wie die DSGVO in Europa oder HIPAA in den USA legen strenge Standards fest, die es zu befolgen gilt. Wenn sie nicht eingehalten werden, kann dies schwerwiegende Folgen haben, sowohl in finanzieller Hinsicht als auch in Bezug auf Ihren Ruf!

Aufbewahrung und Löschung von Daten

 

Die Feinsteuerung der Aufbewahrung und Löschung sensibler Daten ist entscheidend, um eine übermäßige Speicherung von Daten zu vermeiden. Sorgen Sie dafür, dass die sichere Vernichtung veralteter Informationen in Übereinstimmung mit den Vorschriften gewährleistet ist.

Spezielle Verwendungszwecke

 

Abhängig von den besonderen Bedürfnissen bestimmter Aktivitäten können andere Ansätze zum Einsatz kommen, z. B. Datenverschlüsselung, Prüfung von Zugriffen und Aktivitäten, Sicherheitsüberwachung sowie Sensibilisierung der Mitarbeiter für den Datenschutz.

Sensible Daten sind eine große Verantwortung, die Ihnen nicht nur viel Disziplin abverlangt, sondern auch ein ständiges Hinterfragen der Data Governance erfordert.

Data Masking, der Schutzschild für Ihr Unternehmen

Data Masking, der Schutzschild für Ihr Unternehmen

Um sich zu schützen, wechselt das Chamäleon seine Farbe. Die Gespenstschrecke ahmt das Aussehen eines Zweiges nach, um ihre Fressfeinde zu täuschen … dasselbe Prinzip gilt für das Data Masking. Im Folgenden finden Sie einen Überblick über einen methodischen Ansatz, der sowohl die Sicherheit als auch die Nutzbarkeit Ihrer Daten gewährleistet.

Laut dem von IBM-Experten erstellten Bericht 2022 über die Kosten einer Datenpanne belaufen sich die durchschnittlichen Kosten eines Datenlecks auf 4,35 Millionen US-Dollar. Der Bericht zeigt außerdem, dass 83 % der untersuchten Unternehmen mehr als ein Datenleck erlitten haben, und nur 17 % der Befragten gaben an, dass es sich um ihre erste Datenpanne handelte! Da es sich bei sensiblen Daten um Ihr wertvollstes Gut handelt, sind sie sehr begehrt und müssen daher wirksam geschützt werden. Persönlich identifizierbare Informationen (PII), auch personenbezogene Daten genannt, sind der wertvollste aller kompromittierten Datentypen. Um diese Daten zu schützen (und die Vertraulichkeit der Daten zu gewährleisten) hat sich das Data Masking als unverzichtbare Technik etabliert.

Was ist Data Masking?

 

Das Data Masking, das auch als Datenanonymisierung oder Datenverfremdung bezeichnet wird, wurde entwickelt, um die Vertraulichkeit sensibler Informationen zu gewährleisten. In der Theorie bedeutet Data Masking, dass echte Daten durch fiktive oder veränderte Daten ersetzt werden, wobei das Aussehen und die Struktur der Daten erhalten bleiben. Diese Methode wird häufig in Test- und Entwicklungsumgebungen sowie in Szenarien verwendet, in denen Daten an Dritte weitergegeben werden, um eine unbefugte Offenlegung zu verhindern. Das Data Masking gewährleistet die Sicherheit der Daten, während ihre Nutzbarkeit und Integrität erhalten bleibt und das Risiko einer Verletzung der Vertraulichkeit minimiert wird.

Welche Arten von Data Masking gibt es?

 

Um die Anonymisierung Ihrer Daten zu gewährleisten, kann sich das Data Masking auf verschiedene Techniken stützen, die jeweils unterschiedliche Vorteile bieten und zwischen denen Sie wählen können, um den Datenschutz zu maximieren.

Static Data Masking

 

Bei der statischen Anonymisierung, dem Static Data Masking, werden sensible Daten in einer statischen Kopie einer Datenbank verfremdet. Nach einer Analysephase werden die Daten aus der Produktionsumgebung extrahiert und als Grundlage für die Erstellung der statischen Kopie verwendet. In der Verfremdungsphase werden tatsächliche durch fiktive Werte ersetzt, Informationen teilweise entfernt oder Daten anonymisiert. Bei dieser Methode werden die Daten dauerhaft verändert und ihr ursprünglicher Zustand kann nicht wiederhergestellt werden.

Format Preserving Masking

 

Im Gegensatz zur herkömmlichen Anonymisierung, bei der die Daten durch fiktive Werte ersetzt werden, bleiben beim Format Preserving Masking (oder FPM) die Länge, die Zeichentypen und die Struktur der Originaldaten erhalten. Bei dieser Vorgehensweise werden kryptografische Algorithmen genutzt, um sensible Daten in eine irreversible, nicht identifizierbare Form zu überführen. Die so verfremdeten Daten behalten ihre Eigenschaften für die spätere Verwendung in Systemen und Prozessen, die ein bestimmtes Format erfordern.

Dynamic Data Masking

 

Beim Dynamic Data Masking (oder DDM) unterscheidet sich die dynamische Anonymisierung Ihrer Daten jedes Mal, wenn ein neuer Nutzer auf sie zugreifen will. Wenn einer Ihrer Mitarbeiter auf eine Datenbank zugreift, wendet das DDM definierte Anonymisierungsregeln an, um die Sichtbarkeit sensibler Daten einzuschränken, während autorisierte Benutzer weiterhin die eigentlichen Daten sehen. Die Verfremdung der Daten kann erfolgen, indem die Ergebnisse von Abfragen dynamisch verändert werden, indem sensible Daten durch fiktive Werte ersetzt werden oder indem der Zugriff auf bestimmte Spalten eingeschränkt wird.

On-the-Fly Data Masking

 

Im Gegensatz zur statischen Anonymisierung, bei der die Daten in einer Kopie verändert werden, findet das On-the-Fly Data Masking, das auch als Echtzeitanonymisierung bezeichnet werden kann, beim Zugriff auf die Daten statt. Dieser Ansatz gewährleistet eine stärkere Vertraulichkeit, ohne dass zusätzliche Kopien der Daten erstellt werden müssen. Der Einsatz einer Echtzeit-Anonymisierung kann zu einem erhöhten Verarbeitungsaufwand führen, vor allem bei großen Datenmengen oder komplexen Vorgängen. Dies kann zu Verzögerungen beim Zugriff auf die Daten führen.

Welche verschiedenen Techniken des Data Masking gibt es?

Zufallssubstitution

 

Bei der Zufallssubstitution werden sensible Daten wie z. B. Namen, Adressen oder Sozialversicherungsnummern durch Daten ersetzt, die nach dem Zufallsprinzip generiert werden. So können reale Namen durch fiktive Namen, Adressen durch generische Adressangaben oder Telefonnummern durch Zufallsziffern ersetzt werden.

Shuffling

 

Das Shuffling (oder Mischen) ist eine Anonymisierungstechnik, bei der die Reihenfolge sensibler Daten neu geordnet wird, ohne sie zu verändern oder wesentlich zu modifizieren. Wenn Shuffling angewendet wird, werden die sensiblen Werte in einer oder mehreren Spalten zufällig gemischt. So bleiben die Beziehungen zwischen den Originaldaten erhalten, während ihre Zuordnung zu einer bestimmten Entität nahezu unmöglich wird.

Verschlüsselung

 

Das Versprechen der Verschlüsselungstechnik, die auf das Data Masking angewandt wird, lautet, sensible Daten mithilfe eines Verschlüsselungsalgorithmus unlesbar zu machen. Die Daten werden mit einem bestimmten Schlüssel verschlüsselt, wodurch die Informationen unlesbar werden, wenn man nicht über den passenden Entschlüsselungsschlüssel verfügt.

Anonymisierung

 

Das Prinzip der Anonymisierung beruht auf der Entfernung oder Veränderung von Informationen, die eine direkte oder indirekte Identifizierung von Personen ermöglichen könnten. Dies kann unter anderem das Löschen von Namen, Vornamen oder auch Adressen umfassen.

Averaging

 

Beim Averaging-Prinzip wird ein sensibler Wert durch einen aggregierten Durchschnittswert oder eine Annäherung an diesen Wert ersetzt. In einer HR-Datenbank kann man beispielsweise mit Averaging das Durchschnittsgehalt aller Mitarbeiter in der gleichen Berufsgruppe anzeigen, anstatt ein einzelnes Gehalt auszublenden. Diese Vorgehensweise liefert eine Annäherung an den tatsächlichen Wert, ohne die spezifischen Informationen einer Person offenzulegen.

Date Switching

 

Beim Date Switching werden die Datumswerte so geändert, dass Jahr, Monat und Tag beibehalten, jedoch so gemischt oder durch andere Datumsangaben ersetzt werden, die nicht direkt mit den ursprünglichen Daten in Verbindung stehen. Das Date Switching stellt sicher, dass sensible Zeitinformationen nicht dazu verwendet werden können, bestimmte Ereignisse oder Personen zu identifizieren oder zurückzuverfolgen, während eine einheitliche Datumsstruktur beibehalten wird.

Schlussfolgerung

 

Der große Vorteil des Data Masking für Unternehmen liegt darin, dass der Informationsgehalt, die Integrität und die Repräsentativität der Daten erhalten bleibt und gleichzeitig das Risiko der Kompromittierung sensibler Daten auf ein Minimum reduziert wird. Mit Data Masking erfüllen Sie alle Ihre Compliance-Herausforderungen, ohne jemals von Ihrer Datenstrategie abweichen zu müssen.

Mit Data Masking können Unternehmen sichere Entwicklungs- und Testumgebungen schaffen, ohne die Vertraulichkeit sensibler Daten zu gefährden.

Durch die Verfremdung von Daten können Entwickler und Tester mit realistischen Datensätzen arbeiten und gleichzeitig verhindern, dass vertrauliche Informationen offengelegt werden. So kann die Effizienz von Entwicklungs- und Testprozessen gesteigert und die Risiken, die mit der Verwendung echter sensibler Daten verbunden sind, verringert werden.

5 Vorteile, die Data Lineage für Ihr Unternehmen bietet

5 Vorteile, die Data Lineage für Ihr Unternehmen bietet

Sie haben den Ehrgeiz, Ihre Organisation zu einem datengetriebenen Unternehmen zu machen? Dann werden Sie nicht darum herumkommen, alle Ihre Datenbestände genau zu katalogisieren, ihre Qualität zu überwachen und ihre Zuverlässigkeit zu gewährleisten. Bei dieser Aufgabe kann Data Lineage Sie unterstützen. Einige Erklärungen.

Um zu wissen, welche Daten Sie verwenden, was sie bedeuten, woher sie stammen und wie zuverlässig sie während ihres gesamten Lebenszyklus sind, benötigen Sie einen ganzheitlichen Überblick über alles, was diese Daten verändern, modifizieren und beeinträchtigen kann. Genau diese Aufgabe erfüllt Data Lineage, eine Technik zur Datenanalyse, die es ermöglicht, den Weg der Daten von ihrer Quelle bis zu ihrer endgültigen Verwendung zu verfolgen. Eine Technik mit vielen Vorteilen!

Vorteil Nr. 1: Eine bessere Data Governance

 

Data Governance ist ein wichtiges Thema für Ihr Unternehmen und um das volle Potenzial Ihrer Datenstrategie zu entfalten. Durch die Verfolgung des Weges der Daten – von der Erfassung bis zur Nutzung – können Sie mithilfe von Data Lineage verstehen, woher die Daten kommen und welche Veränderungen sie im Laufe der Zeit durchgemacht haben, um ein umfangreiches und kontextbezogenes Datenökosystem zu schaffen. So erleichtert Data Lineage die Suche nach der Ursache von Datenproblemen, da die Rückverfolgung bis zu ihrem Ursprung ermöglicht wird. Diese Nachvollziehbarkeit ist Ihr größter Trumpf in Sachen Transparenz im Dienste der Data Governance.

Vorteil Nr. 2: Zuverlässigere, genauere und qualitativ hochwertigere Daten

 

Wie bereits erwähnt, liegt eine unverzichtbare Stärke der Data Lineage insbesondere in ihrer Fähigkeit, die Herkunft der Daten nachzuvollziehen, aber auch Fehler zu identifizieren, die bei ihrer Umwandlung und Handhabung auftreten. So sind Sie in der Lage, diese Fehler nicht nur zu korrigieren, sondern auch dafür zu sorgen, dass sie nicht mehr vorkommen, um eine bessere Datenqualität zu erreichen. Eine Logik der kontinuierlichen Verbesserung, die im Rahmen einer Datenstrategie besonders wirksam ist. Außerdem kann mithilfe von Data Lineage nachverfolgt werden, wer die Daten wann geändert hat. Das erhöht die Transparenz und versetzt die Nutzer in die Lage, nachzuvollziehen, wie die Daten gewonnen und verarbeitet wurden.

Vorteil Nr. 3: Eine schnelle Folgenabschätzung

 

Sorgen Sie dafür, dass Sie einen Fehler nie zu lange wiederholen. Dies ist ein Versprechen, das die Data Lineage hält. Wie genau? Indem die Datenströme genau identifiziert werden. Diese erste Phase beruht auf einer genauen Kenntnis Ihrer Geschäftsprozesse und der verfügbaren Datenquellen. Wenn kritische Datenflüsse identifiziert und abgebildet werden, können die potenziellen Auswirkungen einer Änderung auf die Daten und Geschäftsprozesse schnell analysiert werden. Da die Auswirkungen jeder Datentransformation in Echtzeit bewertet werden, verfügen Sie über alle notwendigen Elemente, um die Mittel und Wege zu identifizieren, mit denen die Folgen eingegrenzt werden können. Sichtbarkeit, Nachvollziehbarkeit, Reaktivität – Data Lineage wird Ihnen helfen, wertvolle Zeit zu sparen!

Vorteil Nr. 4: Mehr Kontext für Daten

 

Sie wissen es bereits: Data Lineage überwacht kontinuierlich den Weg Ihrer Data Assets. Sie haben also nicht nur die Quelle, aus der die Daten stammen, sondern auch einen vollständigen Einblick in die Transformationen, die entlang ihres Weges auf die Daten angewendet wurden. Diese Rückverfolgbarkeit erstreckt sich auch auf die Nutzung der Daten in den verschiedenen Verarbeitungsprozessen oder durch die in Ihrem Unternehmen eingesetzten Anwendungen. Diese äußerst präzise Verfolgung des Verlaufs der Interaktionen mit den Daten macht es möglich, den Daten mehr Kontext zu geben, um ihre Qualität zu verbessern, Analysen und Audits zu erleichtern und auf der Grundlage genauer und vollständiger Informationen fundiertere Entscheidungen zu treffen.

Vorteil Nr. 5: (Besonders!) zuverlässige Compliance-Berichte

 

Die wichtigsten Erwartungen der Regulierungsbehörden an die Compliance sind Transparenz und Nachvollziehbarkeit. Genau das ist der Kern des Wertversprechens der Data Lineage. Durch die Nutzung von Data Lineage haben Sie alle Karten in der Hand, um das Risiko von Compliance-Verstößen zu verringern, die Datenqualität zu verbessern, Audits und Überprüfungen zu erleichtern und das Vertrauen aller Stakeholder in die erstellten Compliance-Berichte zu stärken.

5 zentrale Funktionen von Zeenea für ein Fünf-Sterne-Data-Stewardship-Programm

5 zentrale Funktionen von Zeenea für ein Fünf-Sterne-Data-Stewardship-Programm

Sie verarbeiten Daten, riesige Mengen an Daten … Aber diese Daten sind oft über verschiedene Tools, Plattformen, Datenbanken, Tabellen usw. verteilt. Darüber hinaus sind einige Ihrer Daten unzugänglich oder – noch schlimmer – für unberechtigte Personen zugänglich. Als Experten für Unternehmensdaten müssen Data Stewards in der Lage sein, das Wer, Was, Wann, Wo und Warum ihrer Daten zu identifizieren, um ein zuverlässiges Data-Stewardship-Programm zu entwickeln.

Leider stehen Data Stewards oft vor einem großen Hindernis: dem Mangel an Tools, die sie in dieser Rolle unterstützen. Wenn es um große Datenmengen geht, können die Pflege der Datendokumentation, die Verwaltung der Metadaten Ihres Unternehmens und die Lösung von Qualitäts- und Governance-Problemen sehr schwierig sein.

Und genau hier kann Zeenea intervenieren und Ihnen helfen. Unsere Data-Discovery-Plattform – und ihre intelligenten und automatisierten Funktionen für das Metadaten-Management – machen Data Stewards das Leben leichter. In diesem Artikel erfahren Sie mehr über 5 zentrale Funktionen unserer Software für ein Fünf-Sterne-Data-Stewardship-Programm.

Funktion 1: Universelle Konnektivität

Automatische Inventarisierung der Metadaten Ihrer Datenquellen

Wie bereits erwähnt, sind Unternehmensdaten über zahlreiche Datenquellen verteilt, was die Verwaltung und umfassende Kontrolle des Datenbestands durch Data Stewards erschwert oder sogar unmöglich macht. Zu diesem Zweck bietet Zeenea eine Lösung zur Katalogisierung von Daten der neuesten Generation, die alle Metadaten des Unternehmens in einer einzigen Quelle der Wahrheit zentralisiert. Die große Auswahl an nativen Konnektoren unserer Plattform ruft über unsere APIs und Scanner automatisch Metadaten ab, sammelt und synchronisiert sie.

Funktion 2: Ein flexibles und individuell anpassbares Metamodell

Automatisierung der Datendokumentation

Die Dokumentation von Daten kann extrem zeitaufwändig sein, manchmal müssen Tausende von Properties, Feldern und anderen wichtigen Metadaten implementiert werden, damit die Fachteams den Kontext der Daten, auf die sie zugreifen, vollumfänglich verstehen.

Zeenea bietet einen flexiblen und individuell anpassbaren Weg, um vorkonfigurierte Metamodell-Templates für Objekte (Datensätze, Felder, Datenprozesse usw.) und eine unbegrenzte Anzahl von benutzerdefinierten Objekten (Verfahren, Regeln, KPIs, Vorschriften usw.) zu erstellen.

Importieren oder erstellen Sie Ihre Dokumentationsvorlagen einfach, indem Sie Ihre vorhandenen Properties sowie Ihre Tags und andere benutzerdefinierte Metadaten in Ihre Templates ziehen. Haben Sie in einem Template einen Fehler gemacht? Kein Problem! Fügen Sie Eigenschaften und Abschnitte nach Belieben hinzu, löschen oder bearbeiten Sie diese – Ihre Elemente werden automatisch aktualisiert, sobald sie bearbeitet wurden.

Nachdem Sie Ihre Templates erstellt haben, können Sie alle Assets, aus denen Ihr Metamodell besteht, und ihre Beziehungen zueinander, mithilfe unseres dynamischen Diagramms leicht visualisieren. Das intuitive Design zeigt die Details jedes Objekttyps – ihre Abschnitte und Eigenschaften – und aktualisiert sich automatisch nach jeder Änderung. Sie können auch in ein beliebiges Objekt hinein- oder herauszoomen und ein Bild Ihres Metamodells exportieren.

Das Gleiche gilt für Ihre Glossary-Objekte! Wir haben die physische und die logische Ebene des Glossary-Metamodells getrennt, damit Data Stewards und andere Mitwirkende ihre Fachbegriffe leicht definieren und finden können. Mithilfe desselben Verfahrens wie beim physischen und logischen Metamodell erstellen oder importieren Sie semantische Objekte, ordnen diese in Hierarchien an und konfigurieren, wie die Elemente Ihres Glossars mit technischen Elementen verknüpft sind.

Funktion 3: Automatische Data-Lineage

Verfolgung Ihrer Datentransformationen

Data-Lineage-Funktionen spielen eine zentrale Rolle, damit Data Stewards genaue und zuverlässige Compliance-Berichte erstellen können. Viele Softwareentwickler bieten Lineage-Funktionen an, aber nur wenige verstehen sie wirklich. Aus diesem Grund bietet Zeenea ein interaktives Data-Lineage-Diagramm an, mit dem Ihre Benutzer über eine visuelle und leicht verständliche Schnittstelle durch den Lebenszyklus ihrer Daten navigieren können. Klicken Sie auf ein beliebiges Objekt, um eine Übersicht über seine Dokumentation, seine Beziehungen zu anderen Objekten sowie seine Metadaten zu erhalten. So erhalten Sie eine 360°-Ansicht der Elemente in Ihrem Data Catalog.

Funktion 4: Intelligente Vorschläge

Schnelle Identifizierung personenbezogener Daten

Aufgrund der DSGVO, des California Consumer Privacy Acts und anderer Vorschriften über die Sicherheit und Vertraulichkeit persönlicher Daten kann es mühsam sein, jeden vorhandenen Datensatz durchzugehen, um sicherzustellen, dass die Daten korrekt als personenbezogen gekennzeichnet wurden. Um sicherzustellen, dass Ihre Daten immer korrekt identifiziert werden, analysiert Zeenea Ähnlichkeiten zwischen vorhandenen persönlichen Daten, indem es Felder identifiziert und Vorschläge macht, was als „personenbezogen“ markiert werden sollte. Ihre Data Stewards können diese Vorschläge direkt von ihrem Dashboard aus annehmen, ignorieren oder löschen.

Funktion 5: Ein effektives Berechtigungsmodell

Gewährleisten, dass die richtigen Personen auf die richtigen Daten zugreifen

Für Organisationen, in denen verschiedene Arten von Benutzern auf den Datenbestand zugreifen, ist es nicht sinnvoll, jeder Person einen Vollzugriff zu gewähren, um alles ändern zu können. Vor allem, wenn es sich um sensible oder persönliche Informationen handelt. Aus diesem Grund hat Zeenea ein Modell für Berechtigungssätze entwickelt, mit dem Data Stewards die Effizienz Ihres Unternehmens steigern und das Risiko von Fehlern verringern können. Vergeben Sie Lese-, Bearbeitungs- und Administrationsrechte in allen oder verschiedenen Teilen des Data Catalogs, um nicht nur die Sicherheit Ihres Katalogs zu gewährleisten, sondern auch um Zeit zu sparen, wenn Datenkonsumenten den Bezug einer Information finden müssen.

Sind Sie bereit, Ihr Data Stewardship-Programm mit Zeenea zu starten?

Wenn Sie an den Funktionen von Zeenea für Ihre Dokumentations- und Stewardship-Anforderungen interessiert sind, kontaktieren Sie uns für eine 30-minütige persönliche Demo mit einem unserer Datenexperten.

4 Data Best Practices für eine effektive ESG-Strategie

4 Data Best Practices für eine effektive ESG-Strategie

Die ökologische und soziale Unternehmensführung (ESG) ist ein zentrales Thema für CDOs, CFOs und Datenmanager. In diesem Artikel erfahren Sie, welche Best Practices Sie in Ihrem Unternehmen einführen können, um eine effektive Berichterstattung über Ihre ESG-Daten zu erreichen.

Riesige Brände, Überschwemmungen, Hitzewellen – das Jahr 2022 klang wie ein Wendepunkt des Klimawandels, der sich nun auf der ganzen Welt bemerkbar macht. Ein Wendepunkt, der das Bewusstsein prägt und Unternehmen (wie auch die Gesellschaft als Ganzes) dazu bringt, verantwortungsvoller und nachhaltiger zu handeln. Mehr als nur ein Trend – die Einführung einer relevanten ESG-Strategie ist für Unternehmen eine große Herausforderung.

Die Abkürzung ESG steht für die Berücksichtigung von Kriterien aus den Bereichen Umwelt (Environmental), Soziales (Social) und verantwortungsvolle Unternehmensführung (Governance), die zur Analyse und Bewertung der nachhaltigen Entwicklung und der langfristigen Herausforderungen in der Unternehmensstrategie verwendet werden. Dies wirkt sich auch direkt darauf aus, wie Sie Ihre Datenbestände verwalten, administrieren und betreiben. Die ESG-Kriterien, die lange Zeit nur als Worthülse oder reines Marketing galten, sind heute evidenzbasiert. Beweise, die aus ESG-Daten abgeleitet werden können.

Investoren, Partner, Kunden wie auch die breite Öffentlichkeit verlangen nun echte Transparenz – nicht nur darüber, wie Organisationen Daten schützen und effektiv nutzen, um einen Mehrwert zu schaffen – sondern auch darüber, wie sie Nachhaltigkeit erreichen, indem sie die soziale Verantwortung der Unternehmen und die Umweltverträglichkeit des Datenmanagements in den Mittelpunkt stellen.

Welche Rolle spielen ESG-Daten für Unternehmen?

 

Da Unternehmen ihr Engagement für eine nachhaltige Entwicklung durch Fakten belegen müssen, spielen ESG-Daten eine entscheidende Rolle. Diese Daten werden von unabhängigen, nicht marktwirtschaftlich agierenden Ratingagenturen analysiert, die sicherstellen, dass die Behauptungen der Unternehmen der Wahrheit entsprechen. Die gemeldeten Informationen werden mit anderen Informationsquellen von Nichtregierungsorganisationen, Verbänden oder Institutionen abgeglichen. Diese Daten führen dann zu einer genauen Bewertung der ESG-Praktiken eines Unternehmens innerhalb einer Branche.

Welche Best Practices gibt es für ein erfolgreiches ESG-Reporting?

 

Die Vorbereitung eines effektiven und relevanten ESG-Daten-Reportings beruht auf einer präzisen und anspruchsvollen Methodik. Die Herausforderung besteht darin, die für das ESG-Reporting erforderlichen Informationen schnell zu sammeln, eine optimale Rückverfolgbarkeit und eine strenge Sicherung zu gewährleisten.

Um die Herausforderung zu meistern, muss man in der Lage sein, eine Reihe von Best Practices anzuwenden.

Alle Daten an einem Ort zentralisieren

Die Grundlage für die Transparenz, die dem Anspruch eines aufrichtigen und relevanten ESG-Reportings innewohnt, ist die Fähigkeit, alle Daten in einem einzigen Erfassungs- und Verarbeitungsraum zu zentralisieren. Diese Zentralisierung ist eine Grundvoraussetzung für eine Data Governance, die für das steht, was Ihr Unternehmen antreibt.

Die Rückverfolgbarkeit von Daten sicherstellen (Data-Lineage)

Da das Herzstück eines ehrlichen ESG-Reportings die Nachvollziehbarkeit der Daten ist, müssen Sie unbedingt ein Data-Lineage-Tool einsetzen. Ein solches Tool sorgt dafür, dass die Daten in Echtzeit überwacht werden und hilft Ihrem Unternehmen sicherzustellen, dass Ihre Daten aus einer vertrauenswürdigen und kontrollierten Quelle stammen, dass ihre Veränderungen bekannt, nachvollziehbar und legitim sind und dass sie am richtigen Ort, zur richtigen Zeit und für den richtigen Benutzer verfügbar sind.

Eine Data-Governance-Richtlinie einführen

Qualität, Zuverlässigkeit, Rückverfolgbarkeit. Diese drei Säulen garantieren den Wahrheitsgehalt Ihrer ESG-Daten und belegen Ihr aufrichtiges Engagement für nachhaltige Entwicklung. Diese drei Säulen gruppieren sich um eine zentrale Herausforderung: eine echte Data-Governance-Politik. Data Governance ist die umfassende Verwaltung der Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit der Daten, die in Ihrem Unternehmen verwendet werden.

Den Zugang zu Daten für alle ermöglichen (Data Literacy) 

Eine der größten Herausforderungen bei der Gewährleistung der Zuverlässigkeit, Sicherheit und Transparenz von ESG-Daten besteht darin, sicherzustellen, dass alle Interessengruppen innerhalb des Unternehmens auf einer starken Datenkultur aufbauen. Eine solche Datenkultur ermöglicht es jedem Mitarbeiter, sich als wesentliches Element der Datenqualität zu positionieren, indem er die Fähigkeit beansprucht, Daten zu identifizieren, zu verarbeiten, zu analysieren und zu interpretieren. Diese Art der Datenkultur wird auch als Data Literacy bezeichnet und ermöglicht die Entwicklung eines kritischen Denkens, das dem Datenvermögen eines Unternehmens seinen vollen Wert verleiht.

Was ist der BCBS 239?

Was ist der BCBS 239?

Um einen vollständigen Einblick in die Risikoexposition großer Kreditinstitute zu erhalten, hat der Basler Ausschuss 14 Grundprinzipien festgelegt, die in einem Standard namens BCBS 239 zusammengefasst sind. Im Mittelpunkt der Herausforderungen steht der Zugang zu verlässlichen und konsolidierten Daten. Erklärungen.

Im Jahr 2007 wurde die Weltwirtschaft in ihren Grundfesten erschüttert. Eine Reihe vermeintlich stabiler Kreditinstitute stand nach dem Zusammenbruch der US-Bank Lehman Brothers am Rande des Bankrotts.

Als Reaktion auf eine Krise von nie dagewesener Heftigkeit wehte ein regelrechter Sturm von Regulierungen um die Welt. Dies führte unter anderem zur Entstehung des BCBS 239 Standards, der auch als Standard 239 des Basler Ausschusses für Bankenaufsicht bekannt ist.

Hinter dieser Bezeichnung verbirgt sich der Standard Nr. 239 des Basler Ausschusses, der 2013 veröffentlicht wurde. Der BCBS 239 trägt den Titel „Grundsätze für die effektive Aggregation von Risikodaten und die Risikoberichterstattung“ und soll die Voraussetzungen für Transparenz in Bankinstituten schaffen, indem er einen klaren Rahmen für die Aggregation von Finanzrisikodaten festlegt.

In der Praxis bedeutet dies, dass Finanz- und Kreditinstitute präzise Berichte über die Risiken, denen sie ausgesetzt sind, erstellen müssen. Der BCBS 239 schafft einen verbindlichen Rahmen, trägt aber zur Stabilität des globalen Finanzsystems bei, das während der Finanzkrise von 2007 hart auf die Probe gestellt worden war.

BCBS 239: Einige Hintergrundinformationen

Hinter dem BCBS 239 steht der Basler Ausschuss, der 1974 auf Anregung der Zentralbanken und Bankaufsichtsbehörden der G10-Staaten gegründet wurde. Seit 2009 zählt die Organisation 27 Mitgliedsstaaten und hat es sich zur Aufgabe gemacht, die Sicherheit und Zuverlässigkeit des Finanzsystems zu verbessern sowie Standards für die Bankenaufsicht festzulegen.

Der BCBS 239 ist einer der symbolträchtigsten Standards des Basler Ausschusses, da er einen Schutzwall gegen die Fehlentwicklungen bildet, die zur Krise von 2007 führten.

Denn das Wachstum und die Diversifizierung der Aktivitäten von Kreditinstituten sowie die zunehmende Zahl von Tochtergesellschaften innerhalb einer Gruppe führten zu einer gewissen Undurchsichtigkeit, die Ungenauigkeiten in der Berichterstattung der Banken verursachte.

Diese Ungenauigkeiten, wenn sie sich einmal angesammelt hatten, konnten Milliarden Euro an Unklarheiten bedeuten, was eine schnelle und sichere Entscheidungsfindung der Führungskräfte behinderte. Die kritische Größe, welche die Finanzinstitute erreicht hatten, erforderte die Gewährleistung zuverlässiger Entscheidungen auf der Grundlage konsolidierter und qualitativ hochwertiger Daten. Dies ist das eigentliche Ziel des BCBS 239.

Die 14 Grundprinzipien des BCBS 239

Der BCBS 239 wurde zwar 2013 veröffentlicht, doch die ca. 30 G-SIBs (global systemrelevante Banken), die den Standard erfüllen mussten, hatten bis zum 1. Januar 2016 Zeit, dieser Verpflichtung nachzukommen. National systemrelevante Banken (auch D-SIBs genannt) hatten drei Jahre länger Zeit, um die Anforderungen zu erfüllen.

Seit dem 1. Januar 2019 müssen daher sowohl G-SIBs als auch D-SIBs die 14 im BCBS 239 festgelegten Prinzipien erfüllen. Elf dieser Prinzipien betreffen in erster Linie die Bankinstitute. Die drei weiteren richten sich an die Aufsichtsbehörden.

Die 14 Grundsätze des BCBS 239 lassen sich in vier Kategorien einteilen: Governance und Infrastruktur, Kapazitäten zur Aggregation von Risikodaten, Berichterstellung und Aufsicht.

Governance und Infrastruktur

Im Bereich Governance und Infrastruktur gibt es zwei Prinzipien.

Das erste betrifft die Einführung eines Systems zur Steuerung der Datenqualität, um die Finanzberichterstattung zu verbessern sowie präzisere und aussagekräftigere Berichte zu erstellen, um so die Entscheidungsprozesse zu beschleunigen und ihre Verlässlichkeit zu verbessern.

Kapazitäten zur Aggregation von Risikodaten

Der zweite Grundsatz betrifft die IT-Infrastruktur und verpflichtet die Banken, eine Datenarchitektur einzurichten, welche eine Automatisierung und Steigerung der Verlässlichkeit der Datenaggregationskette ermöglicht.

Der Abschnitt über die Kapazitäten zur Integration von Risikodaten umfasst vier zentrale Prinzipien: Genauigkeit und Integrität der Daten, Vollständigkeit, Pünktlichkeit und Anpassungsfähigkeit.

Mithilfe dieser vier Säulen können sich die Entscheidungsprozesse auf greifbare, verlässliche und aktuelle Fakten stützen.

Berichterstellung

Der dritte Teil des BCBS 239 behandelt die Verbesserung der Praktiken zur Meldung von Risiken.

Dies ist ein wichtiger Teil des Standards, der fünf Grundsätze zusammenfasst: die Genauigkeit und Präzision der Informationen, die Vollständigkeit der Informationen in Bezug darauf, welche Risiken eingegangen wurden, um einen realen und ehrlichen Einblick in die Risikoexposition des Instituts zu gewährleisten, aber auch die Klarheit und Nützlichkeit der Berichterstattung, die Häufigkeit der Aktualisierung und die Ehrlichkeit der Verteilung.

Diese Berichte müssen an die zuständigen Personen weitergeleitet werden.

Aufsicht

Die letzten drei Grundsätze gelten für Kontroll- und Aufsichtsbehörden.

Sie legen die Bedingungen für die Kontrolle und Überwachung der Einhaltung der ersten elf Grundsätze durch die Banken fest. Darüber hinaus sehen sie die Einführung von Korrekturmaßnahmen und aufsichtsrechtlichen Maßnahmen vor und legen den Rahmen für die Zusammenarbeit mit der Bankenaufsicht fest.

Dank des BCBS 239 werden Daten zu einem der Hebel für die Stabilität einer globalisierten Wirtschaft!

Die Katalogisierung von Daten als Schlüssel zur Einhaltung von Vorschriften

Die Katalogisierung von Daten als Schlüssel zur Einhaltung von Vorschriften

Unabhängig von der Branche ist das Beherrschen der Daten ein strategischer Schlüsselbereich für jedes Unternehmen.Diese Informationen sind entscheidend, um Innovationen für die Produkte und Dienstleistungen von morgen zu entwickeln. Mit dem Aufkommen neuer Technologien wie Big Data, IoT oder auch künstlicher Intelligenz sammeln Unternehmen zudem exponentiell wachsende Datenmengen, die aus verschiedenen Quellen mit unterschiedlichen Formaten stammen.

Darüber hinaus erfordert die Datenverarbeitung aufgrund der immer strengeren Vorschriften wie der DSGVO die Einführung geeigneter Sicherheitsmaßnahmen, um Datenlecks und missbräuchlicher Verarbeitung vorzubeugen.

Die Herausforderung liegt also in der erneuten Inbesitznahme des eigenen Datenbestands. Mit anderen Worten: Die Unternehmen suchen nach Lösungen, um eine Katalogisierung und Abbildung ihrer Daten aufrechtzuerhalten, die ihre betriebliche Realität widerspiegelt.
 

Was ist eine Datenkatalogisierung?

Beginnen wir bei den Grundlagen: Mit einer Datenkatalogisierung (auch Data Mapping genannt) können Sie die Zugangspunkte von Daten sowie deren Verarbeitung bewerten und grafisch darstellen. Es gibt verschiedene Arten von Informationen, die katalogisiert werden müssen, z. B:

  • die Informationen über die Daten,
  • die Verarbeitung der Daten.

 

Über die Daten

Die Idee eines Data Mappings ist es, an der Datensemantik (Untersuchung der Bedeutungen und ihres Sinns) zu arbeiten
Diese Arbeit findet nicht an den Daten selbst statt, sondern vielmehr über die Metadaten. Sie ermöglichen es, die Bedeutung der Daten und ihren Kontext bestmöglich zu erfassen. Diese Metadaten können den „geschäftlichen“ Namen der Daten, ihren technischen Namen, ihren Speicherort, wann sie gespeichert wurden, von wem sie gespeichert wurden usw. beschreiben.

Durch die Einführung semantischer Regeln und einer gemeinsamen Datensprache über ein Business Glossary können Unternehmen ihre Daten identifizieren und lokalisieren und so allen Mitarbeitern den Zugriff auf die Daten ermöglichen.
 

Über die Datenverarbeitung

In Bezug auf die Datenverarbeitung ist es wichtig, Folgendes zu erfassen:

  • die Datenströme: mit ihren Quellen und Zielen,
  • die Datentransformationen: alle Transformationen, welche die Daten bei der Verarbeitung durchlaufen.

 

Ein mächtiges Werkzeug: Die Data Lineage

Data Lineage ist definiert als der Lebenszyklus eines Datensatzes und ist eine Dokumentation aller Transformationen, die zwischen seinem Anfangszustand und seinem Endzustand stattgefunden haben.

Data Lineage ist eng mit der Katalogisierung der Datenverarbeitung verbunden: Man muss sehen, welche Daten von einer bestimmten Verarbeitung betroffen sind und die Auswirkungen sehr schnell analysieren können. Wenn zum Beispiel eine Verarbeitungsanomalie zu einer Beschädigung von Daten geführt hat, kann man so herausfinden, welche Daten potenziell betroffen sind.

In einem anderen Fall muss das Mapping aus der Sicht eines Datensatzes sagen können, aus welchen Datensätzen der Datensatz hervorgegangen ist.  So kann man die Auswirkungen einer Änderung des Quelldatensatzes schnell analysieren, da man die verknüpften Daten schnell wiederfindet.
 

Die Vorteile der Einführung des Datamappings

Mit einer Mapping-Lösung können Unternehmen auf die geltenden Datenschutzgesetze reagieren, insbesondere auf die DSGVO, indem sie die folgenden Fragen beantworten:

  • Wer? Wer ist für einen Datensatz oder eine Verarbeitung verantwortlich? Wer ist für den Datenschutz verantwortlich? Wer sind mögliche Auftragsdatenverarbeiter?
  • Was? Welche Art von Daten wird erfasst? Handelt es sich um sensible Daten?
  • Warum? Können wir den Zweck der Erfassung und Verarbeitung der Daten  ?
  • Wo? Wo werden die Daten gespeichert? In welcher Datenbank?
  • Wie lange? Wie lange werden die einzelnen Datenkategorien aufbewahrt?
  • Wie genau? Was ist der Rahmen und welche Sicherheitsmaßnahmen werden für die sichere Erfassung und Speicherung personenbezogener Daten ergriffen?

Bei der Beantwortung dieser Fragen positionieren sich IT-Manager, Data Lab Manager, Business Analysts oder auch Data Scientists, um die Arbeit mit Daten relevant und effektiv zu gestalten.

Mithilfe dieser Fragen können Unternehmen die Vorschriften einhalten, aber gleichzeitig auch:

  • Die Datenqualität verbessern und möglichst viele Informationen bereitstellen, mit deren Hilfe die Nutzer erkennen können, ob die Daten für die Verwendung geeignet sind.
  • Die Effizienz und Selbständigkeit ihrer Mitarbeiter durch grafisches und ergonomisches Data Mapping erhöhen.
  • Daten im Detail analysieren, um bessere datengestützte Entscheidungen zu treffen und letztendlich eine datengetriebene Organisation zu werden.

 

Schlussfolgerung

Nur wenn ein Unternehmen über einen korrekt katalogisierten Datenbestand verfügt, wird es in der Lage sein, die Vorteile seiner Daten zu nutzen. Eine qualitativ hochwertige Datenanalyse ist nur möglich, wenn die Daten ordnungsgemäß dokumentiert, rückverfolgbar und für alle zugänglich sind.

Sie suchen nach einem Tool für das Data Mapping?

Weitere Informationen zu unserem Data Catalog erhalten Sie unter den folgenden Links:

oder vereinbaren Sie direkt mit uns einen Termin für eine Demo unserer Lösung: