Authentifizierung und Autorisierung Near Field Communication Hardware-Token Biometrie Physikalisch unklonbare Funktionen Elektronische Signaturen und elekronische Siegel Elektronische Identitäten Netzwerk- und Systemsicherheit Selbstlernende, selbstheilende Systeme Trusted Platform Module Evolutionäre Algorithmen Sicherheitsmetriken Auditing und Monitoring Sicherheitsinformations- und Ereignis-Management Complex Event Processing Security-by-Contract Botnetzerkennung Intrusion Detection und Intrusion Prevention Schwachstellenanalyse Advanced Persistent Threat Erkennung und Analyse Honeynet Quantenkommunikation Oblivious Transfer Private Information Retrieval Sichere Multi-Parteien-Berechnung Off-the-record Messaging Blinde Signatur Privacy Enhancing Technologies Privatheit und Datenschutz Kryptographie Zufallszahlengeneratoren Ultra-Leichtgewicht-Kryptographie Quantenkryptographie Post-Quantenkryptographie Elliptische-Kurven-Kryptographie Homomorphe Kryptographie Seitenkanalanalyse Bis 3 Jahre 3 bis 8 Jahre Mehr als 8 Jahre Zukunftsfähigkeit Hoch Mittel Zeitraum bis zum Durchbruch
 

ÖFIT-Trendsonar

In einer zunehmend vernetzten Welt können IT-Sicherheitsvorfälle gravierende Konsequenzen haben, wenn sie beispielsweise kritische Infrastrukturen gefährden. Anzahl und Ausmaß solcher Vorfälle nehmen seit Jahren weltweit zu. Der im Mai 2015 bekannt gewordene Angriff auf das interne Datennetz des deutschen Bundestages stellt nur die Spitze des Eisberges dar. IT-Sicherheit und Datenschutz werden deshalb für Behörden, Unternehmen und die breite Öffentlichkeit immer wichtiger. Aber welche Technologien und Sicherheitslösungen werden auch in Zukunft noch einen hohen Schutz bieten?
Das ÖFIT-Trendsonar präsentiert einige der wichtigsten derzeitigen und zukünftigen Technologietrends in der IT-Sicherheit und möchte damit einen Beitrag leisten, zukunftsfeste Entscheidungen für die sichere Ausrichtung von IT-Systemen zu treffen. Die Bewertungen basieren auf Einschätzungen von Expertinnen und Experten des Fraunhofer-Instituts für Offene Kommunikationssysteme (FOKUS). Das ÖFIT-Trendsonar kann als Überblick für all diejenigen dienen, die sich mit den Entwicklungen in der IT-Sicherheit vertraut machen möchten.

Vorstellung des Trendsonars

Unter Zukunftsfähigkeit wird die Zeitspanne verstanden, innerhalb derer die Lösung noch hinreichende Sicherheit verspricht. Sie ist daher umso niedriger, je eher bereits absehbar ist, dass technologische Neuerungen die Lösung ersetzen oder obsolet machen werden.
Der Zeitraum bis zum Durchbruch gibt an, wie viele Jahre es noch dauern wird, bis der Technologietrend als zuverlässig, technologisch robust und effektiv einsetzbar gilt. Mit dem Durchbruch lässt sich eine signifikante Verbreitung erwarten.
Reife gibt den inversen Wert des Zeitraums bis zum Durchbruch wieder: Je näher der Durchbruch, desto höher die Bewertung der Reife, also des Entwicklungsstandes der Technologie.
Angebot beschreibt die Verfügbarkeit von und die Menge an vorhandenen Marktlösungen und Produkten.
Nachfrage bezeichnet die tatsächliche Nutzung und Verbreitung vorhandener Marktlösungen.
Standardisierung beschreibt die Verbreitung und Relevanz bestehender nationaler und internationaler Standards mit Bezug zum jeweiligen Technologietrend.
Diese fünf qualitativen Bewertungskriterien werden durch fünf quantitative Kenngrößen ergänzt und teils kontrastiert. Hierzu wurden Daten aus Forschungsförderprogrammen auf Bundes- und EU-Ebene, aus wissenschaftlichen Literaturdatenbanken, aus Gründungsplattformen, aus Normungsdatenbanken und Suchmaschinenanfragen herangezogen:
 
  • Existenz nationaler oder europäischer Forschungsförderung seit 2010
    (Vorhanden vorhanden, Nicht vorhandennicht vorhanden)
  • Entwicklung wissenschaftlicher Publikationen bis und seit 2010
    (Anstieg Anstieg, Abnahme Abnahme, Gleichbleibend gleichbleibend, Nicht vorhandennicht vorhanden)
  • Existenz innovationsorientierter Gründungen seit 2009
    (Vorhandenvorhanden, Nicht vorhandennicht vorhanden)
  • Normentwürfe und Normen
    (VerhältnisVerhältnis, Nicht vorhanden nicht vorhanden)
  • Entwicklung von Suchanfragen zwischen 2009 und 2015
    (Anstieg Anstieg, Abnahme Abnahme, Gleichbleibend gleichbleibend, Nicht vorhanden nicht vorhanden)

NEAR FIELD COMMUNICATION (NFC)

Near Field Communication (deutsch: Nahfeldkopplung) dient dem kontaktlosen Datenaustauch im Nahbereich von wenigen Zentimetern. Viele Geräte wie Smartphones, PDAs oder auch Kreditkarten besitzen bereits einen NFC-Chip. Lediglich durch das Aneinanderhalten NFC-fähiger Geräte können Daten ausgetauscht oder Informationen und Dienste abgerufen werden.
Hauptanwendungsgebiete sind Bezahlanwendungen für kleinere Beträge, elektronische Eintrittskarten, aber auch die Zeiterfassung oder Zutrittskontrolle. Neue Anwendungsmöglichkeiten werden im Smart Home oder Internet der Dinge erschlossen.

Near Field Communication

HARDWARE-TOKEN

Hardware-Token sind Gegenstände, wie beispielsweise USB-Sticks, Smartcards oder RFID-Token, die der Identifizierung und Authentifizierung von Nutzer dienen. Wird eine starke Authentisierung für sicherheitskritische Anwendungsbereiche gefordert, kommt häufig eine Kombination von Wissen und Besitz zum Einsatz.
Als Faktor Besitz dienen die Hardware-Token, die in Verbindung mit dem Faktor Wissen (PIN oder Passwort) verwendet werden. Neue Entwicklungen wie FIDO-Token sollen an unterschiedlichen Geräten universell einsetzbar sein.

HARDWARE-TOKEN

BIOMETRIE

Biometrie dient der automatisierten Erkennung von Personen anhand ihrer physiologischen oder verhaltensbedingten Eigenschaften. Biometrische Verfahren für die Authentisierung verwenden ein oder mehrere biometrische Merkmale wie beispielsweise Fingerabdruck, Iris, Handschrift oder auch Gesichtserkennung.
Bei deren Einsatz für Zugang oder Zutritt muss eine akzeptable Erkennungsleistung gewährleistet werden und eine Lebendprüfung stattfinden, damit keine Nachbildungen von Fingern oder Gesichtsmasken eingesetzt werden können. Neue und verbesserte Verfahren sollen einfach verwendet werden können und gleichzeitig die falsche Erkennung und falsche Zurückweisungen von Personen minimieren.

BIOMETRIE

PHYSIKALISCH UNKLONBARE FUNKTIONEN

Physikalisch unklonbare Funktionen dienen zur Erzeugung eines physikalischen Fingerabdrucks von Gegenständen als Pendant zum biometrischen Fingerabdruck von Menschen. Sie basieren darauf, dass jedes Objekt eindeutige physikalische Eigenschaften besitzt, welche sich weder justieren noch reproduzieren lassen. Ausgenutzt werden dafür physikalische Variationen, die bei Herstellungsprozessen auftreten.
Ein Anwendungsgebiet ist beispielsweise die Verhinderung von Produktpiraterie. Hier wird der physikalische Fingerabdruck eines Produkts beim Hersteller registriert, sobald die Ware produziert wurde. Um eine erhaltene Ware zu überprüfen, wird ihr physikalischer Fingerabdruck bestimmt und anschließend beim Hersteller verifiziert.

PHYSIKALISCH UNKLONBARE FUNKTIONEN

ELEKTRONISCHE SIGNATUREN UND ELEKTRONISCHE SIEGEL

Elektronische Signaturen und Siegel verknüpfen Daten und Dokumente mit Informationen über die Identität des Signierenden bzw. Siegelerstellers. Qualifizierte elektronische Signaturen (QES) sind der handschriftlichen Unterschrift rechtlich gleichgestellt. Qualifizierte elektronische Siegel wurden als Pendant zur QES eingeführt, um juristischen Personen die Möglichkeit zu geben, den Ursprung und die Unversehrtheit von elektronischen Dokumenten rechtsverbindlich zu garantieren.
Sie können auch verwendet werden, um digitale Besitzgegenstände einer juristischen Person wie beispielsweise Softwarecode zu kennzeichnen. Mit der EU eIDAS-Verordnung werden ab dem 1. Juli 2016 qualifizierte elektronische Signaturen und Siegel grenzüberschreitend in Europa anerkannt.

ELEKTRONISCHE SIGNATUREN UND ELEKTRONISCHE SIEGEL

ELEKTRONISCHE IDENTITÄTEN (eID)

Die Identität einer natürlichen oder juristischen Person wird durch verschiedene Eigenschaften beschrieben, wie beispielsweise Name, Anschrift, Geburtsdatum, Email-Adressen oder auch Pseudonyme. In der virtuellen Welt werden Namen und Eigenschaften durch Attribute einer elektronischen Identität abgebildet.
Seit 2010 stellt der deutsche Staat seinen Bürgerinnen und Bürgern mit dem Personalausweis eine elektronische Identität aus. Andere europäische Staaten haben eID Lösungen mittels Software-Zertifikaten, Smartcards oder Smartphones etabliert. Eingesetzt werden eIDs bei der Identifizierung und Authentisierung.

ELEKTRONISCHE IDENTITÄTEN (eID)

TRUSTED PLATFORM MODULE (TPM)

Trusted Platform Modules sind Chips, die einen Computer oder andere Rechensysteme um Sicherheitsfunktionen wie Zufallsgeneratoren, Schlüsselgenerierung und -ablage, kryptographische Versiegelung von Systemkonfigurationen oder Ausstellung von Bescheinigungen für die Authentifizierung von Geräten erweitern. Mit TPMs wird die Hardware identifizierbar und Veränderungen am System können erkannt werden.
TPM Chips befinden sich zwar seit Jahren in Computern, werden bisher aber nur eingeschränkt verwendet, da sie die Kontrollmöglichkeiten der Nutzer stark einschränken. Das Fernhalten unerwünschter Software kann beispielsweise sowohl Virensoftware als auch Konkurrenzsoftware betreffen.

TRUSTED PLATFORM MODULE (TPM)

SELBSTLERNENDE, SELBSTHEILENDE SYSTEME

IT-Sicherheit durch Abschottung kann in komplexen, vernetzten Systemen nur bedingt funktionieren. Zunehmend gewinnen Funktionen zur Stärkung der Widerstandsfähigkeit und der inneren Abwehrkraft von Systemen an Bedeutung. Dies umfasst die Diagnose, Lernfähigkeit und korrektive Adaption an neue Gegebenheiten durch selbstlernende bzw. selbstheilende Systeme in Anlehnung an das Immunsystem des Menschen.
Die Vorsilbe »selbst« verweist darauf, dass ein System diese Aufgaben eigenständig im Rahmen seiner Möglichkeiten übernimmt, ohne dass eine konkrete Reaktion schon bei der Entwicklung des Systems vorgegeben wurde. Die verschiedenen Aufgaben können in der Realität widersprüchlich sein und daher eine hohe technische Intelligenz vom System verlangen.

SELBSTLERNENDE, SELBSTHEILENDE SYSTEME

EVOLUTIONÄRE ALGORITHMEN

Evolutionäre Algorithmen orientieren sich an der biologischen Evolution und bilden deren Prozesse nach. Komplexe multimodale Problemstellungen werden durch Annäherungen und Anpassungen an die beste Lösung optimiert, wobei auch mehrere unterschiedliche Lösungen geliefert werden können.
Ständige Verbesserungen basieren auf dem Wechselspiel zwischen Variation und Selektion. Anwendungsgebiete für evolutionäre Algorithmen sind Simulation und Modellierung, die auch zur Stärkung der Robustheit von Systemen angewendet werden können.

EVOLUTIONÄRE ALGORITHMEN

SICHERHEITSMETRIKEN

Um den Grad der Informationssicherheit in Systemen und Infrastrukturen zu bewerten, muss Sicherheit gemessen werden können. Sicherheitskennzahlen dienen dabei als objektive, quantifizierbare Maßzahlen, um Sicherheitsentscheidungen sowohl während der Anschaffungsphase als auch während des Betriebs treffen zu können.
Ein Ziel von Sicherheitsmetriken ist der Nachweis, dass die geplanten und umgesetzten Sicherheitsmaßnahmen eine spezifische Sicherheitspolitik erfüllen. Entscheidungen und Bewertungen hinsichtlich der IT-Sicherheit werden so transparent und nachvollziehbar. Anwendungsgebiete für Sicherheitsmetriken sind die Beurteilung der Sicherheitslage, Sicherheitsmanagement oder Cyberversicherungen.

SICHERHEITSMETRIKEN

SICHERHEITSINFORMATIONS- UND EREIGNIS-MANAGEMENT (SIEM) TECHNOLOGIEN

Sicherheitsinformations- und Ereignis-Management Technologien unterstützen das Sammeln und Auswerten von sicherheitsrelevanten Informationen aus verschiedenen Geräten, Netzen, Systemen oder Anwendungen nach vorab definierten Kriterien. Werden Bedrohungen oder kritische Zustände erkannt, können in Echtzeit Alarmfunktionen aktiviert und geeignete Sicherheitsmaßnahmen initiiert werden.
Die Zeitspanne zwischen Angriff und Abwehr soll so verkürzt werden. Durch Big Data Technologien, forensische Werkzeuge und fortschrittliche Sicherheitsanalysen werden SIEM Technologien für die Gefahrenerkennung und -abwehr ständig verbessert.

SICHERHEITSINFORMATIONS- UND EREIGNIS-MANAGEMENT (SIEM) TECHNOLOGIEN

COMPLEX EVENT PROCESSING TECHNOLOGIEN

Complex Event Processing (deutsch: Verarbeitung komplexer Ereignisse) umfasst Methoden, Techniken und Werkzeuge für das kontinuierliche Sammeln, Analysieren und Verarbeiten von Ereignissen. Komplexe Ereignisse sind dabei das Resultat einer intelligenten Kombination und Korrelation mehrerer Ereignisse. Bestimmte Zustände oder Situationen lassen sich nur dann erkennen, wenn mehrere Ereignisse in Kombination auftreten.
Um verschiedenartige Datenströme in Echtzeit zu verarbeiten und die Ereignisse zu extrahieren und zu analysieren, müssen von diesbezüglichen Systemen hohe Lasten verkraftet werden. Einsatzgebiete sind beispielsweise Netzwerküberwachung, öffentliche Sicherheit, Katastrophenschutz oder Energiemanagement.

COMPLEX EVENT PROCESSING TECHNOLOGIEN

SECURITY-BY-CONTRACT/ COMPLIANCE ÜBERWACHUNG

Security-by-Contract bezeichnet Verträge zwischen Dienstleistungserbringer und -nachfrager, die einen bestimmten Schutzbedarf definieren und den Sicherheitsleistungsumfang für die IT-Systeme garantieren. Ziel ist es, ein bestimmtes Sicherheitsniveau zu erreichen. Eine Vereinbarung von Sicherheitsniveaus anstatt konkreter Sicherheitsmaßnahmen erfordert und erlaubt dem Dienstleistungserbringer eine flexible und zeitnahe Anpassung an aktuelle Bedrohungen.
Diese Vertragsvereinbarungen müssen überwacht und überprüft werden können. Compliance Überwachung dient der Überwachung der Einhaltung des vertraglich vereinbarten Sicherheitsniveaus sowie von Richtlinien, Vorschriften oder Gesetzen. Die abstrakte Beschreibung der erforderlichen Sicherheit basierend auf potenziellen Risiken sowie die Überprüfbarkeit des Sicherheitsniveaus in Form von geeigneten Sicherheitsmaßnahmen in Echtzeit sind bisher nur ansatzweise vorhanden.

SECURITY-BY-CONTRACT/ COMPLIANCE ÜBERWACHUNG

BOTNETZERKENNUNG

Botnetze sind gekaperte und vernetzte Rechner, die von Cyberkriminellen für Straftaten genutzt werden. Bot-Programme laufen in den infizierten Rechnern meist unbemerkt im Hintergrund. Die meisten Bots können von zentralen Servern bzw. Operatoren gesteuert werden.
Sie werden beispielsweise für das Versenden von Spam, DDos-Attacken oder Phishing genutzt. Verbesserte Erkennungsmaßnahmen sind für Betroffene auch zukünftig erforderlich.

BOTNETZERKENNUNG

INTRUSION DETECTION SYSTEME (IDS) UND INTRUSION PREVENTION SYSTEME (IPS)

Intrusion Detection und Intrusion Prevention Systeme sind Werkzeuge, die IT-Systeme oder Netze aktiv überwachen. Das Ziel ist es, Ereignisse herauszufiltern, die auf Angriffe, Missbrauchsversuche oder Sicherheitsverletzungen hindeuten (englisch intrusion: „Eindringen"). Ereignisse sollen dabei zeitnah erkannt und gemeldet werden.
Die Verfahren basieren auf Mustererkennung, um ein Abweichen von einem Normalzustand zu signalisieren. Mit heuristischen Methoden sollen auch bisher unbekannte Angriffe erkannt werden. Während IDS Angriffe nur erkennen, sollen IPS diese auch abwehren bzw. verhindern.

INTRUSION DETECTION SYSTEME (IDS) UND INTRUSION PREVENTION SYSTEME (IPS)

HONEYNET

Honeypots simulieren Schwachstellen in IT-Netzen oder Anwendungen, ohne dabei das System zu gefährden. Sie sollen Hacker anziehen bzw. vom eigentlichen Ziel wegleiten, so wie Bären mit einem Honigtopf sowohl abgelenkt als auch in eine Falle gelockt werden können.
Werden mehrere Honeypots zu einer Infrastruktur verbunden, wird das als Honeynet bezeichnet. Honeynets sollen umfangreiche Informationen über Angriffsmuster und Angreiferverhalten liefern, um die Sicherheit stetig verbessern zu können.

HONEYNET

SCHWACHSTELLENANALYSE/ VULNERABILITY DETECTION

Bedrohungen für die Sicherheit können ausgehen von kriminellen Angriffen, von organisatorischen Mängeln aber auch von technischen Unfällen oder höherer Gewalt. Schwachstellen (englisch: vulnerability) sind Fehler eines IT-Systems oder einer Organisation, durch die diese für Bedrohungen anfällig werden. Eine Bedrohung oder eine Schwachstelle allein reichen jedoch nicht aus, um die Sicherheit eines Systems zu gefährden. Eine Gefährdung für das angegriffene System besteht nur dann, wenn eine Bedrohung auf eine existierende Schwachstelle trifft.
Die Ursachen für Schwachstellen sind vielseitig und können in der Konzeption, Implementierung oder auch im Betrieb liegen und umfassen ebenfalls Design- oder Konstruktionsfehler, menschliches Fehlverhalten oder ungenügende Standortsicherheit. Schwachstellenanalysen dienen dazu, diese Fehler systematisch zu finden, um Bedrohungen und Angriffsszenarien abzuwenden.

SCHWACHSTELLENANALYSE/ VULNERABILITY DETECTION

ADVANCED PERSISTENT THREAT (APT) ERKENNUNG UND ANALYSE

Advanced Persistent Threats sind komplexe und zielgerichtete Angriffe auf ein oder wenige Opfer. Diese Angriffe werden vom Angreifer akribisch und mit aufwändiger Spezialsoftware vorbereitet und dauern lange an. APTs sollen möglichst unentdeckt bleiben, um über einen längeren Zeitraum Daten auszuspähen oder anderen Schaden zu verursachen. Ziele dieser Angriffe sind kritische IT-Infrastrukturen sowie vertrauliche Daten von Behörden und Unternehmen aller Branchen.
Aufgrund des hohen Schadenpotenzials sind die Erkennung und Analyse dieser Angriffe zwingend erforderlich, gestalten sich jedoch sehr schwierig. Nur das Sammeln, Analysieren und Korrelieren von Sicherheitsinformationen aus verschiedenen Quellen kann Hinweise zur Erkennung geben.

ADVANCED PERSISTENT THREAT (APT) ERKENNUNG UND ANALYSE

QUANTENKOMMUNIKATION

Die Datenübertragung durch einzelne Lichtteilchen wird als Quantenkommunikation bezeichnet. Eine Besonderheit gegenüber normaler Kommunikation ist, dass sich ein Quantenzustand von einem Ort zu einem anderen ohne ein physikalisches Medium übertragen lässt. Das wird auch Quantenteleportation genannt.
Zwei Quanten werden zu einem gemeinsamen quantenphysikalischen Zustand verschränkt. Auch wenn sie getrennt werden, bleiben sie über große Strecken miteinander verbunden. Albert Einstein hatte den Effekt als spukhafte Fernwirkung bezeichnet. Zukünftige Einsatzbereiche sind abhörsichere, extrem schnelle Netzwerke.

QUANTENKOMMUNIKATION

OBLIVIOUS TRANSFER

Oblivious Transfer ist ein kryptographisches 2-Parteien-Protokoll, bei dem ein Sender aus einer Menge von Informationen einen bestimmten Teil zu einem Empfänger überträgt, jedoch der Sender nicht weiß, welchen Teil er gesendet hat. Varianten des Protokolls gewährleisten so den Austausch von Geheimnissen, ohne dass eine neutrale dritte Partei eingeschaltet werden muss. Jeder erfährt das Geheimnis des anderen zur gleichen Zeit.
Ein Anwendungsbereich ist das Unterzeichnen von Verträgen. Wollte man bisher sichergehen, dass beide Parteien einen Vertrag unterzeichnen, der für den jeweils Unterschreibenden sofort gültig wird, wurde beispielsweise ein Notar eingeschaltet. Mit Oblivious Transfer ist dies auch ohne die neutrale dritte Partei elektronisch möglich.

OBLIVIOUS TRANSFER

PRIVATE INFORMATION RETRIEVAL

Private Information Retrieval ist ein kryptographisches Verfahren, bei dem Datenbankanfragen gestellt werden können, ohne dass die Datenbank bzw. der Datenbank-Administrator Kenntnis über den Inhalt der Anfrage erhält.
So wird die Privatheit des Anfragenden unterstützt, auch wenn er öffentliche Datenbanken benutzt. Die Anfragen können daher auch nicht miteinander verknüpft werden, um die Interessen des Anfragenden zu ermitteln.

PRIVATE INFORMATION RETRIEVAL

SICHERE MULTI-PARTEIEN-BERECHNUNG

Sichere Multi-Parteien-Berechnung bezeichnet ein privatheitunterstützendes, kryptographisches Protokoll, bei der gemeinsame Berechnungen auf geheimen Eingaben jeder Partei durchgeführt werden können und die Geheimnisse trotzdem erhalten bleiben. Ursprung ist das sogenannte Millionärsproblem, bei dem zwei sich gegenseitig misstrauende Millionäre herausfinden können, wer von ihnen reicher ist, ohne dass sie sich ihren Besitz gegenseitig offenlegen müssen.
Da sensitive Daten bei der sicheren Multi-Parteien-Berechnung erhalten bleiben, kommen als Anwendungsgebiete beispielsweise Onlineauktionen oder Onlinewahlen in Betracht.

SICHERE MULTI-PARTEIEN-BERECHNUNG

OFF-THE-RECORD (OTR) MESSAGING

Off-the-Record Messaging ist ein Protokoll zur Verschlüsselung von Instant Messaging Nachrichten. Ziel ist es, sein Gegenüber zu authentifizieren und die Nachrichten vertraulich zu gestalten. Im Nachhinein können die ausgetauschten Nachrichten jedoch nicht mehr als authentisch nachgewiesen werden.
Verwendet werden kurzlebige Sitzungsschlüssel; daher kann später nicht mehr festgestellt werden, ob ein bestimmter Schlüssel von einer bestimmten Person genutzt wurde.

OFF-THE-RECORD (OTR) MESSAGING

BLINDE SIGNATUR

Blinde Signaturen sind eine Variante der digitalen Signatur, bei der ein Unterzeichner ein Dokument unterzeichnet, dessen Inhalt er nicht kennt. Die Unterschrift bestätigt somit nicht den Dokumenteninhalt sondern dessen Echtheit. Blinde Signaturen unterstützen Privatheit und Anonymität, da sie keine Rückschlüsse auf denjenigen zulassen, der das signierte Dokument verwendet.
Einsatzmöglichkeiten sind beispielsweise elektronisches Bargeld, bei der die Bank nicht wissen soll was jemand wo gekauft hat, aber trotzdem die Echtheit des Geldes bestätigt. Ebenfalls sind blinde Signaturen für elektronische Wahlen sinnvoll, da geheim bleiben muss, wer wie gewählt hat, aber die Gültigkeit des Wahlzettels bestätigt wird.

BLINDE SIGNATUR

PRIVACY ENHANCING TECHNOLOGIES (PETs)

Privacy Enhancing Technologies (PET) ist ein Sammelbegriff für Technologien zum Schutz der Privatsphäre. Dazu gehören Technologien zur Anonymisierung bzw. Pseudonymisierung von Identitäten, kryptographische Ansätze zum Schutz sensitiver Daten, Techniken zur expliziten Einwilligung von Nutzern, Verhinderung ungewollter Nachverfolgung, Transparenz und Kontrolle der eigenen Daten, der digitale Radiergummi, Datensparsamkeit, Anonymisierung von offenen Daten, vertrauliche Kommunikation und weitere.
Die wesentlichen Ziele sind, so wenig wie nötig persönliche Daten zu sammeln und die Datensicherheit, Zweckbindung und Rechtmäßigkeit der Verarbeitung von personenbezogenen Daten sicherzustellen.

PRIVACY ENHANCING TECHNOLOGIES (PETS)

SEITENKANALANALYSE

Seitenkanalangriffe sind Angriffe, die nicht auf das kryptographische Verfahren selbst, sondern auf die physische Implementierung eines Kryptosystems wie beispielsweise Smartcards oder Sicherheitstoken zielen. Genutzt werden für diese Angriffe messbare Daten wie Zeit, Energieverbrauch des Prozessors, elektromagnetische Abstrahlung oder akustische Geräusche.
Analysiert man diese, werden gegebenenfalls geheime Schlüssel extrahiert, d.h. es besteht eine universelle Gefahr der Kompromittierung für diese kryptographischen Geräte. Seitenkanalanalyse ist daher Bestandteil der Schwachstellenanalyse in der Common Criteria Zertifizierung von Chipkarten und ähnlichen Geräten.

SEITENKANALANALYSE

HOMOMORPHE KRYPTOGRAPHIE

Homomorphe Kryptographie erlaubt Berechnungen auf verschlüsselten Daten, ohne dass diese entschlüsselt werden müssen. Insbesondere beim Cloud-Computing verspricht man sich einen großen Gewinn an Privatheit. Verschlüsselte Daten werden in einer Cloud abgelegt. Dort können sie durchsucht oder verarbeitet werden ohne sie zu entschlüsseln.
Das Ergebnis wird verschlüsselt zurück gesendet. Der Cloud-Anbieter kennt weder die Daten noch die Ergebnisse. Bisher ist homomorphe Kryptographie allerdings noch sehr rechenintensiv und viele Teilbereiche wie Einstellungen oder Rechnerarchitektur noch wenig erforscht.

HOMOMORPHE KRYPTOGRAPHIE

ELLIPTISCHE-KURVEN-KRYPTOGRAPHIE

Elliptische Kurven sind mathematische Strukturen, die sich für kryptographische Verfahren nutzen lassen. Vorteilhaft gegenüber herkömmlichen Kryptoverfahren sind die kürzeren Schlüssellängen, die höhere Geschwindigkeit und geringere Speicheranforderungen. Einsatzgebiete sind daher Geräte, bei denen Speicher- oder Rechenkapazität knapp sind, wie beispielsweise bei Smartcards.
Elliptische-Kurven-Kryptographie wird heute für den Zugriffsschutz auf Chips von Reisepässen vieler europäischer Staaten und des deutschen Personalausweises verwendet. Elliptische Kurven treten in verschiedenen Varianten auf, wobei einige als fehleranfällig oder unsicher gelten. Daher werden diese auch weiterhin erforscht.

ELLIPTISCHE-KURVEN-KRYPTOGRAPHIE

POST-QUANTENKRYPTOGRAPHIE

Gegenwärtig geht man davon aus, dass zukünftige Quantencomputer mit Hilfe von physikalischen Effekten bestimmte mathematische Probleme lösen könnten, an denen heutige Computer scheitern. Insbesondere könnte das kryptographische Public-Key-Verfahren betreffen, d.h. Verschlüsselung und Authentisierung wären gefährdet.
Das Forschungsgebiet der Post-Quanten-Kryptographie beschäftigt sich daher mit kryptographischen Verfahren, die auch mit Quantencomputern nicht gebrochen werden können.

POST-QUANTENKRYPTOGRAPHIE

QUANTENKRYPTOGRAPHIE

Quantenkryptographie verwendet quantenmechanische Effekte (üblicherweise Lichtquanten) als Bestandteil kryptographischer Verfahren oder zur Kryptoanalyse. Quanten ändern ihre Eigenschaften, wenn sie einer Messung unterzogen bzw. beobachtet werden. So können im Gegensatz zu herkömmlichen kryptographischen Verfahren beispielsweise Angreifer entdeckt werden, die den Kommunikationskanal belauschen, weil deren Messungen die Daten beeinflussen.
Demzufolge können zwei Kommunikationspartner feststellen, ob ein zwischen ihnen übertragener Verschlüsselungsschlüssel abgefangen wurde. Derzeit ist der technische Aufwand für Quantenkryptographie relativ hoch und die Länge der Übertragungsstrecken noch eingeschränkt.

QUANTENKRYPTOGRAPHIE

ULTRA-LEICHTGEWICHT-KRYPTOGRAPHIE/ KRYPTOGRAPHIE FÜR RESSOURCENARME GERÄTE

Ressourcenbeschränkte oder ressourcenarme Systeme, wie RFID Tags, eingebettete Systeme oder Sensoren, benötigen kryptographische Verfahren, die wenig Anforderungen an Prozessorleistung und Speicherplatz stellen und gleichzeitig schnell und ausreichend sicher sind.
Mögliche Einsatzgebiete sind das Internet der Dinge für verschiedene Gegenstände des alltäglichen Lebens zur Sicherung von Vertraulichkeit, aber auch das Rechtemanagement für Autorisierungsentscheidungen.

ULTRA-LEICHTGEWICHT-KRYPTOGRAPHIE/ KRYPTOGRAPHIE FÜR RESSOURCENARME GERÄTE

ZUFALLSZAHLENGENERATOREN

Sichere Zufallszahlen bilden das Fundament der Kryptographie. Kryptographische Verfahren benötigen starke Zufallszahlen, d.h. Zufallszahlen, die nicht vorhersagbar sein dürfen. Zufallszahlengeneratoren erzeugen diese. Ein sicherer Zufallszahlengenerator benutzt dafür nicht-deterministische Quellen, wie physikalische Prozesse (z.B. thermisches Rauschen).
Einsatzgebiete sind u. a. die Schlüsselerzeugung für symmetrische und asymmetrische Verschlüsselungsverfahren, Authentifikationsprotokolle und digitale Signaturverfahren. Die Erzeugung von Zufallszahlen in deterministischen Maschinen wie Computern (d.h. eine konkrete Eingabe liefert immer das gleiche Ergebnis) bleibt eine Herausforderung.

ZUFALLSZAHLENGENERATOREN


Finden Sie auch die Publikation ÖFIT-Trendsonar