
EITCA/IS-Sicherheitsakademie für Informationstechnologien
Die EITCA/IS Information Technologies Security Academy ist ein in der EU ansässiger, international anerkannter Standard für die Beglaubigung von Fachkenntnissen, der Kenntnisse und praktische Fähigkeiten im Bereich der Cybersicherheit umfasst.
Das Curriculum der EITCA/IS Information Technologies Security Academy umfasst professionelle Kompetenzen in den Bereichen Rechenkomplexität, klassische Kryptographie (einschließlich symmetrischer Kryptographie mit privatem Schlüssel und asymmetrischer Kryptographie mit öffentlichem Schlüssel), Quantenkryptographie (mit Schwerpunkt auf QKD, Verteilung von Quantenschlüsseln). ), Einführung in Quanteninformation und Quantencomputation (einschließlich der Vorstellung von Quantenschaltkreisen, Quantengattern und Quantenalgorithmik mit Betonung auf praktischen Algorithmen wie Shor-Faktorisierung oder diskreten Log-Suchalgorithmen), Computernetzwerke (einschließlich theoretisches OSI-Modell), Computersystemsicherheit (Abdeckung Grundlagen und fortgeschrittene praktische Themen, einschließlich Sicherheit mobiler Geräte), Verwaltung von Netzwerkservern (einschließlich Microsoft Windows und Linux), Sicherheit von Webanwendungen und Penetrationstests von Webanwendungen (einschließlich mehrerer praktischer Pentesttechniken).
Die Erlangung der EITCA/IS Information Technologies Security Academy-Zertifizierung bescheinigt den Erwerb von Fähigkeiten und das Bestehen von Abschlussprüfungen aller Substituenten European IT Certification (EITC)-Programme, die den vollständigen Lehrplan der EITCA/IS Information Technologies Security Academy bilden (auch separat als einzelne EITC-Zertifizierungen erhältlich) .
Der Schutz von Computersystemen und -netzwerken vor Offenlegung von Informationen, Diebstahl oder Beschädigung von Hardware, Software oder verarbeiteten Daten sowie Unterbrechung oder Fehlleitung der bereitgestellten Kommunikation oder der bereitgestellten elektronischen Dienste wird allgemein als Computersicherheit, Cybersicherheit oder Information bezeichnet Technologie(en) Sicherheit (IT-Sicherheit). Aufgrund der wachsenden Abhängigkeit des Funktionierens der Welt von Computersystemen (einschließlich sozialer und wirtschaftlicher Ebene) und insbesondere von der Internetkommunikation sowie von drahtlosen Netzwerkstandards wie Bluetooth und Wi-Fi, zusammen mit der zunehmenden Verbreitung sogenannter intelligenter Geräte wie Smartphones , Smart-TVs und diversen anderen Geräten, die das Internet der Dinge ausmachen, gewinnt der Bereich der IT-Sicherheit (Cybersecurity) immer mehr an Bedeutung. Aufgrund ihrer Komplexität in Bezug auf soziale, wirtschaftliche und politische Implikationen (einschließlich der nationalen Sicherheit) sowie der Komplexität der beteiligten Technologien ist die Cybersicherheit eines der kritischsten Anliegen in der modernen Welt. Es ist auch eine der renommiertesten IT-Spezialisierungen, die durch eine ständig steigende Nachfrage nach hochqualifizierten Spezialisten mit ihren gut entwickelten und nachgewiesenen Fähigkeiten gekennzeichnet ist, die viel Zufriedenheit bereiten können, schnelle Karrierewege eröffnen, die Beteiligung an wichtigen Projekten ermöglichen (einschließlich strategische nationale Sicherheitsprojekte) und ermöglichen Wege für weitere enge Spezialisierungen in verschiedenen Domänen dieses Feldes. Der Job eines Cybersicherheitsexperten (oder eines Cybersicherheitsbeauftragten in einer privaten oder öffentlichen Organisation) ist anspruchsvoll, aber auch lohnend und sehr verantwortungsbewusst. Die Expertise sowohl in theoretischen Grundlagen als auch in praktischen Aspekten moderner Cybersicherheit garantiert nicht nur einen sehr interessanten und hochmodernen futuristischen Job im Bereich der Informationstechnologien, sondern auch deutlich höhere Gehälter und schnelle Karrierewege aufgrund erheblicher Mängel an zertifizierten Cybersicherheitsexperten und weit verbreiteten Kompetenzlücken in Bezug auf sowohl theoretisches Wissen als auch praktische Fähigkeiten in der Sicherheit von Informationstechnologien. Die Paradigmen der IT-Sicherheit haben sich in den letzten Jahren rasant weiterentwickelt. Dies ist nicht überraschend, da die Sicherung von Informationstechnologien eng mit den Architekturen von Systemen verbunden ist, die Informationen speichern und verarbeiten. Die Verbreitung von Internetdiensten, insbesondere im E-Commerce, hat bereits den dominierenden Anteil der Wirtschaft in virtuelle Daten getrieben. Es ist kein Geheimnis, dass derzeit die meisten Wirtschaftstransaktionen weltweit über elektronische Kanäle laufen, die natürlich ein angemessenes Maß an Sicherheit erfordern.
Um Cybersicherheit zu verstehen und weitere theoretische und praktische Fähigkeiten in diesem Bereich entwickeln zu können, sollte man zunächst Grundlagen der Berechnungstheorie (Berechnungskomplexität) sowie Grundlagen der Kryptografie verstehen. Der erste Bereich definiert die Grundlagen der Informatik und der zweite (Kryptografie) die Grundlagen der sicheren Kommunikation. Die Kryptographie an sich war in unserer Zivilisation seit der Antike präsent, um Mittel zum Schutz der Geheimhaltung der Kommunikation bereitzustellen und allgemeiner ausgedrückt, um ihre Authentizität und Integrität zu gewährleisten. Die moderne klassische Kryptografie wurde unterteilt in informationstheoretische (unzerbrechliche) symmetrische (Private-Key) Kryptografie (basierend auf der One-Time-Pad-Chiffre, jedoch nicht in der Lage, das Problem der Schlüsselverteilung über Kommunikationskanäle zu lösen) und bedingt sichere asymmetrische (Public -Schlüssel) Kryptografie (die zunächst das Problem der Schlüsselverteilung löste und sich später zu Kryptosystemen entwickelte, die mit sogenannten öffentlichen Schlüsseln arbeiteten, die zur Datenverschlüsselung verwendet werden sollten und in asymmetrischen Beziehungen von Rechenkomplexitätsbegriffen mit schwer zu berechnenden privaten Schlüsseln verbunden waren ihre entsprechenden öffentlichen Schlüssel, die zum Entschlüsseln von Daten verwendet werden könnten). Die Public-Key-Kryptographie hat das Internet dominiert, da sie die Anwendungspotentiale der Private-Key-Kryptographie praktisch übertrifft, und ist derzeit ein Hauptstandard bei der Sicherung privater Kommunikation und E-Commerce im Internet. 1994 gab es jedoch einen großen Durchbruch, der gezeigt hat, dass Quantenalgorithmen die meisten gebräuchlichen Public-Key-Kryptosysteme brechen können (z. B. die RSA-Chiffre, die auf dem Faktorisierungsproblem basiert). Andererseits hat die Quanteninformation ein völlig neues Paradigma für die Kryptographie bereitgestellt, nämlich das Quantenschlüsselverteilungsprotokoll (QKD), das es zum ersten Mal in der Geschichte ermöglicht, unknackbare (informationstheoretisch) sichere Kryptosysteme (die nicht einmal mit irgendein Quantenalgorithmus). Ein Fachwissen in diesen Bereichen moderner Entwicklungen der Cybersicherheit legt den Grundstein für praktische Fähigkeiten, die angewendet werden können, um Cyberbedrohungen für Netzwerke, Computersysteme (einschließlich Server, aber auch PCs und mobile Geräte) und verschiedene Anwendungen (insbesondere Webanwendungen) zu mindern. Alle diese Bereiche werden von der EITCA/IS Information Technologies Security Academy abgedeckt, die Fachwissen sowohl in theoretischen als auch in praktischen Bereichen der Cybersicherheit integriert und die Fähigkeiten durch Penetrationstest-Expertise (einschließlich praktischer Web-Pentest-Techniken) ergänzt.
Seit dem Aufkommen des Internets und dem digitalen Wandel der letzten Jahre ist der Begriff Cybersecurity zu einem gemeinsamen Thema in unserem beruflichen und privaten Leben geworden. In den letzten 50 Jahren des technologischen Fortschritts folgten Cybersicherheit und Cyberbedrohungen der Entwicklung von Computersystemen und Netzwerken. Bis zur Erfindung des Internets in den 1970er und 1980er Jahren wurde die Sicherheit von Computersystemen und Netzwerken hauptsächlich in die akademische Welt verbannt, wo mit der zunehmenden Konnektivität Computerviren und Netzwerkeinbrüche an Bedeutung gewannen. In den 2000er Jahren wurden Cyberrisiken und Cybersicherheit institutionalisiert, nach dem Aufkommen von Viren in den 1990er Jahren. In den 2010er Jahren begannen groß angelegte Angriffe und staatliche Gesetze. Die Sitzung von Willis Ware im April 1967 auf der gemeinsamen Frühjahrs-Computerkonferenz sowie die anschließende Veröffentlichung des Ware-Berichts waren Meilensteine in der Geschichte der Computersicherheit.
Die sogenannte CIA-Trinität von Vertraulichkeit, Integrität und Verfügbarkeit wurde 1977 in einer NIST-Veröffentlichung als klarer und einfacher Ansatz zur Erklärung wesentlicher Sicherheitsanforderungen etabliert. Seitdem wurden viele umfassendere Frameworks vorgestellt, die sich noch weiterentwickeln. In den 1970er und 1980er Jahren gab es jedoch keine ernsthaften Computerrisiken, da Computer und das Internet noch in einem frühen Entwicklungsstadium mit relativ geringer Konnektivität waren und Sicherheitsbedrohungen in begrenzten Betriebsbereichen leicht erkannt wurden. Die häufigste Gefahrenquelle waren böswillige Insider, die sich unbefugten Zugriff auf kritische Dokumente und Dateien verschafften. Sie nutzten in den Anfangsjahren keine Malware oder Netzwerkverletzungen, um sich einen finanziellen Vorteil zu verschaffen, obwohl sie existierten. Etablierte Computerfirmen wie IBM begannen in der zweiten Hälfte der 1970er Jahre mit der Entwicklung kommerzieller Zugangskontrollsysteme und Computersicherheitssoftware.
Die Ära bösartiger Computerprogramme (Würmer oder Viren, wenn sie Eigenschaften der Selbstreplikation und ansteckende Operationen programmierten, die sich über Netzwerke und andere Mittel in Computersystemen ausbreiteten) begann 1971 mit dem sogenannten Creeper. Creeper war ein von BBN entwickeltes experimentelles Computerprogramm, das als erster Computerwurm gilt. Reaper, die erste Antivirensoftware, wurde 1972 entwickelt. Sie wurde entwickelt, um über das ARPANET zu migrieren und den Creeper-Wurm zu beseitigen. Eine Gruppe deutscher Hacker verübte zwischen September 1986 und Juni 1987 die erste dokumentierte Cyberspionage. Die Bande hackte sich in die Netzwerke amerikanischer Rüstungsfirmen, Universitäten und Militärstützpunkte ein und verkaufte die Daten an den sowjetischen KGB. Markus Hess, der Anführer der Gruppe, wurde am 29. Juni 1987 festgenommen. Am 15. Februar 1990 wurde er (zusammen mit zwei Mitverschwörern) der Spionage für schuldig befunden. Der Morris-Wurm, einer der ersten Computerwürmer, wurde 1988 über das Internet verbreitet. In den Mainstream-Medien wurde viel darüber berichtet. Kurz nachdem das National Center for Supercomputing Applications (NCSA) 1.0 Mosaic 1993, den ersten Webbrowser, veröffentlicht hatte, begann Netscape mit der Entwicklung des SSL-Protokolls. 1994 hatte Netscape die SSL-Version 1.0 fertig, die jedoch aufgrund einer Reihe schwerwiegender Sicherheitsmängel nie der Öffentlichkeit zugänglich gemacht wurde. Replay-Angriffe und eine Schwachstelle, die es Hackern ermöglichte, unverschlüsselte Nachrichten von Benutzern zu ändern, gehörten zu den entdeckten Fehlern. Netscape hingegen veröffentlichte im Februar 2.0 Version 1995.
In den USA ist die National Security Agency (NSA) für den Schutz der amerikanischen Informationsnetzwerke sowie für die Beschaffung ausländischer Informationen zuständig. Diese beiden Verantwortlichkeiten sind unvereinbar. Als Abwehrmaßnahme gehören das Überprüfen von Software, das Auffinden von Sicherheitsproblemen und das Beheben von Fehlern zum Schutz von Informationssystemen. Das Ausnutzen von Sicherheitslücken, um Informationen zu erhalten, ist Teil des Sammelns von Informationen, was eine feindliche Aktion ist. Wenn Sicherheitslücken behoben sind, können sie von der NSA nicht mehr ausgenutzt werden. Die NSA untersucht weit verbreitete Software, um Sicherheitslücken zu identifizieren und nutzt diese dann für offensive Angriffe auf US-Konkurrenten. Die Behörde ergreift selten Abwehrmaßnahmen, wie beispielsweise die Offenlegung von Sicherheitsproblemen gegenüber Softwareentwicklern, damit diese behoben werden können. Eine Zeitlang funktionierte die Offensivstrategie, aber andere Länder wie Russland, Iran, Nordkorea und China entwickelten nach und nach ihre eigenen Offensivkapazitäten, die sie nun gegen die USA einsetzen. NSA-Auftragnehmer entwickelten und verkauften einfache One-Click-Lösungen und Angriffstools an US-Behörden und Verbündete, aber die Tools fanden schließlich ihren Weg in die Hände ausländischer Gegner, die sie studieren und ihre Versionen entwickeln konnten. Die eigenen Hacking-Fähigkeiten der NSA wurden 2016 gehackt, und Russland und Nordkorea haben sie ausgenutzt. Gegner, die im Cyberkrieg konkurrieren wollen, haben NSA-Mitarbeiter und Auftragnehmer zu exorbitanten Löhnen eingestellt. Im Jahr 2007 begannen die USA und Israel beispielsweise damit, Geräte anzugreifen und zu beschädigen, die im Iran zur Veredelung von Nuklearmaterial verwendet wurden, indem sie Sicherheitslücken im Microsoft Windows-Betriebssystem ausnutzten. Der Iran revanchierte sich, indem er massiv in seine eigenen Fähigkeiten zur Cyberkriegsführung investierte, die er sofort gegen die USA einsetzte. Es sei darauf hingewiesen, dass der Bereich der Cybersicherheit derzeit weithin als strategischer Bereich der nationalen Sicherheit und als Mittel für eine mögliche zukünftige Kriegsführung behandelt wird.
Das EITCA/IS-Zertifikat bietet einen umfassenden Nachweis beruflicher Kompetenzen im Bereich der IT-Sicherheit (Cybersecurity) von Grundlagen bis hin zu vertieften theoretischen Kenntnissen sowie praktischen Fähigkeiten in klassischen und Quantenkryptosystemen, sichere Computervernetzung, Computersystemsicherheit (einschließlich Sicherheit mobiler Geräte) Serversicherheit und Anwendungssicherheit (einschließlich Webanwendungssicherheit und Penetrationstests).
Die EITCA/IS Information Technologies Security Academy ist ein Weiterbildungs- und Zertifizierungsprogramm mit den referenzierten hochwertigen Open-Access-Inhalten, die in einem schrittweisen didaktischen Prozess organisiert sind und ausgewählt wurden, um den definierten Lehrplan angemessen zu behandeln, der einem internationalen Posten pädagogisch gleichwertig ist -Abschlussstudium in Cybersicherheit kombiniert mit dem digitalen Cybersicherheitstraining auf Branchenebene und übertrifft standardisierte Schulungsangebote in verschiedenen Bereichen der anwendbaren IT-Sicherheit, die auf dem Markt verfügbar sind. Die Inhalte des Zertifizierungsprogramms der EITCA Academy werden vom European Information Technologies Certification Institute EITCI in Brüssel spezifiziert und standardisiert. Dieses Programm wird aufgrund von Fortschritten im Bereich der Cybersicherheit gemäß den Richtlinien des EITCI-Instituts fortlaufend aktualisiert und unterliegt regelmäßigen Akkreditierungen.
Das EITCA/IS Information Technologies Security Academy-Programm umfasst relevante konstituierende europäische IT-Zertifizierungs-EITC-Programme. Die Liste der EITC-Zertifizierungen, die gemäß den Spezifikationen des European Information Technologies Certification Institute EITCI im vollständigen Programm der EITCA/IS Information Technologies Security Academy enthalten sind, ist unten aufgeführt. Sie können auf die entsprechenden EITC-Programme klicken, die in einer empfohlenen Reihenfolge aufgeführt sind, um sich einzeln für jedes EITC-Programm anzumelden (alternativ zur Anmeldung für das vollständige Programm der EITCA/IS Information Technologies Security Academy oben), um mit ihren individuellen Lehrplänen fortzufahren und sich auf die entsprechenden EITC-Prüfungen vorzubereiten. Das Bestehen aller Prüfungen für alle Substituenten-EITC-Programme führt zum Abschluss des EITCA/IS Information Technologies Security Academy-Programms und zur Erteilung der entsprechenden EITCA Academy-Zertifizierung (ergänzt durch alle ihre Substituenten-EITC-Zertifizierungen). Nach Bestehen jeder einzelnen EITC-Prüfung wird Ihnen auch das entsprechende EITC-Zertifikat ausgestellt, bevor Sie die gesamte EITCA-Akademie absolvieren.
Teil der EITC-Programme der EITCA/IS Information Technologies Security Academy

EITC/IS/WSA Windows Server-Administration
EITC/IS/WSA Windows Server Administration ist das europäische IT-Zertifizierungsprogramm für Administration und Sicherheitsmanagement in Windows Server, einem führenden Microsoft-Netzwerkbetriebssystem für Server.
Das Curriculum der EITC/IS/WSA Windows Server Administration konzentriert sich auf Kenntnisse und praktische Fähigkeiten in Administration und Sicherheitsmanagement in Microsoft Windows Server, organisiert in der folgenden Struktur, einschließlich umfassender videodidaktischer Inhalte als Referenz für diese EITC-Zertifizierung.
Windows Server ist ein Markenname für eine Gruppe von Serverbetriebssystemen, die von Microsoft seit 2003 veröffentlicht wurden. Nach Linux ist es eines der beliebtesten Betriebssysteme für Netzwerkserver. Es umfasst Active Directory, DNS-Server, DHCP-Server, Gruppenrichtlinien sowie viele andere beliebte Funktionen für moderne Netzwerkserver. Im Gegensatz zu Linux (dem beliebtesten Betriebssystem für Server) ist Microsoft Windows Server keine Open Source, sondern eine proprietäre Software.
Seit 2003 hat Microsoft eine Reihe von Serverbetriebssystemen unter dem Markennamen Windows Server veröffentlicht. Windows Server 2003 war die erste Windows Server Edition, die unter dieser Marke angeboten wurde. Windows NT 3.1 Advanced Server war die erste Serveredition, gefolgt von Windows NT 3.5 Server, Windows NT 3.51 Server, Windows NT 4.0 Server und Windows 2000 Server. Active Directory, DNS-Server, DHCP-Server, Gruppenrichtlinien und viele andere beliebte Funktionen wurden zum ersten Mal in Windows 2000 Server integriert.
Microsoft bietet in der Regel zehn Jahre Support für Windows Server, fünf Jahre Mainstream-Support und weitere fünf Jahre erweiterten Support. Diese Editionen enthalten auch eine umfassende Desktop-Oberfläche mit grafischer Benutzeroberfläche (GUI). Server Core- und Nano Server-Varianten wurden mit Windows Server 2008 R2 eingeführt, um den Betriebssystembedarf zu verringern. Um diese Updates von halbjährlichen Releases zu unterscheiden, bezeichnete Microsoft sie zwischen 2015 und 2021 als „Long-Term Servicing“-Releases. (siehe unten.)
Microsoft hat in den letzten sechzehn Jahren alle vier Jahre eine Hauptversion von Windows Server veröffentlicht, wobei eine Nebenversion zwei Jahre nach einer Hauptversion veröffentlicht wurde. Den Titeln der Nebenversionen wurde das Suffix „R2“ hinzugefügt. Microsoft hat dieses Muster im Oktober 2018 verletzt, als es Windows Server 2019 veröffentlichte, das "Windows Server 2016 R2" sein sollte. Darüber hinaus ist Windows Server 2022 eine kleine Verbesserung gegenüber der Vorgängerversion.
Folgendes ist in den Vollversionen enthalten:
- Windows Server 2003 ist ein Serverbetriebssystem (April 2003)
- Windows Server 2003 R2 ist eine Version von Windows Server 2003. (Dezember 2005)
- Windows Server 2008 ist ein von Microsoft entwickeltes Serverbetriebssystem (Februar 2008)
- Windows Server 2008 R2 ist die neueste Version von Windows Server (Oktober 2009)
- Windows Server 2012 ist ein Serverbetriebssystem (September 2012)
- Windows Server 2012 R2 ist die neueste Version von Windows Server (Oktober 2013)
2016 ist die neueste Version von Windows Server (September 2016) - Windows Server 2019 ist die neueste Version von Windows Server (Oktober 2018)
- Microsoft Windows Server 2022 (August 2021)
Zu den Hauptfunktionen des Windows-Servers gehören:
- Sicherheit mit mehreren Schutzebenen: Verbesserung der Sicherheitslage des Unternehmens durch den Beginn des Betriebssystems.
- Hybridfunktionen von Azure: Steigerung der IT-Effizienz durch die Erweiterung von Rechenzentren auf Azure.
- Plattform für eine Vielzahl von Anwendungen: Bietet Entwicklern und IT-Experten die Tools, die sie zum Erstellen und Bereitstellen einer Vielzahl von Apps mithilfe einer Anwendungsplattform benötigen.
- Integration mit Azure: Optionen wie Azure Hybrid Benefit und Extended Security Updates sind verfügbar.
Active Directory (AD) von Microsoft ist ein Verzeichnisdienst für Windows-Domänennetzwerke. Ein Active Directory-Domänencontroller authentifiziert und autorisiert alle Benutzer und Computer in einem Windows-Domänennetzwerk, weist Sicherheitsrichtlinien zu und setzt sie durch und installiert oder aktualisiert Software. Ein Schema beschreibt die Arten von Objekten, die in einer Active Directory-Datenbank gespeichert werden können, sowie die Eigenschaften und Informationen, die die Objekte darstellen. Eine Gesamtstruktur ist eine Gruppe von Bäumen, die einen globalen Katalog, ein Verzeichnisschema, eine logische Struktur und eine Verzeichniskonfiguration gemeinsam nutzen. Ein Baum ist eine Sammlung von einer oder mehreren Domänen, die in einer transitiven Vertrauenshierarchie in einem kontinuierlichen Namespace verknüpft sind. Eine Domäne ist eine logische Sammlung von Objekten (Computern, Benutzern und Geräten), die eine Active Directory-Datenbank gemeinsam nutzen. Die DNS-Namensstruktur, bei der es sich um den Active Directory-Namespace handelt, wird verwendet, um Domänen zu identifizieren. Benutzer in einer Domäne können dank Vertrauensstellungen auf Ressourcen in einer anderen Domäne zugreifen. Wenn eine untergeordnete Domäne erstellt wird, werden automatisch Vertrauensstellungen zwischen den übergeordneten und untergeordneten Domänen erstellt. Domänencontroller sind Server, die mit der Rolle der Active Directory-Domänendienste konfiguriert sind und eine Active Directory-Datenbank für eine bestimmte Domäne hosten. Sites sind Gruppen miteinander verbundener Subnetze an einem bestimmten geografischen Ort. Auf einem Domänencontroller vorgenommene Änderungen werden auf alle anderen Domänencontroller repliziert, die dieselbe Active Directory-Datenbank verwenden (d. h. innerhalb derselben Domäne). Der Knowledge Consistency Checker (KCC)-Dienst verwaltet den Datenverkehr, indem er eine Replikationstopologie von Site-Links basierend auf den definierten Sites erstellt. Die Änderungsmitteilung aktiviert Domänencontroller, um einen Pull-Replikationszyklus zu starten, was zu einer häufigen und automatischen standortinternen Replikation führt. Die Intersite-Replikationsintervalle sind normalerweise kürzer und hängen eher von der verstrichenen Zeit als von der Änderungsbenachrichtigung ab. Während die meisten Domänenupdates auf jedem Domänencontroller ausgeführt werden können, können einige Aktivitäten nur auf einem bestimmten Server ausgeführt werden. Diese Server werden als „Operation Master“ (ursprünglich Flexible Single Master Operations oder FSMOs) bezeichnet. Schema-Master, Domänennamen-Master, PDC-Emulator, RID-Master und Infrastruktur-Master sind die Betriebsmasterpositionen. Die Funktionsebene einer Domäne oder Gesamtstruktur bestimmt, welche erweiterten Funktionen in der Gesamtstruktur oder Domäne verfügbar sind. Für Windows Server 2016 und 2019 werden verschiedene Funktionsstufen angeboten. Alle Domänencontroller sollten so konfiguriert werden, dass sie die höchste Funktionsebene für Gesamtstrukturen und Domänen bereitstellen. Zu administrativen Zwecken werden Container verwendet, um Active Directory-Objekte zu gruppieren. Die Domäne, Builtin, Benutzer, Computer und Domänencontroller sind die Standardcontainer. Organisationseinheiten (OUs) sind Objektcontainer, die verwendet werden, um einer Domäne eine Verwaltungshierarchie bereitzustellen. Sie unterstützen sowohl die administrative Delegierung als auch die Bereitstellung von Gruppenrichtlinienobjekten. Die Active Directory-Datenbank wird in einer Domäne verwendet, um Benutzer und Computer für alle Computer und Benutzer der Domäne zu authentifizieren. Eine Arbeitsgruppe ist eine alternative Einrichtung, bei der jeder Computer für die Authentifizierung seiner eigenen Benutzer verantwortlich ist. Alle Maschinen in der Domäne haben Zugriff auf Domänenkonten, die in der Active Directory-Datenbank verwaltet werden. Die Security Account Manager (SAM)-Datenbank jedes lokalen Computers speichert lokale Konten, auf die nur dieser Computer zugreifen kann. Verteilergruppen und Sicherheitsgruppen sind die beiden Arten von Benutzergruppen, die von Active Directory unterstützt werden. E-Mail-Anwendungen wie Microsoft Exchange verwenden Verteilergruppen. Benutzerkonten werden in Sicherheitsgruppen gruppiert, um Berechtigungen und Berechtigungen anzuwenden. Der Bereich von Active Directory-Gruppen kann auf Universal, Global oder Domain Local festgelegt werden. Jedes Konto in der Gesamtstruktur kann Mitglied einer universellen Gruppe sein, die jeder Ressource in der Gesamtstruktur zugewiesen werden kann. Jedes Konto in der Domäne kann Mitglied einer globalen Gruppe sein und jeder Ressource in der Gesamtstruktur zugewiesen werden. Jedes Konto in der Gesamtstruktur kann Mitglied einer lokalen Domänengruppe sein, die einer beliebigen Domänenressource zugewiesen werden kann. Andere universelle Gruppen und globale Gruppen aus dem Wald finden sich in universellen Gruppen. Globale Gruppen derselben Domäne können zusätzliche globale Gruppen enthalten. Lokale Domänengruppen können sowohl universelle und globale Gesamtstrukturgruppen als auch lokale Domänengruppen derselben Domäne enthalten. Microsoft empfiehlt die Verwendung globaler Gruppen zum Organisieren von Benutzern und lokale Domänengruppen zum Anordnen von Ressourcen zum Verwalten von Konten und Ressourcen.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/WSA Windows Server Administration Certification Curriculum verweist auf Open-Access-Lehrmaterialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/IS/LSA Linux-Systemverwaltung
EITC/IS/LSA Linux System Administration ist das europäische IT-Zertifizierungsprogramm für Administration und Sicherheitsmanagement in Linux, einem Open-Source-Netzwerkbetriebssystem, das häufig in Servern mit einer weltweit führenden Position verwendet wird.
Das Curriculum der EITC/IS/LSA Linux System Administration konzentriert sich auf Kenntnisse und praktische Fähigkeiten in Administration und Sicherheitsmanagement unter Linux, die in der folgenden Struktur organisiert sind, und umfasst umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung.
Linux ist eine Sammlung von Open-Source-Unix-ähnlichen Betriebssystemen, die allgemein als führender Standard für Netzwerkserver-Betriebssysteme anerkannt sind und auf dem Linux-Kernel von Linus Torvalds basieren, der erstmals 1991 veröffentlicht wurde. Der Linux-Kernel sowie begleitende Systemsoftware und Bibliotheken werden üblicherweise in einer Linux-Distribution gebündelt, von denen viele unter dem GNU-Projekt lizenziert sind. Obwohl viele Linux-Distributionen den Begriff „Linux“ verwenden, bevorzugt die Free Software Foundation den Begriff „GNU/Linux“, um die Bedeutung von GNU-Software zu unterstreichen.
Debian, Fedora und Ubuntu sind alle beliebte Linux-Distributionen. Red Hat Enterprise Linux und SUSE Linux Enterprise Server sind zwei kommerzielle Distributionen. Ein Windowing-System wie X11 oder Wayland sowie eine Desktop-Umgebung wie GNOME oder KDE Plasma sind in Desktop-Linux-Distributionen enthalten. Serververteilungen können Grafiken enthalten oder nicht oder können einen Lösungsstapel wie LAMP enthalten. Jeder kann eine Distribution für jeden Zweck produzieren, da Linux eine frei verteilbare Open-Source-Software ist.
Linux wurde für die auf der x86-Architektur basierenden PCs von Intel entwickelt, wurde jedoch später auf mehr Plattformen portiert als jedes andere Betriebssystem. Linux hat aufgrund der Dominanz des Linux-basierten Android auf Smartphones die größte installierte Basis aller Allzweck-Betriebssysteme. Obwohl Linux nur von 2.3 Prozent der Desktop-Computer verwendet wird, dominiert das Chromebook, auf dem das Linux-Kernel-basierte Chrome OS ausgeführt wird, den US-amerikanischen K-12-Bildungsmarkt und macht etwa 20 % aller Laptop-Verkäufe unter 300 US-Dollar aus . Linux ist das beliebteste Betriebssystem für Server (etwa 96.4 Prozent der Top 1 Million Webserver laufen mit Linux) sowie für andere große Eisensysteme wie Mainframe-Computer und TOP500-Supercomputer (seit November 2017, nachdem alle Konkurrenten schrittweise eliminiert wurden).
Linux ist auch für eingebettete Systeme verfügbar, das sind Geräte, deren Betriebssystem oft in die Firmware integriert und stark an das System angepasst ist. Router, Automatisierungssteuerung, Smart Home-Technologie, Fernseher (Samsung und LG Smart TVs verwenden Tizen bzw. WebOS), Autos (Tesla, Audi, Mercedes-Benz, Hyundai und Toyota verwenden alle Linux), digitale Videorekorder, Videospielkonsolen , und Smartwatches sind alles Beispiele für Linux-basierte Geräte. Die Avionik von Falcon 9 und Dragon 2 basiert auf einer angepassten Linux-Version.
Linux ist eines der bekanntesten Beispiele für die Zusammenarbeit von freier und Open-Source-Software. Gemäß den Regeln ihrer einzelnen Lizenzen, wie der GNU General Public License, darf der Quellcode von jedermann kommerziell oder nicht-kommerziell verwendet, aktualisiert und verbreitet werden.
Laut mehreren Open-Source-Entwicklern wurde der Linux-Kernel nicht entworfen, sondern durch natürliche Selektion weiterentwickelt. Obwohl die Unix-Architektur als Gerüst fungierte, glaubt Torvalds, dass „Linux sich mit vielen Mutationen entwickelt hat – und weil die Mutationen nicht zufällig waren, waren sie schneller und gerichteter als Alpha-Teilchen in der DNA.“ Die revolutionären Eigenschaften von Linux, so Eric S. Raymond, sind eher sozial als technisch: Vor Linux wurde anspruchsvolle Software in mühevoller Kleinarbeit von kleinen Gruppen entwickelt, aber „Linux ist ganz anders aufgewachsen. Es wurde von Anfang an fast versehentlich von großen Gruppen von Freiwilligen gehackt, die ausschließlich über das Internet kommunizierten. Die dämlich einfache Technik, jede Woche zu veröffentlichen und innerhalb von Tagen von Hunderten von Benutzern Eingaben zu erhalten, um eine Form der schnellen darwinistischen Auswahl der von den Entwicklern eingebrachten Mutationen zu erzeugen, anstatt strenge Standards oder Diktaturen, wurde verwendet, um die Qualität zu erhalten.“ „Linux wurde nicht entwickelt, es hat sich weiterentwickelt“, sagt Bryan Cantrill, Ingenieur für ein konkurrierendes Betriebssystem, sieht dies jedoch als Einschränkung und behauptet, dass einige Funktionen, insbesondere solche im Zusammenhang mit der Sicherheit, nicht weiterentwickelt werden können, weil „dies nicht Letztendlich ist es kein biologisches System, sondern ein Softwaresystem.“ Ein Linux-basiertes System ist ein modulares Unix-ähnliches Betriebssystem, das einen Großteil seiner architektonischen Inspiration aus den in den 1970er und 1980er Jahren entwickelten Unix-Prinzipien bezieht. Ein monolithischer Kernel, der Linux-Kernel, wird in einem solchen System verwendet, um Prozesssteuerung, Netzwerk, Peripheriezugriff und Dateisysteme zu handhaben. Gerätetreiber werden entweder direkt in den Kernel integriert oder als Module hinzugefügt, die geladen werden, während das System läuft.
Das GNU-Benutzerland ist ein wichtiges Merkmal der meisten Linux-basierten Systeme, mit Ausnahme von Android. Die Toolchain ist eine breite Sammlung von Programmierwerkzeugen, die für die Linux-Entwicklung unerlässlich sind (einschließlich der Compiler, die zum Erstellen des Linux-Kernels selbst verwendet werden), und die Coreutils implementieren viele grundlegende Unix-Tools. Die Implementierung der C-Bibliothek des Projekts funktioniert als Wrapper für die Systemaufrufe des Linux-Kernels, die für die Kernel-Userspace-Schnittstelle erforderlich sind. , und die coreutils implementieren viele grundlegende Unix-Tools. Im Rahmen des Projekts wird auch Bash, eine beliebte CLI-Shell, entwickelt. Die grafische Benutzeroberfläche (oder GUI) der meisten Linux-Systeme basiert auf einer Implementierung des X Window Systems. In jüngerer Zeit hat die Linux-Community daran gearbeitet, X11 durch Wayland als Ersatz-Display-Server-Protokoll zu ersetzen. Linux-Systeme profitieren von mehreren anderen Open-Source-Softwareinitiativen.
Zu den installierten Komponenten eines Linux-Systems gehören die folgenden:
- GNU GRUB, LILO, SYSLINUX oder Gummiboot sind Beispiele für Bootloader. Dies ist eine Software, die beim Einschalten des Computers und nach der Firmware-Initialisierung ausgeführt wird, um den Linux-Kernel in den Hauptspeicher des Computers zu laden.
- Ein Init-Programm wie sysvinit oder das neuere systemd, OpenRC oder Upstart. Dies ist der anfängliche Prozess, der vom Linux-Kernel gestartet wird, und befindet sich ganz oben im Prozessbaum; mit anderen Worten, init ist der Ausgangspunkt für alle anderen Prozesse. Es initiiert Aufgaben wie Systemdienste und Anmeldeaufforderungen (ob grafisch oder im Terminalmodus).
- Softwarebibliotheken sind Codesammlungen, die von anderen Programmen verwendet werden können. Der dynamische Linker, der die Verwendung dynamischer Bibliotheken auf Linux-Systemen handhabt, die ausführbare Dateien im ELF-Format verwenden, ist als ld-linux.so bekannt. Wenn das System so eingerichtet ist, dass der Benutzer selbst Anwendungen generieren kann, werden Header-Dateien eingebunden, um die Schnittstelle der installierten Bibliotheken zu beschreiben. Neben der GNU C Library (glibc), der am weitesten verbreiteten Softwarebibliothek auf Linux-Systemen, gibt es weitere Bibliotheken wie SDL und Mesa.
- Die GNU-C-Bibliothek ist die Standard-C-Standardbibliothek, die zum Ausführen von C-Programmen auf einem Computersystem erforderlich ist. Es wurden Alternativen für eingebettete Systeme entwickelt, darunter musl, EGLIBC (ein ursprünglich von Debian verwendeter glibc-Klon) und uClibc (erstellt für uClinux), die letzten beiden werden jedoch nicht mehr gepflegt. Zum Einsatz kommt Bionic, die Android-eigene C-Bibliothek.
- GNU coreutils ist die Standardimplementierung grundlegender Unix-Befehle. Für eingebettete Geräte gibt es Alternativen wie die Copyleft-BusyBox und die BSD-lizenzierte Toybox.
- Widget-Toolkits sind Bibliotheken zum Erstellen von grafischen Benutzeroberflächen (GUIs) von Softwareanwendungen. GTK und Clutter, erstellt vom GNOME-Projekt, Qt, entwickelt vom Qt-Projekt und geleitet von The Qt Company, und Enlightenment Foundation Libraries (EFL), die hauptsächlich vom Enlightenment-Team verwaltet werden, gehören zu den verfügbaren Widget-Toolkits.
- Zur Verwaltung von Paketen wird ein Paketverwaltungssystem wie dpkg oder RPM verwendet. Pakete können auch aus Quell-Tarballs oder Binär-Tarballs erstellt werden.
- Befehlsshells und Fensterumgebungen sind Beispiele für Benutzeroberflächenprogramme.
Die Benutzerschnittstelle, oft als Shell bekannt, ist typischerweise eine Befehlszeilenschnittstelle (CLI), eine grafische Benutzerschnittstelle (GUI) oder an die begleitende Hardware gekoppelte Steuerelemente. Die typische Benutzeroberfläche auf Desktop-PCs ist normalerweise grafisch, während die CLI häufig über Terminalemulatorfenster oder eine separate virtuelle Konsole zugänglich ist.
Textbasierte Benutzeroberflächen oder CLI-Shells verwenden Text sowohl für die Eingabe als auch für die Ausgabe. Die für das GNU-Projekt erstellte Bourne-Again-Shell (bash) ist die am weitesten verbreitete Shell unter Linux. Die CLI wird vollständig von den meisten Low-Level-Linux-Komponenten verwendet, einschließlich verschiedener Abschnitte des Userland. Die CLI eignet sich besonders gut für die Automatisierung wiederholter oder verzögerter Vorgänge und ermöglicht eine relativ einfache Kommunikation zwischen Prozessen.
Die GUI-Shells, vollgepackt mit vollständigen Desktop-Umgebungen wie KDE Plasma, GNOME, MATE, Cinnamon, LXDE, Pantheon und Xfce, sind die beliebtesten Benutzeroberflächen auf Desktop-Systemen, während es eine Reihe anderer Benutzeroberflächen gibt. Das X Window System, auch als „X“ bekannt, liegt den meisten gängigen Benutzeroberflächen zugrunde. Es ermöglicht Netzwerktransparenz, indem es ermöglicht, dass eine grafische Anwendung, die auf einem Computer läuft, auf einem anderen angezeigt wird, wo ein Benutzer damit interagieren kann; Einige X Window System-Erweiterungen können jedoch nicht über das Netzwerk arbeiten. Es gibt mehrere X-Display-Server, von denen der beliebteste X.Org Server ist, der die Referenzimplementierung ist.
Server-Distributionen können eine Befehlszeilenschnittstelle für Entwickler und Administratoren bereitstellen, können aber auch eine maßgeschneiderte Schnittstelle für Endbenutzer enthalten, die auf den Anwendungsfall des Systems zugeschnitten ist. Auf diese benutzerdefinierte Schnittstelle wird über einen Client zugegriffen, der auf einem anderen System läuft, das nicht unbedingt Linux-basiert ist.
Für X11 gibt es verschiedene Arten von Fenstermanagern, einschließlich Kacheln, Dynamisch, Stapeln und Zusammensetzen. Fenstermanager interagieren mit dem X Window System und ermöglichen Ihnen, die Position und das Aussehen einzelner Anwendungsfenster zu steuern. Einfachere X-Window-Manager wie dwm, ratpoison, i3wm oder herbstluftwm haben eine minimalistische Oberfläche, während komplexere Window-Manager wie FVWM, Enlightenment oder Window Maker zusätzliche Funktionen wie eine integrierte Taskleiste und Designs enthalten, aber dennoch im Vergleich zu . leichtgewichtig sind Desktop-Umgebungen. Fenstermanager wie Mutter (GNOME), KWin (KDE) und Xfwm (xfce) sind in den meisten Desktop-Umgebungen in der Grundinstallation enthalten, Benutzer können jedoch auch einen anderen Fenstermanager verwenden, wenn sie dies bevorzugen.
Wayland ist ein Display-Server-Protokoll, das das X11-Protokoll ersetzen soll, aber ab 2014 noch nicht weit verbreitet ist. Wayland benötigt im Gegensatz zu X11 keinen externen Window-Manager oder Compositing-Manager. Als Ergebnis dient ein Wayland-Compositor als Anzeigeserver, Fenstermanager und Compositing-Manager in einem. Die Referenzimplementierung von Wayland ist Weston, obwohl Mutter und KWin von GNOME und KDE als eigenständige Anzeigeserver auf Wayland konvertiert werden. Seit Version 19 wurde Enlightenment erfolgreich portiert.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/LSA Linux System Administration Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
Grundlagen des EITC/IS/CNF-Computernetzwerks
EITC/IS/CNF Computer Networking Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der grundlegenden Computernetzwerke.
Das Curriculum der EITC/IS/CNF Computer Networking Fundamentals konzentriert sich auf Kenntnisse und praktische Fähigkeiten in den Grundlagen der Computernetzwerke, die in der folgenden Struktur organisiert sind, und umfasst umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung.
Ein Computernetzwerk ist eine Sammlung von Computern, die Ressourcen zwischen Netzwerkknoten teilen. Um miteinander zu kommunizieren, verwenden die Computer Standardkommunikationsprotokolle über digitale Verbindungen. Telekommunikationsnetztechnologien, die auf physikalisch verdrahteten, optischen und drahtlosen Hochfrequenzsystemen basieren, die in einer Reihe von Netztopologien zusammengestellt werden können, bilden diese Verbindungen. Personalcomputer, Server, Netzwerkhardware und andere spezialisierte oder Allzweck-Hosts können alle Knoten in einem Computernetzwerk sein. Netzwerkadressen und Hostnamen können verwendet werden, um sie zu identifizieren. Hostnamen dienen als leicht zu merkende Bezeichnungen für Knoten und werden nach der Zuweisung selten geändert. Kommunikationsprotokolle wie das Internet Protocol verwenden Netzwerkadressen, um Knoten zu lokalisieren und zu identifizieren. Sicherheit ist einer der kritischsten Aspekte von Netzwerken. Dieser EITC-Lehrplan behandelt die Grundlagen der Computernetzwerke.
Ein Computernetzwerk ist eine Sammlung von Computern, die Ressourcen zwischen Netzwerkknoten teilen. Um miteinander zu kommunizieren, verwenden die Computer Standardkommunikationsprotokolle über digitale Verbindungen. Telekommunikationsnetztechnologien, die auf physikalisch verdrahteten, optischen und drahtlosen Hochfrequenzsystemen basieren, die in einer Reihe von Netztopologien zusammengestellt werden können, bilden diese Verbindungen. Personalcomputer, Server, Netzwerkhardware und andere spezialisierte oder Allzweck-Hosts können alle Knoten in einem Computernetzwerk sein. Netzwerkadressen und Hostnamen können verwendet werden, um sie zu identifizieren. Hostnamen dienen als leicht zu merkende Bezeichnungen für Knoten und werden nach der Zuweisung selten geändert. Kommunikationsprotokolle wie das Internet Protocol verwenden Netzwerkadressen, um Knoten zu lokalisieren und zu identifizieren. Sicherheit ist einer der kritischsten Aspekte von Netzwerken.
Das zur Übertragung von Signalen verwendete Übertragungsmedium, Bandbreite, Kommunikationsprotokolle zum Organisieren des Netzwerkverkehrs, Netzwerkgröße, Topologie, Verkehrssteuerungsmechanismus und organisatorisches Ziel sind alles Faktoren, die zur Klassifizierung von Computernetzwerken verwendet werden können.
Der Zugriff auf das World Wide Web, digitales Video, digitale Musik, die gemeinsame Nutzung von Anwendungs- und Speicherservern, Druckern und Faxgeräten sowie die Nutzung von E-Mail- und Instant Messaging-Programmen werden über Computernetzwerke unterstützt.
Ein Computernetzwerk verwendet mehrere Technologien wie E-Mail, Instant Messaging, Online-Chat, Audio- und Videotelefongespräche und Videokonferenzen, um zwischenmenschliche Verbindungen über elektronische Mittel zu erweitern. Ein Netzwerk ermöglicht die gemeinsame Nutzung von Netzwerk- und Computerressourcen. Benutzer können auf Netzwerkressourcen zugreifen und diese verwenden, z. B. ein Dokument auf einem freigegebenen Netzwerkdrucker drucken oder auf ein freigegebenes Speicherlaufwerk zugreifen und dieses verwenden. Ein Netzwerk ermöglicht es autorisierten Benutzern, auf Informationen zuzugreifen, die auf anderen Computern im Netzwerk gespeichert sind, indem Dateien, Daten und andere Arten von Informationen übertragen werden. Um Aufgaben zu erledigen, nutzt das verteilte Rechnen die über ein Netzwerk verteilten Computerressourcen.
Die Übertragung im Paketmodus wird von den meisten aktuellen Computernetzwerken verwendet. Ein paketvermitteltes Netzwerk transportiert ein Netzwerkpaket, das eine formatierte Dateneinheit ist.
Steuerinformationen und Benutzerdaten sind die beiden Arten von Daten in Paketen (Nutzdaten). Die Steuerinformationen umfassen Informationen wie Quell- und Zielnetzwerkadressen, Fehlererkennungscodes und Sequenzierungsinformationen, die das Netzwerk benötigt, um Benutzerdaten zu übertragen. Steuerdaten sind typischerweise in Paket-Headern und -Trailern enthalten, mit Nutzdaten in der Mitte.
Die Bandbreite des Übertragungsmediums kann unter Verwendung von Paketen besser unter Benutzern geteilt werden als bei leitungsvermittelten Netzwerken. Wenn ein Benutzer keine Pakete überträgt, kann die Verbindung mit Paketen von anderen Benutzern gefüllt werden, wodurch die Kosten mit minimalen Störungen geteilt werden können, solange die Verbindung nicht missbraucht wird. Oft ist der Weg, den ein Paket durch ein Netzwerk nehmen muss, gerade nicht verfügbar. In diesem Fall wird das Paket in die Warteschlange gestellt und nicht gesendet, bis ein Link verfügbar wird.
Physikalische Verbindungstechnologien für Paketnetzwerke begrenzen häufig die Paketgröße auf eine bestimmte maximale Übertragungseinheit (MTU). Eine größere Nachricht kann vor der Übertragung zerlegt werden, und die Pakete werden wieder zusammengesetzt, um die ursprüngliche Nachricht zu bilden, sobald sie ankommen.
Topologien gemeinsamer Netzwerke
Die physischen oder geografischen Standorte von Netzknoten und Verbindungen haben einen geringen Einfluss auf ein Netz, aber die Architektur der Verbindungen eines Netzes kann einen erheblichen Einfluss auf seinen Durchsatz und seine Zuverlässigkeit haben. Ein einzelner Ausfall in verschiedenen Technologien wie Bus- oder Sternnetzen kann zum Ausfall des gesamten Netzes führen. Im Allgemeinen gilt: Je mehr Verbindungen ein Netzwerk hat, desto stabiler ist es; jedoch, desto teurer ist die Einrichtung. Daher sind die meisten Netzwerkdiagramme nach ihrer Netzwerktopologie organisiert, die eine Karte der logischen Beziehungen der Netzwerkhosts darstellt.
Im Folgenden finden Sie Beispiele für gängige Layouts:
Über dieses Medium sind alle Teilnehmer eines Busnetzes mit einem gemeinsamen Medium verbunden. Dies war die ursprüngliche Ethernet-Konfiguration, bekannt als 10BASE5 und 10BASE2. Auf der Sicherungsschicht ist dies immer noch eine vorherrschende Architektur, obwohl aktuelle Varianten der physikalischen Schicht Punkt-zu-Punkt-Verbindungen verwenden, um stattdessen einen Stern oder einen Baum zu bilden.
Alle Knoten sind mit einem zentralen Knoten in einem Sternnetz verbunden. Dies ist die übliche Konfiguration in einem kleinen geswitchten Ethernet-LAN, in dem jeder Client mit einem zentralen Netzwerk-Switch verbunden ist, und logischerweise in einem drahtlosen LAN, in dem jeder drahtlose Client mit dem zentralen drahtlosen Zugangspunkt verbunden ist.
Jeder Knoten ist mit seinem linken und rechten Nachbarknoten verbunden, wodurch ein Ringnetz gebildet wird, in dem alle Knoten verbunden sind und jeder Knoten den anderen Knoten erreichen kann, indem er Knoten nach links oder rechts durchquert. Diese Topologie wurde in Token-Ring-Netzwerken und dem Fiber Distributed Data Interface (FDDI) verwendet.
Mesh-Netzwerk: Jeder Knoten ist mit einer beliebigen Anzahl von Nachbarn so verbunden, dass jeder Knoten mindestens eine Traversierung hat.
Jeder Knoten im Netzwerk ist mit jedem anderen Knoten im Netzwerk verbunden.
Die Knoten in einem Baumnetzwerk sind in einer hierarchischen Reihenfolge angeordnet. Mit mehreren Switches und keinem redundanten Meshing ist dies die natürliche Topologie für ein größeres Ethernet-Netzwerk.
Die physische Architektur der Knoten eines Netzwerks repräsentiert nicht immer die Struktur des Netzwerks. Die Netzwerkarchitektur von FDDI beispielsweise ist ein Ring, aber die physische Topologie ist häufig ein Stern, da alle Verbindungen in der Nähe über einen einzigen physischen Standort geleitet werden können. Da jedoch gemeinsame Kanal- und Geräteplatzierungen aufgrund von Problemen wie Bränden, Stromausfällen und Überschwemmungen einzelne Fehlerquellen darstellen können, ist die physische Architektur nicht ganz bedeutungslos.
Overlay-Netzwerke
Ein virtuelles Netzwerk, das über einem anderen Netzwerk aufgebaut wird, wird als Overlay-Netzwerk bezeichnet. Virtuelle oder logische Links verbinden die Knoten des Overlay-Netzwerks. Jeder Link im zugrunde liegenden Netzwerk entspricht einem Pfad, der über mehrere physikalische Links verlaufen kann. Die Topologie des Overlay-Netzwerks kann (und tut es häufig) von der des zugrunde liegenden Netzwerks abweichen. Viele Peer-to-Peer-Netzwerke sind beispielsweise Overlay-Netzwerke. Sie sind als Knoten in einem virtuellen Netzwerk von Verbindungen eingerichtet, das über das Internet läuft.
Overlay-Netzwerke gibt es seit den Anfängen der Vernetzung, als Computersysteme über Telefonleitungen über Modems verbunden waren, bevor es ein Datennetzwerk gab.
Das Internet ist das sichtbarste Beispiel für ein Overlay-Netzwerk. Das Internet wurde ursprünglich als Erweiterung des Telefonnetzes konzipiert. Auch heute noch ermöglicht ein zugrundeliegendes Geflecht von Subnetzwerken mit sehr unterschiedlichen Topologien und Technologien jedem Internet-Knoten die Kommunikation mit nahezu jedem anderen. Zu den Methoden zum Abbilden eines vollständig verknüpften IP-Overlay-Netzwerks auf sein zugrunde liegendes Netzwerk gehören Adressauflösung und Routing.
Eine verteilte Hash-Tabelle, die Schlüssel auf Netzwerkknoten abbildet, ist ein weiteres Beispiel für ein Overlay-Netzwerk. Das zugrunde liegende Netzwerk ist in diesem Fall ein IP-Netzwerk, und das Overlay-Netzwerk ist eine schlüsselindizierte Tabelle (eigentlich eine Karte).
Overlay-Netzwerke wurden auch als eine Technik vorgeschlagen, um das Internet-Routing zu verbessern, beispielsweise durch Sicherstellen von Streaming-Medien höherer Qualität durch Dienstgütesicherungen. Frühere Vorschläge wie IntServ, DiffServ und IP Multicast haben nicht viel Anklang gefunden, da sie erfordern, dass alle Router im Netzwerk modifiziert werden. Andererseits kann ohne die Hilfe von Internetdienstanbietern ein Overlay-Netzwerk inkrementell auf End-Hosts installiert werden, auf denen die Overlay-Protokollsoftware ausgeführt wird. Das Overlay-Netzwerk hat keinen Einfluss darauf, wie Pakete zwischen Overlay-Knoten im zugrunde liegenden Netzwerk geroutet werden, kann jedoch die Reihenfolge der Overlay-Knoten regulieren, die eine Nachricht passiert, bevor sie ihr Ziel erreicht.
Verbindungen zum Internet
Elektrokabel, Glasfaser und freier Speicherplatz sind Beispiele für Übertragungsmedien (auch als physikalisches Medium bekannt), die zum Verbinden von Geräten verwendet werden, um ein Computernetzwerk aufzubauen. Die Software zum Umgang mit Medien ist in den Schichten 1 und 2 des OSI-Modells definiert – der physikalischen Schicht und der Sicherungsschicht.
Ethernet bezieht sich auf eine Gruppe von Technologien, die Kupfer- und Glasfasermedien in der LAN-Technologie (Local Area Network) verwenden. IEEE 802.3 definiert die Medien- und Protokollstandards, die es Netzwerkgeräten ermöglichen, über Ethernet zu kommunizieren. In einigen Wireless-LAN-Standards werden Funkwellen verwendet, während in anderen Infrarotsignale verwendet werden. Die Stromverkabelung in einem Gebäude dient zum Transport von Daten in der Powerline-Kommunikation.
Bei Computernetzwerken werden die folgenden drahtgebundenen Technologien verwendet.
Koaxialkabel werden häufig für lokale Netzwerke in Kabelfernsehsystemen, Bürogebäuden und anderen Arbeitsstätten verwendet. Die Übertragungsgeschwindigkeit variiert zwischen 200 Millionen Bits pro Sekunde und 500 Millionen Bits pro Sekunde.
Die ITU-T G.hn-Technologie erstellt ein lokales Hochgeschwindigkeitsnetzwerk unter Verwendung vorhandener Hausverkabelung (Koaxialkabel, Telefonleitungen und Stromleitungen).
Wired Ethernet und andere Standards verwenden Twisted-Pair-Kabel. Es besteht normalerweise aus vier Paaren Kupferkabeln, die sowohl zur Übertragung von Sprache als auch Daten verwendet werden können. Übersprechen und elektromagnetische Induktion werden reduziert, wenn zwei Drähte miteinander verdrillt werden. Die Übertragungsgeschwindigkeit reicht von 2 bis 10 Gigabit pro Sekunde. Es gibt zwei Arten von Twisted-Pair-Verkabelungen: Unshielded Twisted Pair (UTP) und Shielded Twisted Pair (STP) (STP). Jedes Formular ist in einer Vielzahl von Kategoriebewertungen verfügbar, sodass es in einer Vielzahl von Situationen verwendet werden kann.
Rote und blaue Linien auf einer Weltkarte
Auf einer Karte aus dem Jahr 2007 sind unterseeische Glasfaser-Telekommunikationsleitungen dargestellt.
Eine Glasfaser ist eine optische Faser. Es verwendet Laser und optische Verstärker, um Lichtimpulse zu übertragen, die Daten darstellen. Optische Fasern bieten gegenüber Metallleitungen mehrere Vorteile, einschließlich minimaler Übertragungsverluste und Widerstandsfähigkeit gegenüber elektrischen Störungen. Optische Fasern können gleichzeitig zahlreiche Datenströme auf unterschiedlichen Wellenlängen des Lichts übertragen, indem das dichte Wellenmultiplexverfahren verwendet wird, wodurch die Datenübertragungsrate auf Milliarden von Bits pro Sekunde erhöht wird. Glasfasern werden in Seekabeln verwendet, die Kontinente verbinden und für lange Kabelstrecken mit sehr hohen Datenraten verwendet werden können. Singlemode-Glasfaser (SMF) und Multimode-Glasfaser (MMF) sind die beiden Hauptformen der Faseroptik (MMF). Singlemode-Fasern bieten den Vorteil, dass sie ein kohärentes Signal über Dutzende, wenn nicht sogar Hunderte von Kilometern aufrechterhalten. Multimode-Glasfaser ist kostengünstiger zu terminieren, hat aber je nach Datenrate und Kabelqualität eine maximale Länge von nur wenigen hundert oder sogar einigen Dutzend Metern.
Drahtlose Netzwerke
Drahtlose Netzwerkverbindungen können unter Verwendung von Funk oder anderen elektromagnetischen Kommunikationsverfahren hergestellt werden.
Die terrestrische Mikrowellenkommunikation verwendet erdbasierte Sender und Empfänger, die wie Satellitenschüsseln aussehen. Mikrowellen am Boden arbeiten im niedrigen Gigahertz-Bereich und beschränken die gesamte Kommunikation auf Sichtverbindung. Die Relaisstationen sind etwa 40 Kilometer voneinander entfernt.
Satelliten, die über Mikrowellen kommunizieren, werden auch von Kommunikationssatelliten verwendet. Die Satelliten befinden sich normalerweise in einer geosynchronen Umlaufbahn, die 35,400 Kilometer (22,000 Meilen) über dem Äquator liegt. Sprach-, Daten- und Fernsehsignale können von diesen erdumlaufenden Geräten empfangen und weitergeleitet werden.
In Mobilfunknetzen werden verschiedene Funkkommunikationstechnologien verwendet. Die Systeme unterteilen das abgedeckte Gebiet in mehrere geografische Gruppen. Ein Transceiver mit geringer Leistung versorgt jeden Bereich.
Wireless LANs verwenden eine Hochfrequenz-Funktechnologie, die mit dem digitalen Mobilfunk vergleichbar ist, um zu kommunizieren. Die Spread-Spectrum-Technologie wird in drahtlosen LANs verwendet, um die Kommunikation zwischen mehreren Geräten auf kleinem Raum zu ermöglichen. Wi-Fi ist eine Art von drahtloser Funkwellentechnologie mit offenen Standards, die von IEEE 802.11 definiert ist.
Optische Freiraumkommunikation kommuniziert über sichtbares oder unsichtbares Licht. In den meisten Fällen wird eine Sichtlinienausbreitung verwendet, was die physische Positionierung von Verbindungsgeräten einschränkt.
Das Interplanetare Internet ist ein Funk- und optisches Netzwerk, das das Internet auf interplanetare Dimensionen erweitert.
RFC 1149 war eine lustige Aprilscherz-Anfrage nach Kommentaren zu IP über Avian Carriers. 2001 wurde es in die Praxis umgesetzt.
Die letzten beiden Situationen haben eine lange Roundtrip-Verzögerung, die zu einer verzögerten Zweiwegekommunikation führt, aber die Übertragung großer Datenmengen nicht verhindert (sie können einen hohen Durchsatz haben).
Knoten in einem Netzwerk
Netzwerke werden unter Verwendung zusätzlicher grundlegender Systembauelemente wie Netzwerkschnittstellencontroller (NICs), Repeater, Hubs, Bridges, Switches, Router, Modems und Firewalls zusätzlich zu allen physischen Übertragungsmedien aufgebaut. Jedes Gerät enthält fast immer verschiedene Bausteine und kann so mehrere Aufgaben erledigen.
Schnittstellen zum Internet
Eine Netzwerkschnittstellenschaltung, die einen ATM-Port enthält.
Eine Zusatzkarte, die als ATM-Netzwerkschnittstelle dient. Eine Vielzahl von Netzwerkschnittstellen ist vorinstalliert.
Ein Netzwerkschnittstellencontroller (NIC) ist eine Computerhardware, die einen Computer mit einem Netzwerk verbindet und Netzwerkdaten auf niedriger Ebene verarbeiten kann. Ein Anschluss zum Mitnehmen eines Kabels oder einer Antenne zum drahtlosen Senden und Empfangen sowie die dazugehörige Schaltung finden Sie auf der NIC.
Jeder Netzwerkschnittstellen-Controller in einem Ethernet-Netzwerk hat eine eindeutige Media Access Control (MAC)-Adresse, die normalerweise im permanenten Speicher des Controllers gespeichert wird. Das Institute of Electrical and Electronics Engineers (IEEE) verwaltet und überwacht die Eindeutigkeit der MAC-Adressen, um Adresskonflikte zwischen Netzwerkgeräten zu vermeiden. Eine Ethernet-MAC-Adresse ist sechs Oktette lang. Die drei höchstwertigen Oktette werden für die Identifizierung des NIC-Herstellers zugewiesen. Diese Hersteller weisen die drei am wenigsten signifikanten Oktette jeder Ethernet-Schnittstelle, die sie bauen, ausschließlich mit ihren zugewiesenen Präfixen zu.
Hubs und Repeater
Ein Repeater ist ein elektronisches Gerät, das ein Netzwerksignal akzeptiert und es von unerwünschtem Rauschen befreit, bevor es es regeneriert. Das Signal wird mit einer höheren Leistung oder auf die andere Seite des Hindernisses erneut übertragen, sodass es ohne Beeinträchtigung weitergehen kann. Repeater sind in den meisten Twisted-Pair-Ethernet-Systemen für Kabellängen von mehr als 100 Metern erforderlich. Repeater können bei Verwendung von Glasfasern Dutzende oder sogar Hunderte von Kilometern voneinander entfernt sein.
Repeater arbeiten auf der physikalischen Schicht des OSI-Modells, brauchen aber noch etwas Zeit, um das Signal zu regenerieren. Dies kann zu einer Ausbreitungsverzögerung führen, die die Netzwerkleistung und -funktion beeinträchtigen kann. Infolgedessen begrenzen verschiedene Netzwerktopologien, wie die Ethernet 5-4-3-Regel, die Anzahl der Repeater, die in einem Netzwerk verwendet werden können.
Ein Ethernet-Hub ist ein Ethernet-Repeater mit vielen Ports. Ein Repeater-Hub hilft bei der Erkennung von Netzwerkkollisionen und der Fehlerisolierung sowie bei der Aufbereitung und Verteilung von Netzwerksignalen. Moderne Netzwerk-Switches haben meist Hubs und Repeater in LANs ersetzt.
Schalter und Brücken
Im Gegensatz zu einem Hub leitet ein Netzwerk Bridges und Switches nur Frames an die an der Kommunikation beteiligten Ports weiter, ein Hub leitet Frames jedoch an alle Ports weiter. Ein Switch kann man sich als Multi-Port-Bridge vorstellen, da Bridges nur zwei Ports haben. Switches verfügen typischerweise über eine große Anzahl von Ports, was eine Sterntopologie für Geräte und die Kaskadierung weiterer Switches ermöglicht.
Auf der Sicherungsschicht (Schicht 2) des OSI-Modells arbeiten Bridges und Switches, die den Verkehr zwischen zwei oder mehr Netzwerksegmenten überbrücken, um ein einziges lokales Netzwerk zu bilden. Beides sind Geräte, die Datenframes basierend auf der MAC-Adresse des Ziels in jedem Frame über Ports weiterleiten. Das Untersuchen der Quelladressen empfangener Frames lehrt sie, wie man physische Ports mit MAC-Adressen verbindet, und sie leiten Frames nur bei Bedarf weiter. Wenn das Gerät eine unbekannte Ziel-MAC anvisiert, sendet es die Anfrage an alle Ports außer der Quelle und leitet den Standort aus der Antwort ab.
Die Kollisionsdomäne des Netzwerks wird durch Bridges und Switches unterteilt, während die Broadcast-Domäne dieselbe bleibt. Bridging- und Switching-Unterstützung unterteilen ein riesiges, überlastetes Netzwerk in eine Sammlung kleinerer, effizienterer Netzwerke, die als Netzwerksegmentierung bekannt ist.
Router
Die Anschlüsse für die ADSL-Telefonleitung und das Ethernet-Netzwerkkabel sind an einem typischen Heim- oder Kleinunternehmensrouter zu sehen.
Ein Router ist ein Internetworking-Gerät, das die Adressierungs- oder Routinginformationen in Paketen verarbeitet, um sie zwischen Netzwerken weiterzuleiten. Die Routing-Tabelle wird häufig in Verbindung mit den Routing-Informationen verwendet. Ein Router bestimmt mithilfe seiner Routing-Datenbank, wohin Pakete weitergeleitet werden sollen, anstatt Pakete zu übertragen, was für sehr große Netzwerke verschwenderisch ist.
Modem
Modems (Modulator-Demodulator) verbinden Netzwerkknoten durch Drähte, die nicht für digitalen Netzwerkverkehr oder für Wireless ausgelegt sind. Dazu moduliert das digitale Signal ein oder mehrere Trägersignale, was zu einem analogen Signal führt, das angepasst werden kann, um die entsprechenden Übertragungsqualitäten bereitzustellen. Über eine herkömmliche Sprachtelefonverbindung gelieferte Audiosignale wurden von frühen Modems moduliert. Modems werden immer noch weit verbreitet für digitale Teilnehmerleitungs-(DSL)-Telefonleitungen und Kabelfernsehsysteme verwendet, die die DOCSIS-Technologie verwenden.
Firewalls sind Netzwerkgeräte oder Software, die verwendet werden, um die Netzwerksicherheit und Zugriffsregeln zu kontrollieren. Firewalls werden verwendet, um sichere interne Netzwerke von potenziell unsicheren externen Netzwerken wie dem Internet zu trennen. Typischerweise werden Firewalls so eingerichtet, dass sie Zugriffsanfragen von unbekannten Quellen ablehnen, während Aktivitäten von bekannten Quellen zugelassen werden. Die Bedeutung von Firewalls für die Netzwerksicherheit wächst im Gleichschritt mit der Zunahme von Cyber-Bedrohungen.
Protokolle für die Kommunikation
Protokolle in Bezug auf die Schichtstruktur des Internets
Das TCP/IP-Modell und seine Beziehungen zu gängigen Protokollen, die auf verschiedenen Ebenen verwendet werden.
Wenn ein Router vorhanden ist, steigen die Nachrichtenflüsse durch die Protokollschichten abwärts zum Router, den Stapel des Routers hinauf, wieder nach unten und weiter zum endgültigen Ziel, wo sie den Stapel des Routers wieder hinaufklettern.
Wenn ein Router vorhanden ist, fließen Nachrichten zwischen zwei Geräten (AB) auf den vier Ebenen des TCP/IP-Paradigmas (R). Die roten Flüsse stellen effektive Kommunikationspfade dar, während die schwarzen Pfade tatsächliche Netzwerkverbindungen darstellen.
Ein Kommunikationsprotokoll ist ein Satz von Anweisungen zum Senden und Empfangen von Daten über ein Netzwerk. Protokolle für die Kommunikation haben eine Vielzahl von Eigenschaften. Sie können entweder verbindungsorientiert oder verbindungslos sein, den Leitungsmodus oder Paketvermittlung verwenden und hierarchische oder flache Adressierung verwenden.
Kommunikationsvorgänge sind in Protokollschichten in einem Protokollstapel unterteilt, der häufig nach dem OSI-Modell aufgebaut ist, wobei jede Schicht die Dienste der darunter liegenden nutzt, bis die unterste Schicht die Hardware steuert, die Informationen über die Medien transportiert. Protocol Layering wird in der Welt der Computernetzwerke häufig verwendet. HTTP (World Wide Web Protocol), das über TCP über IP (Internetprotokolle) über IEEE 802.11 läuft, ist ein gutes Beispiel für einen Protokollstapel (das Wi-Fi-Protokoll). Wenn ein Heimbenutzer im Internet surft, wird dieser Stapel zwischen dem drahtlosen Router und dem PC des Benutzers verwendet.
Einige der gängigsten Kommunikationsprotokolle sind hier aufgeführt.
Weit verbreitete Protokolle
Suite von Internetprotokollen
Alle aktuellen Netzwerke basieren auf der Internet Protocol Suite, die oft als TCP/IP bekannt ist. Es bietet sowohl verbindungslose als auch verbindungsorientierte Dienste über ein intrinsisch instabiles Netzwerk, das mit Internet Protocol Datagram Transfer (IP) durchquert wird. Die Protokollsuite definiert die Adressierungs-, Identifikations- und Routingstandards für Internet Protocol Version 4 (IPv4) und IPv6, die nächste Iteration des Protokolls mit stark erweiterten Adressierungsfunktionen. Die Internet Protocol Suite ist eine Reihe von Protokollen, die die Funktionsweise des Internets definieren.
IEEE 802 ist ein Akronym für „International Electrotechnical“.
IEEE 802 bezieht sich auf eine Gruppe von IEEE-Standards, die sich mit lokalen und städtischen Netzen befassen. Die gesamte IEEE 802-Protokollsuite bietet eine breite Palette von Netzwerkfähigkeiten. In den Protokollen wird ein flaches Adressierungsverfahren verwendet. Sie arbeiten meist auf den Schichten 1 und 2 des OSI-Modells.
MAC-Bridging (IEEE 802.1D) verwendet beispielsweise das Spanning Tree Protocol, um den Ethernet-Datenverkehr zu routen. VLANs werden von IEEE 802.1Q definiert, während IEEE 802.1X ein portbasiertes Network Access Control-Protokoll definiert, das die Grundlage für die Authentifizierungsprozesse bildet, die in VLANs (aber auch in WLANs) verwendet werden – dies sieht der Heimanwender bei der Eingabe von a „drahtloser Zugangsschlüssel.“
Ethernet ist eine Gruppe von Technologien, die in kabelgebundenen LANs verwendet werden. IEEE 802.3 ist eine vom Institute of Electrical and Electronics Engineers erstellte Sammlung von Standards, die es beschreibt.
LAN (drahtlos)
Wireless LAN, oft auch als WLAN oder WiFi bekannt, ist heute das bekannteste Mitglied der IEEE 802-Protokollfamilie für Heimanwender. Es basiert auf den IEEE 802.11-Spezifikationen. IEEE 802.11 hat viel mit kabelgebundenem Ethernet gemeinsam.
SONET/SDH
Synchronous Optical Networking (SONET) und Synchronous Digital Hierarchy (SDH) sind Multiplextechniken, die Laser verwenden, um mehrere digitale Bitströme über Glasfaser zu übertragen. Sie wurden geschaffen, um Kommunikationen im Leitungsmodus von vielen Quellen zu übertragen, hauptsächlich um leitungsvermittelte digitale Telefonie zu unterstützen. SONET/SDH hingegen war aufgrund seiner Protokollneutralität und seiner transportorientierten Eigenschaften ein idealer Kandidat für die Übertragung von Asynchronous Transfer Mode (ATM) Frames.
Modus der asynchronen Übertragung
Asynchronous Transfer Mode (ATM) ist eine Vermittlungstechnologie für Telekommunikationsnetze. Es codiert Daten in kleine Zellen fester Größe unter Verwendung von asynchronem Zeitmultiplexverfahren. Dies steht im Gegensatz zu anderen Protokollen, die Pakete oder Frames variabler Größe verwenden, wie beispielsweise die Internet Protocol Suite oder Ethernet. Sowohl leitungs- als auch paketvermittelte Netzwerke ähneln ATM. Dadurch eignet es sich für ein Netzwerk, das sowohl Daten mit hohem Durchsatz als auch Echtzeitinhalte mit geringer Latenz wie Sprache und Video verwalten muss. ATM hat einen verbindungsorientierten Ansatz, bei dem eine virtuelle Verbindung zwischen zwei Endpunkten aufgebaut werden muss, bevor die eigentliche Datenübertragung beginnen kann.
Während Geldautomaten zugunsten von Netzen der nächsten Generation an Beliebtheit verlieren, spielen sie auf der letzten Meile oder der Verbindung zwischen einem Internetdienstanbieter und einem privaten Benutzer weiterhin eine Rolle.
Mobilfunk-Benchmarks
The Global System for Mobile Communications (GSM), General Packet Radio Service (GPRS), cdmaOne, CDMA2000, Evolution-Data Optimized (EV-DO), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS), Digital Enhanced Cordless Telecommunications (DECT), Digital AMPS (IS-136/TDMA) und Integrated Digital Enhanced Network (IDEN) sind einige der verschiedenen digitalen Mobilfunkstandards (iDEN).
Routing
Das Routing bestimmt die besten Pfade für Informationen, die über ein Netzwerk übertragen werden. Zum Beispiel sind die besten Routen von Knoten 1 zu Knoten 6 wahrscheinlich 1-8-7-6 oder 1-8-10-6, da diese die dicksten Pfade haben.
Routing ist der Prozess der Identifizierung von Netzwerkpfaden für die Übertragung von Daten. Viele Arten von Netzen, einschließlich Leitungsvermittlungsnetzen und Paketvermittlungsnetzen, erfordern Routing.
Routing-Protokolle leiten die Paketweiterleitung (den Transit logisch adressierter Netzwerkpakete von ihrer Quelle zu ihrem endgültigen Ziel) über Zwischenknoten in paketvermittelten Netzwerken. Router, Bridges, Gateways, Firewalls und Switches sind gängige Netzwerkhardwarekomponenten, die als Zwischenknoten fungieren. Auch Allzweckcomputer können Pakete weiterleiten und Routing durchführen, allerdings kann ihre Leistung aufgrund fehlender Spezialhardware eingeschränkt sein. Routingtabellen, die die Pfade zu mehreren Netzwerkzielen verfolgen, werden häufig verwendet, um die Weiterleitung im Routingprozess zu lenken. Daher ist das Erstellen von Routing-Tabellen im Speicher des Routers für ein effizientes Routing entscheidend.
Im Allgemeinen stehen mehrere Routen zur Auswahl, und bei der Entscheidung, welche Routen zur Routing-Tabelle hinzugefügt werden sollen, können verschiedene Faktoren berücksichtigt werden, z. B. (nach Priorität geordnet):
In diesem Fall sind längere Subnetzmasken wünschenswert (unabhängig ob innerhalb eines Routingprotokolls oder über ein anderes Routingprotokoll)
Wenn eine günstigere Metrik/Kosten bevorzugt wird, wird dies als Metrik bezeichnet (nur gültig innerhalb ein und desselben Routing-Protokolls)
Bei administrativer Distanz ist eine kürzere Distanz erwünscht (gilt nur zwischen verschiedenen Routing-Protokollen)
Die überwiegende Mehrheit der Routing-Algorithmen verwendet jeweils nur einen Netzwerkpfad. Mehrere alternative Pfade können mit Mehrpfad-Routingalgorithmen verwendet werden.
In seiner Vorstellung, dass Netzwerkadressen strukturiert sind und vergleichbare Adressen Nähe im gesamten Netzwerk bedeuten, wird Routing in einem restriktiveren Sinne manchmal mit Bridging verglichen. Ein einzelnes Routing-Tabellenelement kann die Route zu einer Sammlung von Geräten unter Verwendung strukturierter Adressen anzeigen. Die strukturierte Adressierung (Routing im engeren Sinne) übertrifft die unstrukturierte Adressierung in großen Netzen (Bridging). Im Internet hat sich das Routing zur am häufigsten verwendeten Adressierungsmethode entwickelt. In isolierten Situationen wird Bridging immer noch häufig eingesetzt.
Die Eigentümer der Netzwerke sind in der Regel für deren Verwaltung verantwortlich. In privaten Firmennetzwerken können Intranets und Extranets verwendet werden. Sie können auch einen Netzwerkzugriff auf das Internet bereitstellen, bei dem es sich um ein globales Netzwerk ohne einen einzigen Eigentümer und im Wesentlichen unbegrenzte Konnektivität handelt.
Intranet
Ein Intranet ist eine Sammlung von Netzwerken, die von einer einzigen Verwaltungsbehörde verwaltet werden. Im Intranet werden das IP-Protokoll und IP-basierte Tools wie Webbrowser und Dateiübertragungs-Apps verwendet. Der Zugriff auf das Intranet ist nach Angaben der Verwaltungseinheit nur von autorisierten Personen möglich. Ein Intranet ist in der Regel das interne LAN einer Organisation. In einem großen Intranet ist normalerweise mindestens ein Webserver vorhanden, um Benutzern organisatorische Informationen bereitzustellen. Ein Intranet ist alles in einem lokalen Netzwerk, das sich hinter dem Router befindet.
Admin
Ein Extranet ist ein Netzwerk, das ebenfalls von einer einzigen Organisation verwaltet wird, aber nur einen eingeschränkten Zugriff auf ein bestimmtes externes Netzwerk zulässt. Beispielsweise kann ein Unternehmen seinen Geschäftspartnern oder Kunden Zugang zu bestimmten Teilen seines Intranets gewähren, um Daten auszutauschen. Aus Sicherheitsgründen ist diesen anderen Entitäten nicht unbedingt zu vertrauen. Die WAN-Technologie wird häufig verwendet, um eine Verbindung zu einem Extranet herzustellen, jedoch nicht immer.
Internet
Ein Internetwork ist die Verbindung mehrerer verschiedener Arten von Computernetzwerken zu einem einzigen Netzwerk, indem Netzwerksoftware übereinander gelegt und über Router verbunden wird. Das Internet ist das bekannteste Beispiel für ein Netzwerk. Es ist ein miteinander verbundenes globales System von staatlichen, akademischen, geschäftlichen, öffentlichen und privaten Computernetzwerken. Es basiert auf den Netzwerktechnologien der Internet Protocol Suite. Es ist der Nachfolger des Advanced Research Projects Agency Network (ARPANET) der DARPA, das von der DARPA des US-Verteidigungsministeriums aufgebaut wurde. Das World Wide Web (WWW), das Internet der Dinge (IoT), der Videotransport und eine breite Palette von Informationsdiensten werden durch die Kupferkommunikation und das optische Netzwerk-Backbone des Internets ermöglicht.
Teilnehmer am Internet verwenden eine breite Palette von Protokollen, die mit der Internet Protocol Suite kompatibel sind, und ein Adressierungssystem (IP-Adressen), das von der Internet Assigned Numbers Authority und den Adressregistern verwaltet wird. Über das Border Gateway Protocol (BGP) tauschen Dienstanbieter und Großunternehmen Informationen über die Erreichbarkeit ihrer Adressräume aus und bauen so ein redundantes globales Netz von Übertragungswegen auf.
darknet
Ein Darknet ist ein internetbasiertes Overlay-Netzwerk, auf das nur mit spezieller Software zugegriffen werden kann. Ein Darknet ist ein anonymisierendes Netzwerk, das nicht standardmäßige Protokolle und Ports verwendet, um nur vertrauenswürdige Peers zu verbinden – allgemein als „Freunde“ (F2F) bezeichnet.
Darknets unterscheiden sich von anderen verteilten Peer-to-Peer-Netzwerken darin, dass Benutzer ohne Angst vor staatlichen oder unternehmensinternen Eingriffen interagieren können, da die gemeinsame Nutzung anonym ist (dh IP-Adressen werden nicht öffentlich veröffentlicht).
Dienste für das Netzwerk
Netzwerkdienste sind Anwendungen, die von Servern in einem Computernetzwerk gehostet werden, um Netzwerkmitgliedern oder Benutzern Funktionen zu geben oder das Netzwerk bei seinem Betrieb zu unterstützen.
Zu den bekannten Netzwerkdiensten gehören das World Wide Web, E-Mail, Drucken und die gemeinsame Nutzung von Netzwerkdateien. DNS (Domain Name System) gibt IP- und MAC-Adressen Namen (Namen wie „nm.lan“ sind leichter zu merken als Zahlen wie „210.121.67.18“) und DHCP stellt sicher, dass alle Netzwerkgeräte eine gültige IP-Adresse haben.
Das Format und die Reihenfolge von Nachrichten zwischen Clients und Servern eines Netzwerkdienstes werden typischerweise durch ein Dienstprotokoll definiert.
Die Leistung des Netzwerks
Die verbrauchte Bandbreite, bezogen auf den erreichten Durchsatz oder guten Durchsatz, dh die durchschnittliche Rate der erfolgreichen Datenübertragung über eine Kommunikationsverbindung, wird in Bits pro Sekunde gemessen. Technologien wie Bandbreitengestaltung, Bandbreitenverwaltung, Bandbreitendrosselung, Bandbreitenbegrenzung, Bandbreitenzuweisung (z. B. Bandbreitenzuweisungsprotokoll und dynamische Bandbreitenzuweisung) und andere beeinflussen den Durchsatz. Die durchschnittlich verbrauchte Signalbandbreite in Hertz (die durchschnittliche spektrale Bandbreite des den Bitstrom repräsentierenden analogen Signals) während des untersuchten Zeitrahmens bestimmt die Bandbreite eines Bitstroms.
Das Design- und Leistungsmerkmal eines Telekommunikationsnetzwerks ist die Netzwerklatenz. Es definiert die Zeit, die ein Datenelement benötigt, um durch ein Netzwerk von einem Kommunikationsendpunkt zum nächsten zu gelangen. Es wird normalerweise in Zehntelsekunden oder Sekundenbruchteilen gemessen. Je nach Standort des genauen Paars von Kommunikationsendpunkten kann die Verzögerung leicht variieren. Ingenieure melden in der Regel sowohl die maximale und durchschnittliche Verzögerung als auch die verschiedenen Komponenten der Verzögerung:
Die Zeit, die ein Router benötigt, um den Paketheader zu verarbeiten.
Warteschlangenzeit – Die Zeit, die ein Paket in den Routing-Warteschlangen verbringt.
Die Zeit, die benötigt wird, um die Bits des Pakets auf die Verbindung zu übertragen, wird als Übertragungsverzögerung bezeichnet.
Die Ausbreitungsverzögerung ist die Zeit, die ein Signal benötigt, um durch das Medium zu wandern.
Signale erfahren eine minimale Verzögerung aufgrund der Zeit, die benötigt wird, um ein Paket seriell über eine Verbindung zu senden. Aufgrund einer Netzwerküberlastung wird diese Verzögerung um unvorhersehbarere Verzögerungsstufen verlängert. Die Reaktionszeit eines IP-Netzwerks kann von wenigen Millisekunden bis zu mehreren hundert Millisekunden variieren.
Servicequalität
Die Netzleistung wird normalerweise an der Dienstgüte eines Telekommunikationsprodukts gemessen, abhängig von den Installationsanforderungen. Durchsatz, Jitter, Bitfehlerrate und Verzögerung sind alles Faktoren, die dies beeinflussen können.
Beispiele für Netzleistungsmessungen für ein leitungsvermitteltes Netz und eine Art von paketvermitteltem Netz, nämlich ATM, werden unten gezeigt.
Leitungsvermittelte Netze: Der Dienstgrad ist identisch mit der Netzleistung in leitungsvermittelten Netzen. Die Anzahl der abgewiesenen Anrufe ist eine Kennzahl, die angibt, wie gut das Netzwerk bei hoher Verkehrsbelastung funktioniert. Geräusch- und Echopegel sind Beispiele für andere Formen von Leistungsindikatoren.
Leitungsrate, Dienstgüte (QoS), Datendurchsatz, Verbindungszeit, Stabilität, Technologie, Modulationstechnik und Modem-Upgrades können alle verwendet werden, um die Leistung eines Netzes mit asynchronem Übertragungsmodus (ATM) zu bewerten.
Da jedes Netzwerk in seiner Natur und Architektur einzigartig ist, gibt es zahlreiche Ansätze, um seine Leistung zu bewerten. Anstatt gemessen zu werden, kann Leistung stattdessen modelliert werden. Zustandsübergangsdiagramme werden beispielsweise häufig verwendet, um die Warteschlangenleistung in leitungsvermittelten Netzwerken zu modellieren. Diese Diagramme werden vom Netzwerkplaner verwendet, um zu untersuchen, wie das Netzwerk in jedem Zustand funktioniert, um sicherzustellen, dass das Netzwerk angemessen geplant wird.
Überlastung im Netz
Wenn eine Verbindung oder ein Knoten einer höheren Datenlast ausgesetzt ist, als sie bemessen ist, kommt es zu einer Netzwerküberlastung und die Dienstqualität leidet. Pakete müssen gelöscht werden, wenn Netzwerke überlastet werden und die Warteschlangen zu voll werden, daher sind Netzwerke auf erneute Übertragung angewiesen. Warteschlangenverzögerungen, Paketverluste und das Blockieren neuer Verbindungen sind häufige Folgen von Staus. Als Ergebnis dieser beiden führen inkrementelle Erhöhungen der angebotenen Last entweder zu einer leichten Verbesserung des Netzwerkdurchsatzes oder zu einer Verringerung des Netzwerkdurchsatzes.
Selbst wenn die Anfangslast auf ein Niveau gesenkt wird, das normalerweise keine Netzwerküberlastung verursacht, neigen Netzwerkprotokolle, die aggressive Neuübertragungen verwenden, um Paketverluste zu korrigieren, dazu, Systeme in einem Zustand der Netzwerküberlastung zu halten. Als Ergebnis können Netzwerke, die diese Protokolle verwenden, bei gleichem Bedarf zwei stabile Zustände aufweisen. Stauungskollaps bezieht sich auf eine stabile Situation mit geringem Durchsatz.
Um den Zusammenbruch von Staus zu minimieren, verwenden moderne Netzwerke Staumanagement-, Stauvermeidungs- und Verkehrssteuerungsstrategien (dh Endpunkte verlangsamen typischerweise die Übertragung oder stoppen sie manchmal sogar ganz, wenn das Netz überlastet ist). Exponentielles Backoff in Protokollen wie 802.11s CSMA/CA und dem ursprünglichen Ethernet, Window-Reduction in TCP und Fair Queuing in Routern sind Beispiele für diese Strategien. Die Implementierung von Prioritätsschemata, bei denen einige Pakete mit höherer Priorität als andere übertragen werden, ist eine weitere Möglichkeit, die nachteiligen Auswirkungen einer Netzwerküberlastung zu vermeiden. Prioritätsschemata heilen keine Netzüberlastung allein, aber sie tragen dazu bei, die Folgen einer Überlastung für einige Dienste zu mildern. 802.1p ist ein Beispiel dafür. Die absichtliche Zuweisung von Netzwerkressourcen zu spezifizierten Flüssen ist eine dritte Strategie zur Vermeidung von Netzwerküberlastung. Der ITU-T G.hn-Standard verwendet beispielsweise Contention-Free Transmission Opportunities (CFTXOPs), um Hochgeschwindigkeits-Lokalnetzwerke (bis zu 1 Gbit/s) über vorhandene Hausleitungen (Stromleitungen, Telefonleitungen und Koaxialkabel) bereitzustellen ).
RFC 2914 für das Internet geht sehr ausführlich auf die Staukontrolle ein.
Belastbarkeit des Netzwerks
„Die Fähigkeit, angesichts von Defekten und Behinderungen des Normalbetriebs ein angemessenes Serviceniveau anzubieten und aufrechtzuerhalten“, so die Definition der Netzwerk-Resilienz.
Netzwerksicherheit
Hacker verwenden Computernetzwerke, um Computerviren und -würmer auf vernetzte Geräte zu verbreiten oder diesen Geräten den Zugriff auf das Netzwerk durch einen Denial-of-Service-Angriff zu verwehren.
Die Bestimmungen und Regeln des Netzwerkadministrators zum Verhindern und Überwachen von illegalem Zugriff, Missbrauch, Modifikation oder Verweigerung des Computernetzwerks und seiner netzwerkzugänglichen Ressourcen werden als Netzwerksicherheit bezeichnet. Der Netzwerkadministrator kontrolliert die Netzwerksicherheit, dh die Autorisierung des Zugriffs auf Daten in einem Netzwerk. Die Benutzer erhalten einen Benutzernamen und ein Kennwort, die ihnen den Zugriff auf Informationen und Programme unter ihrer Kontrolle ermöglichen. Netzwerksicherheit wird verwendet, um tägliche Transaktionen und Kommunikation zwischen Organisationen, Regierungsbehörden und Einzelpersonen in einer Reihe von öffentlichen und privaten Computernetzwerken abzusichern.
Die Überwachung von Daten, die über Computernetzwerke wie das Internet ausgetauscht werden, wird als Netzwerküberwachung bezeichnet. Überwachung wird häufig im Geheimen durchgeführt und kann von oder im Auftrag von Regierungen, Unternehmen, kriminellen Gruppen oder Personen durchgeführt werden. Es kann rechtmäßig sein oder nicht, und es kann eine gerichtliche oder andere unabhängige Instanzgenehmigung erfordern oder nicht.
Überwachungssoftware für Computer und Netzwerke ist heute weit verbreitet, und fast der gesamte Internetverkehr wird oder könnte auf Anzeichen illegaler Aktivitäten überwacht werden.
Regierungen und Strafverfolgungsbehörden nutzen Überwachung, um die soziale Kontrolle aufrechtzuerhalten, Risiken zu identifizieren und zu überwachen und kriminelle Aktivitäten zu verhindern/zu untersuchen. Dank Programmen wie dem Total Information Awareness-Programm, Technologien wie Hochgeschwindigkeits-Überwachungscomputern und biometrischer Software sowie Gesetzen wie dem Communications Assistance For Law Enforcement Act verfügen Regierungen heute über eine beispiellose Macht, die Aktivitäten der Bürger zu überwachen.
Viele Bürgerrechts- und Datenschutzorganisationen, darunter Reporter ohne Grenzen, die Electronic Frontier Foundation und die American Civil Liberties Union, haben ihre Besorgnis darüber geäußert, dass eine verstärkte Überwachung der Bürger zu einer Massenüberwachungsgesellschaft mit weniger politischen und persönlichen Freiheiten führen könnte. Befürchtungen wie diese haben zu einer Reihe von Rechtsstreitigkeiten geführt, darunter Hepting gegen AT&T. Aus Protest gegen die sogenannte „drakonische Überwachung“ hat sich die Hacktivistengruppe Anonymous in offizielle Websites gehackt.
Ende-zu-Ende-Verschlüsselung (E2EE) ist ein digitales Kommunikationsparadigma, das sicherstellt, dass Daten zwischen zwei kommunizierenden Parteien jederzeit geschützt sind. Dabei verschlüsselt der Absender die Daten, sodass sie nur vom beabsichtigten Empfänger ohne Abhängigkeit von Dritten entschlüsselt werden können. Die Ende-zu-Ende-Verschlüsselung schützt die Kommunikation davor, von Vermittlern wie Internetdienstanbietern oder Anwendungsdienstanbietern entdeckt oder manipuliert zu werden. Im Allgemeinen gewährleistet eine Ende-zu-Ende-Verschlüsselung sowohl die Geheimhaltung als auch die Integrität.
HTTPS für Online-Verkehr, PGP für E-Mail, OTR für Instant Messaging, ZRTP für Telefonie und TETRA für Funk sind Beispiele für Ende-zu-Ende-Verschlüsselung.
Ende-zu-Ende-Verschlüsselung ist in den meisten serverbasierten Kommunikationslösungen nicht enthalten. Diese Lösungen können nur die Sicherheit der Kommunikation zwischen Clients und Servern gewährleisten, nicht zwischen kommunizierenden Parteien. Google Talk, Yahoo Messenger, Facebook und Dropbox sind Beispiele für Nicht-E2EE-Systeme. Einige dieser Systeme, wie LavaBit und SecretInk, haben sogar behauptet, eine „End-to-End“-Verschlüsselung bereitzustellen, wenn dies nicht der Fall ist. Einige Systeme, die eine Ende-zu-Ende-Verschlüsselung bieten sollen, wie Skype oder Hushmail, haben eine Hintertür, die verhindert, dass die Kommunikationspartner den Verschlüsselungsschlüssel aushandeln.
Das Paradigma der Ende-zu-Ende-Verschlüsselung geht nicht direkt auf Bedenken an den Endpunkten der Kommunikation ein, wie etwa technologische Ausnutzung des Clients, Zufallszahlengeneratoren geringer Qualität oder Schlüsselhinterlegung. E2EE ignoriert auch die Verkehrsanalyse, bei der die Identitäten von Endpunkten sowie die Zeiten und das Volumen der übertragenen Nachrichten bestimmt werden.
Als Mitte der 1990er Jahre E-Commerce zum ersten Mal im World Wide Web auftauchte, war klar, dass eine Art von Identifizierung und Verschlüsselung erforderlich war. Netscape war der erste, der versuchte, einen neuen Standard zu schaffen. Netscape Navigator war damals der beliebteste Webbrowser. Der Secure Socket Layer (SSL) wurde von Netscape (SSL) erstellt. SSL erfordert die Verwendung eines zertifizierten Servers. Der Server überträgt eine Kopie des Zertifikats an den Client, wenn ein Client Zugriff auf einen SSL-gesicherten Server anfordert. Der SSL-Client überprüft dieses Zertifikat (alle Webbrowser sind mit einer umfassenden Liste von CA-Stammzertifikaten vorinstalliert), und wenn es bestanden wird, wird der Server authentifiziert und der Client handelt eine Verschlüsselung mit symmetrischem Schlüssel für die Sitzung aus. Zwischen dem SSL-Server und dem SSL-Client befindet sich die Sitzung nun in einem hochsicheren verschlüsselten Tunnel.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/CNF Computer Networking Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
Penetrationstests für EITC/IS/WAPT-Webanwendungen
EITC/IS/WAPT Web Applications Penetration Testing ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten des Penetrationstests von Webanwendungen (White Hacking), einschließlich verschiedener Techniken für Webseiten-Spider, Scanning und Angriffstechniken, einschließlich spezieller Penetrationstest-Tools und -Suiten .
Das Curriculum des EITC/IS/WAPT Web Applications Penetration Testing umfasst Einführung in die Burp Suite, Web-Spridering und DVWA, Brute-Force-Tests mit Burp Suite, Web Application Firewall (WAF)-Erkennung mit WAFW00F, Zielumfang und Spidering, Auffinden versteckter Dateien mit ZAP, WordPress-Schwachstellen-Scan und Enumeration von Benutzernamen, Load-Balancer-Scan, Cross-Site-Scripting, XSS – reflektiert, gespeichert und DOM, Proxy-Angriffe, Konfiguration des Proxys in ZAP, Datei- und Verzeichnisangriffe, Datei- und Verzeichniserkennung mit DirBuster, Übung von Web-Angriffen , OWASP Juice Shop, CSRF – Cross Site Request Forgery, Cookiesammlung und Reverse Engineering, HTTP Attributes – Cookie Stealing, SQL Injection, DotDotPwn – Directory Traversal Fuzzing, Iframe Injection und HTML Injection, Heartbleed Exploit – Discovery and Exploitation, PHP Code Injection, bWAPP – HTML Injection, Reflected POST, OS Command Injection mit Commix, serverseitig Include SSI Injection, Pentesting in Docker, OverTheWire Natas, LFI und Command Injection, Google Hacking for Pentesting, Google Dorks For Penetration Testing, Apache2 ModSecurity sowie Nginx ModSecurity, innerhalb der folgenden Struktur, die umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfasst.
Webanwendungssicherheit (oft als Web AppSec bezeichnet) ist das Konzept, Websites so zu gestalten, dass sie auch bei Angriffen normal funktionieren. Die Idee besteht darin, eine Reihe von Sicherheitsmaßnahmen in eine Webanwendung zu integrieren, um ihre Assets vor feindlichen Agenten zu schützen. Webanwendungen sind wie jede Software anfällig für Fehler. Einige dieser Fehler sind tatsächliche Schwachstellen, die ausgenutzt werden können und ein Risiko für Unternehmen darstellen. Solche Fehler werden durch die Webanwendungssicherheit geschützt. Es beinhaltet die Anwendung sicherer Entwicklungsansätze und die Einführung von Sicherheitskontrollen während des gesamten Softwareentwicklungslebenszyklus (SDLC), um sicherzustellen, dass Designfehler und Implementierungsprobleme behoben werden. Online-Penetrationstests, die von Experten durchgeführt werden, um Schwachstellen in Webanwendungen mit einem sogenannten White-Hacking-Ansatz aufzudecken und auszunutzen, sind eine wesentliche Praxis, um eine angemessene Abwehr zu ermöglichen.
Ein Web-Penetrationstest, auch Web-Pen-Test genannt, simuliert einen Cyberangriff auf eine Webanwendung, um ausnutzbare Schwachstellen zu finden. Penetrationstests werden häufig zur Ergänzung einer Web Application Firewall im Rahmen der Web Application Security (WAF) eingesetzt. Pen-Tests beinhalten im Allgemeinen den Versuch, in eine beliebige Anzahl von Anwendungssystemen (z. B. APIs, Front-End-/Back-End-Server) einzudringen, um Schwachstellen zu finden, wie z. B. nicht bereinigte Eingaben, die anfällig für Code-Injection-Angriffe sind.
Die Ergebnisse des Online-Penetrationstests können verwendet werden, um WAF-Sicherheitsrichtlinien zu konfigurieren und entdeckte Schwachstellen zu beheben.
Penetrationstests bestehen aus fünf Schritten.
Das Pen-Testverfahren ist in fünf Schritte unterteilt.
- Planung und Scouting
Die Definition des Umfangs und der Ziele eines Tests, einschließlich der zu adressierenden Systeme und der zu verwendenden Testmethoden, ist der erste Schritt.
Um ein besseres Verständnis der Funktionsweise eines Ziels und seiner potenziellen Schwächen zu erlangen, sammeln Sie Informationen (z. B. Netzwerk- und Domänennamen, Mailserver). - Scannen
Der nächste Schritt besteht darin, herauszufinden, wie die Zielanwendung auf verschiedene Arten von Eindringversuchen reagiert. Dies wird normalerweise mit den folgenden Methoden erreicht:
Statische Analyse – Untersuchen des Codes einer Anwendung, um vorherzusagen, wie er sich bei der Ausführung verhält. In einem einzigen Durchgang können diese Tools den gesamten Code scannen.
Dynamische Analyse ist der Prozess der Überprüfung des Codes einer Anwendung während des Betriebs. Diese Scanmethode ist praktischer, da sie eine Echtzeitansicht der Leistung einer Anwendung bietet. - Zugang erhalten
Um die Schwachstellen eines Ziels zu finden, verwendet dieser Schritt Angriffe auf Webanwendungen wie Cross-Site-Scripting, SQL-Injection und Backdoors. Um den Schaden zu verstehen, den diese Sicherheitsanfälligkeiten anrichten können, versuchen Tester, sie auszunutzen, indem sie Berechtigungen ausweiten, Daten stehlen, Datenverkehr abfangen usw. - Zugriff behalten
Der Zweck dieser Phase besteht darin, zu beurteilen, ob die Schwachstelle ausgenutzt werden kann, um eine langfristige Präsenz im kompromittierten System zu etablieren, die es einem bösartigen Akteur ermöglicht, eingehenden Zugriff zu erhalten. Das Ziel besteht darin, fortgeschrittene persistente Bedrohungen zu imitieren, die monatelang in einem System verbleiben können, um die sensibelsten Informationen eines Unternehmens zu stehlen. - Analyse
Die Ergebnisse des Penetrationstests werden dann in einem Bericht festgehalten, der Informationen enthält wie:
Schwachstellen, die im Detail ausgenutzt wurden
Daten, die erhalten wurden, die sensibel waren
Die Zeit, die der Stifttester unbemerkt im System verbleiben konnte.
Sicherheitsexperten verwenden diese Daten, um die WAF-Einstellungen eines Unternehmens und andere Anwendungssicherheitslösungen zu konfigurieren, um Schwachstellen zu schließen und weitere Angriffe zu verhindern.
Methoden des Penetrationstests
- Externe Penetrationstests konzentrieren sich auf die im Internet sichtbaren Vermögenswerte eines Unternehmens, wie die Webanwendung selbst, die Unternehmenswebsite sowie E-Mail- und Domain Name Server (DNS). Ziel ist es, Zugang zu nützlichen Informationen zu erhalten und diese zu extrahieren.
- Internes Testen bedeutet, dass ein Tester Zugriff auf eine Anwendung hinter der Firewall eines Unternehmens hat und einen feindlichen Insiderangriff simuliert. Dies ist nicht notwendig, eine betrügerische Mitarbeitersimulation. Ein Mitarbeiter, dessen Zugangsdaten durch einen Phishing-Versuch erlangt wurden, ist ein üblicher Ausgangspunkt.
- Bei Blindtests wird einem Tester einfach der Name des zu testenden Unternehmens mitgeteilt. Auf diese Weise können Sicherheitsexperten in Echtzeit sehen, wie sich ein tatsächlicher Angriff auf eine Anwendung entwickeln könnte.
- Double-Blind-Tests: Bei einem Double-Blind-Test sind sich Sicherheitsexperten des simulierten Angriffs im Vorfeld nicht bewusst. Sie werden keine Zeit haben, ihre Befestigungen vor einem Angriffsversuch zu stärken, genau wie in der realen Welt.
- Gezieltes Testen – In diesem Szenario arbeiten der Tester und das Sicherheitspersonal zusammen und verfolgen die Bewegungen des anderen. Dies ist eine hervorragende Trainingsübung, die einem Sicherheitsteam Echtzeit-Feedback aus der Sicht eines Hackers gibt.
Firewalls für Webanwendungen und Penetrationstests
Penetrationstests und WAFs sind zwei separate, aber sich ergänzende Sicherheitstechniken. Der Tester nutzt wahrscheinlich WAF-Daten wie Protokolle, um die Schwachstellen einer Anwendung bei vielen Arten von Pen-Tests (mit Ausnahme von Blind- und Doppelblindtests) zu finden und auszunutzen.
Pen-Testdaten wiederum können WAF-Administratoren helfen. Nach Abschluss eines Tests können WAF-Konfigurationen geändert werden, um vor den während des Tests erkannten Fehlern zu schützen.
Schließlich erfüllen Pen-Tests bestimmte Compliance-Anforderungen der Sicherheits-Audit-Methoden wie PCI DSS und SOC 2. Bestimmte Anforderungen wie PCI-DSS 6.6 können nur erfüllt werden, wenn eine zertifizierte WAF verwendet wird. Aufgrund der oben genannten Vorteile und der Möglichkeit, WAF-Einstellungen zu ändern, macht dies jedoch den Stifttest nicht weniger nützlich.
Welche Bedeutung haben Web-Sicherheitstests?
Das Ziel von Web-Sicherheitstests besteht darin, Sicherheitslücken in Webanwendungen und deren Einrichtung zu identifizieren. Die Anwendungsschicht ist das primäre Ziel (dh was auf dem HTTP-Protokoll ausgeführt wird). Das Senden verschiedener Eingabeformen an eine Webanwendung, um Probleme zu verursachen und das System auf unerwartete Weise reagieren zu lassen, ist ein gängiger Ansatz zum Testen der Sicherheit. Diese „negativen Tests“ prüfen, ob das System etwas tut, für das es nicht vorgesehen war.
Es ist auch wichtig zu wissen, dass Web-Sicherheitstests mehr umfassen als nur die Sicherheitsfunktionen der Anwendung (wie Authentifizierung und Autorisierung) zu überprüfen. Es ist auch entscheidend, sicherzustellen, dass andere Funktionen sicher bereitgestellt werden (z. B. Geschäftslogik und die Verwendung der richtigen Eingabevalidierung und Ausgabecodierung). Der Zweck besteht darin, sicherzustellen, dass die Funktionen der Webanwendung sicher sind.
Welche Arten von Sicherheitsbewertungen gibt es?
- Test für dynamische Anwendungssicherheit (DAST). Dieser automatisierte Anwendungssicherheitstest eignet sich am besten für risikoarme, nach innen gerichtete Apps, die behördliche Sicherheitsanforderungen erfüllen müssen. Die Kombination von DAST mit einigen manuellen Online-Sicherheitstests für gängige Schwachstellen ist die beste Strategie für Anwendungen mit mittlerem Risiko und wichtige Anwendungen, die geringfügigen Änderungen unterliegen.
- Sicherheitsüberprüfung für statische Anwendungen (SAST). Diese Anwendungssicherheitsstrategie umfasst sowohl automatisierte als auch manuelle Testmethoden. Es ist ideal, um Fehler zu erkennen, ohne Apps in einer Live-Umgebung ausführen zu müssen. Es ermöglicht Ingenieuren auch, Quellcode zu scannen, um Software-Sicherheitsfehler auf systematische Weise zu erkennen und zu beheben.
- Penetrationsprüfung. Dieser manuelle Anwendungssicherheitstest ist ideal für wesentliche Anwendungen, insbesondere solche, die erheblichen Änderungen unterliegen. Um fortgeschrittene Angriffsszenarien zu finden, verwendet die Evaluierung Geschäftslogik und gegnerische Tests.
- Anwendungsselbstschutz in der Laufzeit (RASP). Diese wachsende Anwendungssicherheitsmethode umfasst eine Vielzahl von Technologietechniken, um eine Anwendung so zu instrumentieren, dass Bedrohungen in Echtzeit beobachtet und hoffentlich verhindert werden können, sobald sie auftreten.
Welche Rolle spielen Anwendungssicherheitstests bei der Verringerung des Unternehmensrisikos?
Die überwiegende Mehrheit der Angriffe auf Webanwendungen umfasst:
- SQL Injection
- XSS (Cross-Site-Scripting)
- Remote-Befehlsausführung
- Path-Traversal-Angriff
- Eingeschränkter Zugriff auf Inhalte
- Kompromittierte Benutzerkonten
- Installation von bösartigem Code
- Umsatzverluste
- Vertrauensverlust der Kunden
- Rufschädigung der Marke
- Und viele andere Angriffe
In der heutigen Internetumgebung kann eine Webanwendung durch eine Vielzahl von Herausforderungen beschädigt werden. Die obige Grafik zeigt einige der häufigsten Angriffe von Angreifern, von denen jede einzelne Anwendungen oder ein ganzes Unternehmen erheblich schädigen kann. Die Kenntnis der vielen Angriffe, die eine Anwendung angreifbar machen, sowie der möglichen Ergebnisse eines Angriffs ermöglicht es dem Unternehmen, Schwachstellen im Voraus zu beheben und effektiv auf sie zu testen.
In den frühen Phasen des SDLC können risikomindernde Kontrollen eingerichtet werden, um Probleme zu vermeiden, indem die Ursache der Schwachstelle identifiziert wird. Während eines Sicherheitstests für Webanwendungen kann das Wissen über die Funktionsweise dieser Bedrohungen auch verwendet werden, um auf bekannte Orte von Interesse abzuzielen.
Das Erkennen der Auswirkungen eines Angriffs ist auch für das Risikomanagement des Unternehmens wichtig, da die Auswirkungen eines erfolgreichen Angriffs verwendet werden können, um den Schweregrad der Schwachstelle insgesamt zu bestimmen. Wenn während eines Sicherheitstests Schwachstellen entdeckt werden, ermöglicht die Ermittlung ihres Schweregrades dem Unternehmen, Abhilfemaßnahmen effektiver zu priorisieren. Um das Risiko für das Unternehmen zu reduzieren, beginnen Sie mit Problemen mit kritischem Schweregrad und arbeiten Sie sich bis zu denen mit geringerer Auswirkung vor.
Bevor Sie ein Problem identifizieren, hilft Ihnen die Bewertung der möglichen Auswirkungen jedes Programms in der Anwendungsbibliothek des Unternehmens, die Anwendungssicherheitstests zu priorisieren. Wenb-Sicherheitstests können so geplant werden, dass sie zuerst auf die kritischen Anwendungen des Unternehmens abzielen, mit gezielteren Tests, um das Risiko für das Unternehmen zu verringern. Mit einer etablierten Liste von hochkarätigen Anwendungen können Web-Sicherheitstests so geplant werden, dass sie zuerst auf die kritischen Anwendungen des Unternehmens abzielen, mit gezielteren Tests, um das Risiko für das Unternehmen zu verringern.
Welche Funktionen sollten bei einem Sicherheitstest für Webanwendungen untersucht werden?
Berücksichtigen Sie beim Testen der Webanwendungssicherheit die folgende nicht erschöpfende Liste von Funktionen. Eine ineffektive Umsetzung jedes einzelnen kann zu Schwächen führen, die das Unternehmen gefährden.
- Konfiguration der Anwendung und des Servers. Verschlüsselungs-/Kryptografie-Setups, Webserver-Konfigurationen usw. sind Beispiele für potenzielle Fehler.
- Validierung der Eingabe- und Fehlerbehandlung Eine schlechte Eingabe- und Ausgabeverarbeitung führt zu SQL-Injection, Cross-Site-Scripting (XSS) und anderen typischen Injektionsproblemen.
- Authentifizierung und Wartung von Sitzungen. Sicherheitslücken, die zum Identitätswechsel des Benutzers führen können. Die Stärke und der Schutz der Anmeldeinformationen sollten ebenfalls berücksichtigt werden.
- Genehmigung. Die Fähigkeit der Anwendung, gegen vertikale und horizontale Rechteausweitung zu schützen, wird getestet.
- Logik im Geschäft. Die meisten Programme, die Geschäftsfunktionen bereitstellen, beruhen auf diesen.
- Logik auf der Clientseite. Diese Art von Funktion wird bei modernen, JavaScript-lastigen Webseiten sowie bei Webseiten, die andere Arten von clientseitigen Technologien verwenden (zB Silverlight, Flash, Java-Applets), immer häufiger.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/WAPT Web Applications Penetration Testing Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/IS/WASF-Sicherheitsgrundlagen für Webanwendungen
EITC/IS/WASF Web Applications Security Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der Sicherheit von World Wide Web-Diensten, angefangen von der Sicherheit grundlegender Webprotokolle über Datenschutz, Bedrohungen und Angriffe auf verschiedene Ebenen des Webverkehrs, Netzwerkkommunikation, Web Serversicherheit, Sicherheit in höheren Schichten, einschließlich Webbrowser und Webanwendungen, sowie Authentifizierung, Zertifikate und Phishing.
Das Curriculum der EITC/IS/WASF Web Applications Security Fundamentals umfasst eine Einführung in HTML- und JavaScript-Websicherheitsaspekte, DNS, HTTP, Cookies, Sitzungen, Cookie- und Sitzungsangriffe, Gleiche-Ursprungs-Richtlinie, Cross-Site-Request-Forgery, Ausnahmen vom Gleichen Origin Policy, Cross-Site Scripting (XSS), Cross-Site Scripting-Abwehr, Web-Fingerprinting, Datenschutz im Web, DoS, Phishing und Nebenkanäle, Denial-of-Service, Phishing und Nebenkanäle, Injection-Angriffe, Code-Injection, Transport Layer Security (TLS) und Angriffe, HTTPS in der realen Welt, Authentifizierung, WebAuthn, Verwaltung der Websicherheit, Sicherheitsbedenken im Node.js-Projekt, Serversicherheit, sichere Codierungspraktiken, lokale HTTP-Serversicherheit, DNS-Rebinding-Angriffe, Browserangriffe, Browser Architektur sowie das Schreiben sicherer Browsercodes innerhalb der folgenden Struktur, die umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfasst.
Die Sicherheit von Webanwendungen ist eine Teilmenge der Informationssicherheit, die sich auf die Sicherheit von Websites, Webanwendungen und Webdiensten konzentriert. Die Sicherheit von Webanwendungen basiert auf ihrer grundlegendsten Ebene auf den Prinzipien der Anwendungssicherheit, wendet sie jedoch insbesondere auf das Internet und Webplattformen an. Sicherheitstechnologien für Webanwendungen, wie z. B. Firewalls für Webanwendungen, sind spezielle Tools für die Arbeit mit HTTP-Datenverkehr.
Das Open Web Application Security Project (OWASP) bietet sowohl kostenlose als auch offene Ressourcen. Verantwortlich dafür ist eine gemeinnützige OWASP-Stiftung. Die OWASP Top 2017 10 ist das Ergebnis einer aktuellen Studie, die auf umfangreichen Daten von über 40 Partnerorganisationen basiert. Anhand dieser Daten wurden in über 2.3 Anwendungen ungefähr 50,000 Millionen Schwachstellen entdeckt. Die zehn wichtigsten Sicherheitsbedenken bei Online-Anwendungen laut OWASP Top 10 – 2017 sind:
- Spritze
- Authentifizierungsprobleme
- Offengelegte sensible Daten XML externe Entitäten (XXE)
- Zugriffskontrolle, die nicht funktioniert
- Fehlkonfiguration der Sicherheit
- Site-to-Site-Scripting (XSS)
- Nicht sichere Deserialisierung
- Verwendung von Komponenten mit bekannten Fehlern
- Protokollierung und Überwachung sind unzureichend.
Daher wird der Schutz von Websites und Onlinediensten gegen verschiedene Sicherheitsbedrohungen, die Schwachstellen im Code einer Anwendung ausnutzen, als Webanwendungssicherheit bezeichnet. Content-Management-Systeme (z. B. WordPress), Datenbankverwaltungstools (z. B. phpMyAdmin) und SaaS-Apps sind gängige Ziele für Angriffe auf Online-Anwendungen.
Webanwendungen werden von den Tätern als hoch priorisierte Ziele angesehen, weil:
- Aufgrund der Komplexität ihres Quellcodes sind unbeaufsichtigte Schwachstellen und Modifikationen bösartiger Codes wahrscheinlicher.
- Hochwertige Belohnungen, wie z. B. sensible personenbezogene Daten, die durch effektive Quellcode-Manipulation erlangt wurden.
- Einfache Ausführung, da die meisten Angriffe leicht automatisiert und wahllos gegen Tausende, Zehntausende oder sogar Hunderttausende von Zielen gleichzeitig eingesetzt werden können.
- Organisationen, die ihre Webanwendungen nicht schützen, sind anfällig für Angriffe. Dies kann unter anderem zu Datendiebstahl, angespannten Kundenbeziehungen, entzogenen Lizenzen und rechtlichen Schritten führen.
Sicherheitslücken in Websites
Fehler bei der Eingabe/Ausgabe-Bereinigung sind in Webanwendungen üblich und werden häufig ausgenutzt, um entweder den Quellcode zu ändern oder unbefugten Zugriff zu erhalten.
Diese Fehler ermöglichen die Ausnutzung einer Vielzahl von Angriffsvektoren, darunter:
- SQL Injection – Wenn ein Täter eine Backend-Datenbank mit bösartigem SQL-Code manipuliert, werden Informationen preisgegeben. Unerlaubtes Durchsuchen von Listen, Löschen von Tabellen und nicht autorisierter Administratorzugriff sind unter anderem die Folgen.
- XSS (Cross-Site Scripting) ist ein Injection-Angriff, der auf Benutzer abzielt, um Zugang zu Konten zu erhalten, Trojaner zu aktivieren oder Seiteninhalte zu ändern. Wenn Schadcode direkt in eine Anwendung eingeschleust wird, wird dies als gespeichertes XSS bezeichnet. Wenn ein schädliches Skript von einer Anwendung auf den Browser eines Benutzers gespiegelt wird, wird dies als reflektiertes XSS bezeichnet.
- Entfernte Dateieinbindung – Diese Angriffsform ermöglicht es einem Hacker, eine Datei von einem entfernten Standort in einen Webanwendungsserver einzuschleusen. Dies kann dazu führen, dass innerhalb der App gefährliche Skripte oder Code ausgeführt werden, sowie Datendiebstahl oder -modifikation.
- Cross-Site Request Forgery (CSRF) – Eine Angriffsart, die zu einem unbeabsichtigten Geldtransfer, Passwortänderungen oder Datendiebstahl führen kann. Es tritt auf, wenn ein bösartiges Webprogramm den Browser eines Benutzers anweist, eine unerwünschte Aktion auf einer Website durchzuführen, auf der er angemeldet ist.
Theoretisch kann eine effektive Bereinigung der Eingabe/Ausgabe alle Schwachstellen beseitigen und eine Anwendung für unbefugte Änderungen unempfindlich machen.
Da sich die meisten Programme jedoch in einem ständigen Entwicklungsstadium befinden, ist eine umfassende Desinfektion selten eine praktikable Option. Darüber hinaus werden Apps häufig ineinander integriert, was zu einer immer komplexer werdenden codierten Umgebung führt.
Um solche Gefahren zu vermeiden, sollten Sicherheitslösungen und -prozesse für Webanwendungen wie die Zertifizierung nach dem PCI Data Security Standard (PCI DSS) implementiert werden.
Firewall für Webanwendungen (WAF)
WAFs (Web Application Firewalls) sind Hardware- und Softwarelösungen, die Anwendungen vor Sicherheitsbedrohungen schützen. Diese Lösungen wurden entwickelt, um eingehenden Datenverkehr zu untersuchen, um Angriffsversuche zu erkennen und zu blockieren und alle Fehler bei der Codebereinigung auszugleichen.
Die WAF-Bereitstellung erfüllt ein entscheidendes Kriterium für die PCI-DSS-Zertifizierung, indem sie Daten vor Diebstahl und Modifikation schützt. Alle Daten von Kredit- und Debitkarteninhabern, die in einer Datenbank geführt werden, müssen gemäß Anforderung 6.6 geschützt werden.
Da sie ihrer DMZ am Rand des Netzwerks voraus ist, erfordert die Einrichtung einer WAF normalerweise keine Änderungen an einer Anwendung. Es dient dann als Gateway für den gesamten eingehenden Datenverkehr und filtert gefährliche Anfragen heraus, bevor sie mit einer Anwendung interagieren können.
Um zu beurteilen, welcher Verkehr auf eine Anwendung zugreifen darf und welcher aussortiert werden muss, verwenden WAFs verschiedene Heuristiken. Dank eines regelmäßig aktualisierten Signaturpools können sie böswillige Akteure und bekannte Angriffsvektoren schnell identifizieren.
Fast alle WAFs können auf individuelle Anwendungsfälle und Sicherheitsvorschriften sowie auf die Bekämpfung neu auftretender (auch als Zero-Day-Bedrohungen bekannt) zugeschnitten werden. Um schließlich zusätzliche Einblicke in eingehende Besucher zu gewinnen, verwenden die meisten modernen Lösungen Reputations- und Verhaltensdaten.
Um einen Sicherheitsperimeter aufzubauen, werden WAFs in der Regel mit zusätzlichen Sicherheitslösungen kombiniert. Dazu können Dienste zur Verhinderung von Distributed Denial-of-Service (DDoS) gehören, die die zusätzliche Skalierbarkeit bieten, die erforderlich ist, um Angriffe mit hohem Volumen zu verhindern.
Checkliste für die Sicherheit von Webanwendungen
Neben WAFs gibt es verschiedene Ansätze, um Web-Apps abzusichern. Jede Sicherheitscheckliste für Webanwendungen sollte die folgenden Verfahren enthalten:
- Sammeln von Daten — Gehen Sie die Anwendung von Hand durch und suchen Sie nach Einstiegspunkten und clientseitigen Codes. Klassifizieren Sie Inhalte, die von einem Drittanbieter gehostet werden.
- Autorisierung – Suchen Sie beim Testen der Anwendung nach Pfaddurchquerungen, vertikalen und horizontalen Zugriffskontrollproblemen, fehlender Autorisierung und unsicheren, direkten Objektreferenzen.
- Sichern Sie alle Datenübertragungen mit Kryptographie. Wurden sensible Informationen verschlüsselt? Haben Sie Algorithmen verwendet, die dem Schnupftabak nicht gewachsen sind? Gibt es Zufallsfehler?
- Denial-of-Service – Testen Sie auf Anti-Automation, Kontosperrung, HTTP-Protokoll-DoS und SQL-Wildcard-DoS, um die Widerstandsfähigkeit einer Anwendung gegen Denial-of-Service-Angriffe zu verbessern. Dies beinhaltet nicht die Sicherheit gegen DoS- und DDoS-Angriffe mit hohem Volumen, die eine Mischung aus Filtertechnologien und skalierbaren Ressourcen erfordern, um zu widerstehen.
Weitere Informationen finden Sie im OWASP Web Application Security Testing Cheat Sheet (es ist auch eine großartige Ressource für andere sicherheitsbezogene Themen).
DDoS Schutz
DDoS-Angriffe oder verteilte Denial-of-Service-Angriffe sind eine typische Möglichkeit, eine Webanwendung zu unterbrechen. Es gibt eine Reihe von Ansätzen zur Abwehr von DDoS-Angriffen, darunter das Verwerfen von volumetrischem Angriffsverkehr in Content Delivery Networks (CDNs) und der Einsatz externer Netzwerke, um echte Anfragen angemessen weiterzuleiten, ohne eine Dienstunterbrechung zu verursachen.
DNSSEC-Schutz (Domain Name System Security Extensions)
Das Domain Name System (DNS) ist das Telefonbuch des Internets und spiegelt wider, wie ein Internet-Tool, beispielsweise ein Webbrowser, den entsprechenden Server findet. DNS-Cache-Poisoning, On-Path-Angriffe und andere Mittel zur Störung des DNS-Lookup-Lebenszyklus werden von böswilligen Akteuren verwendet, um diesen DNS-Anforderungsprozess zu kapern. Wenn DNS das Telefonbuch des Internets ist, ist DNSSEC eine nicht fälschbare Anrufer-ID. Eine DNS-Lookup-Anfrage kann mit der DNSSEC-Technologie geschützt werden.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/WASF-Zertifizierungscurriculum für Sicherheitsgrundlagen für Webanwendungen verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/IS/ACSS Erweiterte Computersystemsicherheit
EITC/IS/ACSS Advanced Computer Systems Security ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der Cybersicherheit in Computersystemen.
Das Curriculum des EITC/IS/ACSS Advanced Computer Systems Security umfasst Kenntnisse und praktische Fähigkeiten in den Bereichen Sicherheit mobiler Smart Devices, Sicherheitsanalyse, symbolische Ausführung, Netzwerksicherheit (einschließlich Web-Sicherheitsmodell und sichere Kanäle und Sicherheitszertifikate), praktische Implementierungen in realen Lebensszenarien, Sicherheit von Messaging und Speicherung sowie Timing-Angriffen innerhalb der folgenden Struktur, die umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfasst.
Fortschrittliche Computersystemsicherheit geht über einführende Begriffe hinaus. Der Lehrplan befasst sich zunächst mit der Sicherheit mobiler Geräte (einschließlich der Sicherheit mobiler Apps). Der Lehrplan geht dann zur formalen Sicherheitsanalyse über, die ein wichtiger Aspekt der Sicherheit von fortgeschrittenen Computersystemen ist, wobei der Schwerpunkt auf der symbolischen Ausführung liegt. Darüber hinaus behandelt der Lehrplan die Einführung in die Netzwerksicherheit, einschließlich der Einführung des Web-Sicherheitsmodells, der Netzwerksicherheit, der Definition und Theorie sicherer Kanäle sowie Sicherheitszertifikaten. Darüber hinaus befasst sich das Curriculum mit der praktischen Umsetzung von Informationssicherheit, insbesondere unter Berücksichtigung realer Szenarien. Anschließend werden bestimmte Bereiche von Sicherheitsanwendungen erörtert, nämlich Kommunikation (Messaging) und Speicherung (mit nicht vertrauenswürdigen Speicherservern). Es schließt mit der Diskussion fortgeschrittener Sicherheitsbedrohungen von Computersystemen in Form von CPU-Timing-Angriffen.
Der Schutz von Computersystemen und Informationen vor Beschädigung, Diebstahl und illegaler Nutzung wird allgemein als Computersystemsicherheit bezeichnet, manchmal auch als Cybersicherheit bezeichnet. Seriennummern, physische Sicherheitsmaßnahmen, Überwachung und Alarme werden häufig zum Schutz von Computergeräten verwendet, ebenso wie für andere wichtige oder sensible Geräte. Der Informations- und Systemzugriff in Software hingegen wird durch verschiedene Strategien geschützt, die zum Teil recht kompliziert sind und ausreichende fachliche Kompetenzen erfordern.
Vier Hauptgefahren werden durch die Sicherheitsverfahren im Zusammenhang mit den verarbeiteten Informationen und dem Zugriff von Computersystemen angegangen:
- Datendiebstahl von Regierungscomputern, wie geistiges Eigentum,
- Vandalismus, einschließlich der Verwendung eines Computervirus, um Daten zu zerstören oder zu entführen,
- Betrug, wie Hacker (oder z. B. Bankmitarbeiter), die Gelder auf ihre eigenen Konten umleiten,
- Verletzung der Privatsphäre, z. B. der Erhalt geschützter persönlicher Finanz- oder medizinischer Daten aus einer großen Datenbank ohne Erlaubnis.
Die grundlegendste Methode zum Schutz eines Computersystems vor Diebstahl, Vandalismus, Verletzung der Privatsphäre und anderem unverantwortlichen Verhalten besteht darin, den Zugriff und die Aktivitäten der verschiedenen Benutzer auf das System zu verfolgen und aufzuzeichnen. Dies wird oft dadurch erreicht, dass jeder Person, die Zugang zu einem System hat, ein eindeutiges Passwort gegeben wird. Das Computersystem kann dann die Verwendung dieser Passwörter automatisch verfolgen und dabei Informationen notieren, auf welche Dateien mit welchen Passwörtern zugegriffen wurde und so weiter. Eine andere Sicherheitstechnik besteht darin, die Daten eines Systems auf einem anderen Gerät oder Medium zu speichern, auf das das Computersystem normalerweise nicht zugreifen kann. Schließlich werden Daten häufig verschlüsselt, sodass nur diejenigen mit einem einzigen Verschlüsselungsschlüssel sie entschlüsseln können (was unter den Begriff der Kryptographie fällt).
Seit der Einführung von Modems (Geräte, die Computern die Interaktion über Telefonleitungen ermöglichen) in den späten 1960er Jahren wird die Computersicherheit immer wichtiger. In den 1980er Jahren verschärfte die Entwicklung von Personal Computern das Problem, indem sie es Hackern (unverantwortlich handelnden, in der Regel autodidaktischen Computerprofis, die Computerzugriffsbeschränkungen umgehen) erlaubten, von zu Hause aus unrechtmäßig auf wichtige Computersysteme zuzugreifen. Mit dem explosionsartigen Aufstieg des Internets Ende des XNUMX. und Anfang des XNUMX. Jahrhunderts wurde die Computersicherheit zu einem wichtigen Thema. Die Entwicklung verbesserter Sicherheitssysteme versucht, solche Schwachstellen zu verringern, doch Methoden der Computerkriminalität entwickeln sich ständig weiter und bergen neue Risiken.
Zu fragen, was gesichert wird, ist eine Methode, um die Ähnlichkeiten und Unterschiede in der Sicherheit von Computersystemen zu bestimmen.
Als Beispiel,
- Informationssicherheit ist der Schutz von Daten vor unbefugtem Zugriff, Veränderung und Löschung.
- Anwendungssicherheit ist der Schutz einer Anwendung vor Cyberbedrohungen wie SQL-Injection, DoS-Angriffen, Datenschutzverletzungen usw.
- Computersicherheit ist definiert als der Schutz von Computersystemen, die über Computernetzwerke in Bezug auf die Kontrolle kommunizieren, indem sie aktualisiert und gepatcht werden.
- Netzwerksicherheit ist definiert als die Sicherung sowohl von Software- als auch Hardwaretechnologien in einer Netzwerkumgebung – Cybersicherheit ist definiert als der Schutz von Computersystemen, die über Computernetzwerke in Bezug auf die Kontrolle kommunizieren, indem sie aktualisiert und gepatcht werden.
Es ist wichtig, die Unterschiede zwischen diesen Begriffen zu erkennen, auch wenn ihre Definitionen oder das Ausmaß ihrer Überschneidungen oder Austauschbarkeit nicht immer klar sind. Die Computersystemsicherheit bezieht sich auf die Sicherheitsvorkehrungen, die zur Gewährleistung der Vertraulichkeit, Integrität und Verfügbarkeit aller Computersystemkomponenten getroffen wurden.
Folgende Komponenten eines Computersystems müssen geschützt werden:
- Hardware oder die physischen Komponenten eines Computersystems, wie z. B. der Systemspeicher und das Festplattenlaufwerk.
- Firmware ist nichtflüchtige Software, die dauerhaft im nichtflüchtigen Speicher eines Hardwaregeräts gespeichert wird und im Allgemeinen für den Benutzer transparent ist.
- Software sind Computerprogramme, die Benutzern Dienste wie ein Betriebssystem, ein Textverarbeitungsprogramm und einen Webbrowser bereitstellen und bestimmen, wie die Hardware arbeitet, um Informationen entsprechend den von der Software definierten Zielen zu verarbeiten.
Die CIA-Triade befasst sich hauptsächlich mit drei Bereichen der Computersystemsicherheit:
- Die Vertraulichkeit stellt sicher, dass nur die beabsichtigte Zielgruppe Zugang zu Informationen hat.
- Integrität bezieht sich darauf, zu verhindern, dass Unbefugte die verarbeiteten Daten ändern.
- Verfügbarkeit bezieht sich auf die Fähigkeit, zu verhindern, dass Unbefugte Daten ändern.
Informationen und Computerkomponenten müssen verwendbar sein und gleichzeitig vor Personen oder Software geschützt sein, die nicht in der Lage sein sollten, darauf zuzugreifen oder sie zu ändern.
Die häufigsten Sicherheitsbedrohungen für Computersysteme
Sicherheitsrisiken für Computersysteme sind potenzielle Gefahren, die den Routinebetrieb Ihres Computers stören können. Da die Welt immer digitaler wird, nehmen Cyber-Risiken immer mehr zu. Im Folgenden sind die gefährlichsten Arten von Bedrohungen für die Computersicherheit aufgeführt:
- Viren – Ein Computervirus ist ein bösartiges Programm, das ohne Wissen des Benutzers auf seinem Computer installiert wird. Es repliziert sich selbst und infiziert die Daten und Programme des Benutzers. Der ultimative Zweck eines Virus besteht darin, zu verhindern, dass der Computer des Opfers jemals richtig oder überhaupt funktioniert.
- Computerwurm – Ein Computerwurm ist eine Art Software, die sich ohne menschliches Eingreifen von einem Computer auf einen anderen kopieren kann. Da sich ein Wurm in großen Mengen und mit hoher Geschwindigkeit replizieren kann, besteht die Gefahr, dass er den Festplattenspeicher Ihres Computers verbraucht.
- Phishing – Handlung einer Person, die sich als vertrauenswürdige Person oder Organisation ausgibt, um kritische finanzielle oder persönliche Informationen (einschließlich Zugangsdaten für Computersysteme) über sogenannte Phishing-E-Mails oder Instant Messaging zu stehlen. Phishing ist leider unglaublich einfach durchzuführen. Ein Opfer wird getäuscht, um zu glauben, dass es sich bei der Kommunikation des Phishers um eine authentische offizielle Kommunikation handelt und das Opfer vertrauliche persönliche Informationen freiwillig zur Verfügung stellt.
- Botnet – Ein Botnet ist eine Gruppe von Computern, die mit dem Internet verbunden sind und von einem Hacker mit einem Computervirus infiziert wurden. Der Begriff Zombie-Computer oder Bot bezieht sich auf einen einzelnen Computer im Botnet. Der Computer des Opfers, der Bot im Botnet, wird aufgrund dieser Bedrohung für böswillige Aktionen und größere Angriffe wie DDoS ausgenutzt.
- Rootkit – Ein Rootkit ist ein Computerprogramm, das privilegierten Zugriff auf einen Computer aufrechterhält und versucht, seine Anwesenheit zu verbergen. Der Controller des Rootkits ist in der Lage, Dateien aus der Ferne auszuführen und Systemkonfigurationen auf dem Host-Rechner zu ändern, sobald er installiert wurde.
- Keylogger – Keylogger, oft auch als Keylogger bezeichnet, können die Computeraktivität eines Benutzers in Echtzeit überwachen. Es zeichnet alle Tastenanschläge auf, die von der Tastatur des Benutzers ausgeführt werden. Die Verwendung eines Keyloggers zum Stehlen der Anmeldeinformationen von Benutzern wie Benutzername und Passwort ist ebenfalls eine ernsthafte Bedrohung.
Dies sind vielleicht die am weitesten verbreiteten Sicherheitsrisiken, denen man in letzter Zeit begegnen kann. Es gibt noch mehr, wie Malware, Wabbits, Scareware, Bluesnarfing und viele andere. Glücklicherweise gibt es Techniken, um Computersysteme und deren Benutzer gegen solche Angriffe zu verteidigen.
Wir alle möchten unsere Computersysteme und persönlichen oder beruflichen Daten in diesem digitalen Zeitalter privat halten, daher ist die Sicherheit von Computersystemen für den Schutz unserer persönlichen Daten unerlässlich. Es ist auch wichtig, unsere Computer sicher und fehlerfrei zu halten, indem verhindert wird, dass Viren und Malware die Systemleistung beeinträchtigen.
Praktiken in der Computersystemsicherheit
Heutzutage werden die Sicherheitsrisiken von Computersystemen immer innovativer. Um sich vor diesen komplizierten und steigenden Computersicherheitsrisiken zu schützen und online sicher zu bleiben, muss man sich mit Informationen und Ressourcen ausrüsten. Folgende Vorkehrungen kann man treffen:
- Installation zuverlässiger Antiviren- und Sicherheitssoftware
- Da eine Firewall als Sicherheitswächter zwischen dem Internet und Ihrem lokalen Netzwerk fungiert, sollten Sie sie aktivieren.
- Bleiben Sie über die neueste Software und Neuigkeiten zu Ihren Geräten auf dem Laufenden und installieren Sie Updates, sobald sie verfügbar sind.
- Wenn Sie sich über die Herkunft eines E-Mail-Anhangs nicht sicher sind, öffnen Sie ihn nicht.
- Ändern Sie Passwörter regelmäßig mit einer einzigartigen Kombination aus Zahlen, Buchstaben und Groß-/Kleinschreibung.
- Achten Sie beim Zugriff auf das Internet auf Pop-ups und Drive-by-Downloads.
- Investieren Sie die Zeit, um sich mit den Grundlagen der Computersicherheit vertraut zu machen und mit den neuesten Cyber-Bedrohungen Schritt zu halten
- Führen Sie tägliche vollständige Systemscans durch und erstellen Sie einen regelmäßigen Systemsicherungsplan, um sicherzustellen, dass Ihre Daten bei einem Ausfall Ihres Computers wiederherstellbar sind.
Darüber hinaus gibt es eine Reihe weiterer professioneller Ansätze zum Schutz von Computersystemen. Aspekte wie eine angemessene Spezifikation der Sicherheitsarchitektur, Verschlüsselung und spezielle Software können zum Schutz von Computersystemen beitragen.
Bedauerlicherweise nimmt die Zahl der Cyber-Gefahren rapide zu und es treten immer komplexere Angriffe auf. Um diese Angriffe zu bekämpfen und Gefahren zu mindern, sind mehr professionelle und spezialisierte Cybersicherheitskenntnisse erforderlich.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/ACSS Advanced Computer Systems Security Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
Grundlagen der Sicherheit von EITC/IS/CSSF-Computersystemen
EITC/IS/CSSF Computer Systems Security Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der Cybersicherheit in Computersystemen.
Das Curriculum der EITC/IS/CSSF-Grundlagen der Computersystemsicherheit umfasst Kenntnisse und praktische Fähigkeiten in den Bereichen Sicherheitsarchitektur von Computersystemen, Benutzerauthentifizierung, Angriffsklassen, Schadensminderung durch Sicherheitslücken, Privilegientrennung, Softwarecontainer und -isolierung sowie sichere Enklaven, innerhalb der folgenden Struktur, die umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfasst.
Die Sicherheit von Computersystemen ist ein breites Konzept der Anwendung von Architekturen und Methoden zur Gewährleistung einer sicheren Informationsverarbeitung und -kommunikation in Computersystemen. Um dieses Problem aus theoretischer Sicht anzugehen, behandelt das Curriculum zunächst die Sicherheitsarchitektur von Computersystemen. Dann geht es zur Diskussion von Problemen der Benutzerauthentifizierung in sicheren Computersystemen, gefolgt von der Betrachtung von Computersystemangriffen, wobei der Schwerpunkt auf einer allgemeinen Klasse der sogenannten Pufferüberlaufangriffe liegt. Der Lehrplan behandelt dann die Schadensbegrenzung von Sicherheitslücken in Computersystemen, wobei der Schwerpunkt auf der Trennung von Berechtigungen, Linux-Containern und Softwareisolierung liegt. Der letzte Teil des Curriculums behandelt sichere Enklaven in Computersystemen.
Der Schutz von Computersystemen und Informationen vor Beschädigung, Diebstahl und illegaler Nutzung wird allgemein als Computersystemsicherheit bezeichnet, manchmal auch als Cybersicherheit bezeichnet. Seriennummern, physische Sicherheitsmaßnahmen, Überwachung und Alarme werden häufig zum Schutz von Computergeräten verwendet, ebenso wie für andere wichtige oder sensible Geräte. Der Informations- und Systemzugriff in Software hingegen wird durch verschiedene Strategien geschützt, die zum Teil recht kompliziert sind und ausreichende fachliche Kompetenzen erfordern.
Vier Hauptgefahren werden durch die Sicherheitsverfahren im Zusammenhang mit den verarbeiteten Informationen und dem Zugriff von Computersystemen angegangen:
- Datendiebstahl von Regierungscomputern, wie geistiges Eigentum,
- Vandalismus, einschließlich der Verwendung eines Computervirus, um Daten zu zerstören oder zu entführen,
- Betrug, wie Hacker (oder z. B. Bankmitarbeiter), die Gelder auf ihre eigenen Konten umleiten,
- Verletzung der Privatsphäre, z. B. der Erhalt geschützter persönlicher Finanz- oder medizinischer Daten aus einer großen Datenbank ohne Erlaubnis.
Die grundlegendste Methode zum Schutz eines Computersystems vor Diebstahl, Vandalismus, Verletzung der Privatsphäre und anderem unverantwortlichen Verhalten besteht darin, den Zugriff und die Aktivitäten der verschiedenen Benutzer auf das System zu verfolgen und aufzuzeichnen. Dies wird oft dadurch erreicht, dass jeder Person, die Zugang zu einem System hat, ein eindeutiges Passwort gegeben wird. Das Computersystem kann dann die Verwendung dieser Passwörter automatisch verfolgen und dabei Informationen notieren, auf welche Dateien mit welchen Passwörtern zugegriffen wurde und so weiter. Eine andere Sicherheitstechnik besteht darin, die Daten eines Systems auf einem anderen Gerät oder Medium zu speichern, auf das das Computersystem normalerweise nicht zugreifen kann. Schließlich werden Daten häufig verschlüsselt, sodass nur diejenigen mit einem einzigen Verschlüsselungsschlüssel sie entschlüsseln können (was unter den Begriff der Kryptographie fällt).
Seit der Einführung von Modems (Geräte, die Computern die Interaktion über Telefonleitungen ermöglichen) in den späten 1960er Jahren wird die Computersicherheit immer wichtiger. In den 1980er Jahren verschärfte die Entwicklung von Personal Computern das Problem, indem sie es Hackern (unverantwortlich handelnden, in der Regel autodidaktischen Computerprofis, die Computerzugriffsbeschränkungen umgehen) erlaubten, von zu Hause aus unrechtmäßig auf wichtige Computersysteme zuzugreifen. Mit dem explosionsartigen Aufstieg des Internets Ende des XNUMX. und Anfang des XNUMX. Jahrhunderts wurde die Computersicherheit zu einem wichtigen Thema. Die Entwicklung verbesserter Sicherheitssysteme versucht, solche Schwachstellen zu verringern, doch Methoden der Computerkriminalität entwickeln sich ständig weiter und bergen neue Risiken.
Zu fragen, was gesichert wird, ist eine Methode, um die Ähnlichkeiten und Unterschiede in der Sicherheit von Computersystemen zu bestimmen.
Als Beispiel,
- Informationssicherheit ist der Schutz von Daten vor unbefugtem Zugriff, Veränderung und Löschung.
- Anwendungssicherheit ist der Schutz einer Anwendung vor Cyberbedrohungen wie SQL-Injection, DoS-Angriffen, Datenschutzverletzungen usw.
- Computersicherheit ist definiert als der Schutz von Computersystemen, die über Computernetzwerke in Bezug auf die Kontrolle kommunizieren, indem sie aktualisiert und gepatcht werden.
- Netzwerksicherheit ist definiert als die Sicherung sowohl von Software- als auch Hardwaretechnologien in einer Netzwerkumgebung – Cybersicherheit ist definiert als der Schutz von Computersystemen, die über Computernetzwerke in Bezug auf die Kontrolle kommunizieren, indem sie aktualisiert und gepatcht werden.
Es ist wichtig, die Unterschiede zwischen diesen Begriffen zu erkennen, auch wenn ihre Definitionen oder das Ausmaß ihrer Überschneidungen oder Austauschbarkeit nicht immer klar sind. Die Computersystemsicherheit bezieht sich auf die Sicherheitsvorkehrungen, die zur Gewährleistung der Vertraulichkeit, Integrität und Verfügbarkeit aller Computersystemkomponenten getroffen wurden.
Folgende Komponenten eines Computersystems müssen geschützt werden:
- Hardware oder die physischen Komponenten eines Computersystems, wie z. B. der Systemspeicher und das Festplattenlaufwerk.
- Firmware ist nichtflüchtige Software, die dauerhaft im nichtflüchtigen Speicher eines Hardwaregeräts gespeichert wird und im Allgemeinen für den Benutzer transparent ist.
- Software sind Computerprogramme, die Benutzern Dienste wie ein Betriebssystem, ein Textverarbeitungsprogramm und einen Webbrowser bereitstellen und bestimmen, wie die Hardware arbeitet, um Informationen entsprechend den von der Software definierten Zielen zu verarbeiten.
Die CIA-Triade befasst sich hauptsächlich mit drei Bereichen der Computersystemsicherheit:
- Die Vertraulichkeit stellt sicher, dass nur die beabsichtigte Zielgruppe Zugang zu Informationen hat.
- Integrität bezieht sich darauf, zu verhindern, dass Unbefugte die verarbeiteten Daten ändern.
- Verfügbarkeit bezieht sich auf die Fähigkeit, zu verhindern, dass Unbefugte Daten ändern.
Informationen und Computerkomponenten müssen verwendbar sein und gleichzeitig vor Personen oder Software geschützt sein, die nicht in der Lage sein sollten, darauf zuzugreifen oder sie zu ändern.
Die häufigsten Sicherheitsbedrohungen für Computersysteme
Sicherheitsrisiken für Computersysteme sind potenzielle Gefahren, die den Routinebetrieb Ihres Computers stören können. Da die Welt immer digitaler wird, nehmen Cyber-Risiken immer mehr zu. Im Folgenden sind die gefährlichsten Arten von Bedrohungen für die Computersicherheit aufgeführt:
- Viren – Ein Computervirus ist ein bösartiges Programm, das ohne Wissen des Benutzers auf seinem Computer installiert wird. Es repliziert sich selbst und infiziert die Daten und Programme des Benutzers. Der ultimative Zweck eines Virus besteht darin, zu verhindern, dass der Computer des Opfers jemals richtig oder überhaupt funktioniert.
- Computerwurm – Ein Computerwurm ist eine Art Software, die sich ohne menschliches Eingreifen von einem Computer auf einen anderen kopieren kann. Da sich ein Wurm in großen Mengen und mit hoher Geschwindigkeit replizieren kann, besteht die Gefahr, dass er den Festplattenspeicher Ihres Computers verbraucht.
- Phishing – Handlung einer Person, die sich als vertrauenswürdige Person oder Organisation ausgibt, um kritische finanzielle oder persönliche Informationen (einschließlich Zugangsdaten für Computersysteme) über sogenannte Phishing-E-Mails oder Instant Messaging zu stehlen. Phishing ist leider unglaublich einfach durchzuführen. Ein Opfer wird getäuscht, um zu glauben, dass es sich bei der Kommunikation des Phishers um eine authentische offizielle Kommunikation handelt und das Opfer vertrauliche persönliche Informationen freiwillig zur Verfügung stellt.
- Botnet – Ein Botnet ist eine Gruppe von Computern, die mit dem Internet verbunden sind und von einem Hacker mit einem Computervirus infiziert wurden. Der Begriff Zombie-Computer oder Bot bezieht sich auf einen einzelnen Computer im Botnet. Der Computer des Opfers, der Bot im Botnet, wird aufgrund dieser Bedrohung für böswillige Aktionen und größere Angriffe wie DDoS ausgenutzt.
- Rootkit – Ein Rootkit ist ein Computerprogramm, das privilegierten Zugriff auf einen Computer aufrechterhält und versucht, seine Anwesenheit zu verbergen. Der Controller des Rootkits ist in der Lage, Dateien aus der Ferne auszuführen und Systemkonfigurationen auf dem Host-Rechner zu ändern, sobald er installiert wurde.
- Keylogger – Keylogger, oft auch als Keylogger bezeichnet, können die Computeraktivität eines Benutzers in Echtzeit überwachen. Es zeichnet alle Tastenanschläge auf, die von der Tastatur des Benutzers ausgeführt werden. Die Verwendung eines Keyloggers zum Stehlen der Anmeldeinformationen von Benutzern wie Benutzername und Passwort ist ebenfalls eine ernsthafte Bedrohung.
Dies sind vielleicht die am weitesten verbreiteten Sicherheitsrisiken, denen man in letzter Zeit begegnen kann. Es gibt noch mehr, wie Malware, Wabbits, Scareware, Bluesnarfing und viele andere. Glücklicherweise gibt es Techniken, um Computersysteme und deren Benutzer gegen solche Angriffe zu verteidigen.
Wir alle möchten unsere Computersysteme und persönlichen oder beruflichen Daten in diesem digitalen Zeitalter privat halten, daher ist die Sicherheit von Computersystemen für den Schutz unserer persönlichen Daten unerlässlich. Es ist auch wichtig, unsere Computer sicher und fehlerfrei zu halten, indem verhindert wird, dass Viren und Malware die Systemleistung beeinträchtigen.
Praktiken in der Computersystemsicherheit
Heutzutage werden die Sicherheitsrisiken von Computersystemen immer innovativer. Um sich vor diesen komplizierten und steigenden Computersicherheitsrisiken zu schützen und online sicher zu bleiben, muss man sich mit Informationen und Ressourcen ausrüsten. Folgende Vorkehrungen kann man treffen:
- Installation zuverlässiger Antiviren- und Sicherheitssoftware
- Da eine Firewall als Sicherheitswächter zwischen dem Internet und Ihrem lokalen Netzwerk fungiert, sollten Sie sie aktivieren.
- Bleiben Sie über die neueste Software und Neuigkeiten zu Ihren Geräten auf dem Laufenden und installieren Sie Updates, sobald sie verfügbar sind.
- Wenn Sie sich über die Herkunft eines E-Mail-Anhangs nicht sicher sind, öffnen Sie ihn nicht.
- Ändern Sie Passwörter regelmäßig mit einer einzigartigen Kombination aus Zahlen, Buchstaben und Groß-/Kleinschreibung.
- Achten Sie beim Zugriff auf das Internet auf Pop-ups und Drive-by-Downloads.
- Investieren Sie die Zeit, um sich mit den Grundlagen der Computersicherheit vertraut zu machen und mit den neuesten Cyber-Bedrohungen Schritt zu halten
- Führen Sie tägliche vollständige Systemscans durch und erstellen Sie einen regelmäßigen Systemsicherungsplan, um sicherzustellen, dass Ihre Daten bei einem Ausfall Ihres Computers wiederherstellbar sind.
Darüber hinaus gibt es eine Reihe weiterer professioneller Ansätze zum Schutz von Computersystemen. Aspekte wie eine angemessene Spezifikation der Sicherheitsarchitektur, Verschlüsselung und spezielle Software können zum Schutz von Computersystemen beitragen.
Bedauerlicherweise nimmt die Zahl der Cyber-Gefahren rapide zu und es treten immer komplexere Angriffe auf. Um diese Angriffe zu bekämpfen und Gefahren zu mindern, sind mehr professionelle und spezialisierte Cybersicherheitskenntnisse erforderlich.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/CSSF-Zertifizierungscurriculum für Computersystemsicherheitsgrundlagen verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
Grundlagen der EITC/IS/CCTF Computational Complexity Theory
EITC/IS/CCTF Computational Complexity Theory Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen Aspekten der Grundlagen der Informatik, die auch eine Grundlage der im Internet weit verbreiteten klassischen asymmetrischen Public-Key-Kryptographie sind.
Das Curriculum der EITC/IS/CCTF Computational Complexity Theory Fundamentals umfasst theoretisches Wissen zu Grundlagen der Informatik und Computermodelle zu grundlegenden Konzepten wie deterministischen und nichtdeterministischen endlichen Automaten, regulären Sprachen, kontextfreien Grammatiken und Sprachentheorie, Automatentheorie, Turing Maschinen, Entscheidbarkeit von Problemen, Rekursion, Logik und Komplexität der Algorithmik für grundlegende Sicherheitsanwendungen innerhalb der folgenden Struktur, umfassend umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung.
Die Rechenkomplexität eines Algorithmus ist die Menge an Ressourcen, die für seinen Betrieb erforderlich sind. Zeit- und Speicherressourcen werden besondere Aufmerksamkeit gewidmet. Die Komplexität eines Problems ist definiert als die Komplexität der besten Algorithmen zu deren Lösung. Die Analyse von Algorithmen ist das Studium der Komplexität explizit gegebener Algorithmen, während die Computational Complexity Theory das Studium der Komplexität von Problemlösungen mit den bekanntesten Algorithmen ist. Beide Domänen sind miteinander verflochten, da die Komplexität eines Algorithmus immer eine obere Beschränkung der Komplexität des von ihm gelösten Problems ist. Darüber hinaus ist es bei der Konstruktion effizienter Algorithmen häufig erforderlich, die Komplexität eines bestimmten Algorithmus mit der Komplexität des zu lösenden Problems zu vergleichen. In den meisten Fällen ist die einzige verfügbare Information bezüglich der Schwierigkeit eines Problems, dass sie geringer ist als die Komplexität der effizientesten bekannten Techniken. Infolgedessen gibt es viele Überschneidungen zwischen der Algorithmusanalyse und der Komplexitätstheorie.
Die Komplexitätstheorie spielt nicht nur bei der Grundlagenermittlung von Rechenmodellen als Grundlage für die Informatik eine wichtige Rolle, sondern auch bei den Grundlagen der klassischen asymmetrischen Kryptographie (sog. Public-Key-Kryptographie), die in modernen Netzwerken, insbesondere im Internet, weit verbreitet ist. Die Public-Key-Verschlüsselung basiert auf rechnerisch schwierigen bestimmten asymmetrischen mathematischen Problemen wie zum Beispiel der Faktorisierung großer Zahlen in ihre Primfaktoren (diese Operation ist ein schwieriges Problem in der Klassifikation der Komplexitätstheorie, da keine effizienten klassischen Algorithmen bekannt sind, die gelöst werden müssen es mit einer polynomiellen Skalierung der Ressourcen statt einer exponentiellen Skalierung mit der Zunahme der Eingabegröße des Problems, was im Gegensatz zu einer sehr einfachen umgekehrten Operation der Multiplikation mit bekannten Primfaktoren steht, um die ursprüngliche große Zahl zu erhalten). Unter Verwendung dieser Asymmetrie in einer Architektur der Public-Key-Kryptographie (durch Definieren einer rechnerisch asymmetrischen Beziehung zwischen dem öffentlichen Schlüssel, der leicht aus einem privaten Schlüssel berechnet werden kann, während der private Schlüssel nicht einfach aus einem öffentlichen Schlüssel computergesteuert werden kann, kann man öffentlich den öffentlichen Schlüssel bekannt geben und anderen Kommunikationsseiten ermöglichen, ihn zur asymmetrischen Verschlüsselung von Daten zu verwenden, die dann nur noch mit dem gekoppelten privaten Schlüssel entschlüsselt werden können, rechnerisch nicht für Dritte verfügbar, wodurch die Kommunikation sicher wird).
Die Computational Complexity Theory wurde hauptsächlich auf den Errungenschaften von Pionieren der Informatik und der Algorithmik entwickelt, wie Alan Turing, dessen Arbeit entscheidend dazu beigetragen hat, die Enigma-Chiffre von Nazi-Deutschland zu knacken, die eine entscheidende Rolle beim Sieg der Verbündeten im Zweiten Weltkrieg spielte. Kryptoanalyse, die darauf abzielt, die Rechenprozesse der Datenanalyse (hauptsächlich verschlüsselte Kommunikation) zu entwickeln und zu automatisieren, um die versteckten Informationen aufzudecken, wurde verwendet, um kryptografische Systeme zu durchbrechen und Zugang zu den Inhalten der verschlüsselten Kommunikation zu erhalten, die normalerweise von strategischer militärischer Bedeutung ist. Es war auch die Kryptoanalyse, die die Entwicklung der ersten modernen Computer katalysierte (die ursprünglich auf das strategische Ziel des Codeknackens angewendet wurden). Dem britischen Koloss (der als erster moderner elektronischer und programmatischer Computer gilt) ging die polnische „Bombe“ voraus, ein elektronisches Rechengerät, das von Marian Rejewski entwickelt wurde, um beim Brechen der Enigma-Chiffren zu helfen, und vom polnischen Geheimdienst zusammen mit . an Großbritannien übergeben wurde die erbeutete deutsche Enigma-Verschlüsselungsmaschine, nachdem Polen 1939 von Deutschland überfallen wurde. Auf der Grundlage dieses Geräts entwickelte Alan Turing sein fortschrittlicheres Gegenstück, um die deutsche verschlüsselte Kommunikation erfolgreich zu brechen, die später zu modernen Computern weiterentwickelt wurde.
Da die zum Ausführen eines Algorithmus erforderliche Ressourcenmenge mit der Größe der Eingabe variiert, wird die Komplexität normalerweise als Funktion f(n) ausgedrückt, wobei n die Eingabegröße und f(n) entweder die Worst-Case-Komplexität ( die maximal erforderliche Ressourcenmenge über alle Inputs der Größe n) oder die durchschnittliche Fallkomplexität (der Durchschnitt der Ressourcenmenge über alle Inputs der Größe n). Die Anzahl der erforderlichen elementaren Operationen an einer Eingabe der Größe n wird allgemein als Zeitkomplexität angegeben, wobei angenommen wird, dass elementare Operationen auf einem bestimmten Computer eine konstante Zeit benötigen und sich nur um einen konstanten Faktor ändern, wenn sie auf einer anderen Maschine ausgeführt werden. Die Speicherkapazität, die ein Algorithmus für eine Eingabe der Größe n benötigt, wird als Raumkomplexität bezeichnet.
Zeit ist die am häufigsten betrachtete Ressource. Wenn der Begriff „Komplexität“ ohne Qualifier verwendet wird, bezieht er sich normalerweise auf die Komplexität der Zeit.
Die traditionellen Zeiteinheiten (Sekunden, Minuten usw.) werden in der Komplexitätstheorie nicht verwendet, da sie zu stark vom gewählten Computer und dem Fortschritt der Technologie abhängig sind. Zum Beispiel kann ein Computer heute einen Algorithmus wesentlich schneller ausführen als ein Computer aus den 1960er Jahren, jedoch liegt dies eher an technologischen Durchbrüchen in der Computerhardware als an einer inhärenten Qualität des Algorithmus. Das Ziel der Komplexitätstheorie besteht darin, den inhärenten Zeitbedarf von Algorithmen oder die grundlegenden Zeitbeschränkungen zu quantifizieren, die ein Algorithmus jedem Computer auferlegen würde. Dies wird erreicht, indem gezählt wird, wie viele Grundoperationen während der Berechnung ausgeführt werden. Diese Prozeduren werden im Allgemeinen als Schritte bezeichnet, da davon ausgegangen wird, dass sie auf einer bestimmten Maschine eine konstante Zeit benötigen (dh sie werden nicht von der Menge der Eingabe beeinflusst).
Eine weitere entscheidende Ressource ist die Menge an Computerspeicher, die für die Ausführung von Algorithmen erforderlich ist.
Eine weitere häufig verwendete Ressource ist die Anzahl der arithmetischen Operationen. In diesem Szenario wird der Begriff „arithmetische Komplexität“ verwendet. Die Zeitkomplexität ist im Allgemeinen das Produkt der arithmetischen Komplexität mit einem konstanten Faktor, wenn eine obere Beschränkung der Größe der binären Darstellung der Zahlen bekannt ist, die während einer Berechnung auftreten.
Die Größe der während einer Berechnung verwendeten ganzen Zahlen ist für viele Verfahren nicht beschränkt, und es ist unrealistisch anzunehmen, dass arithmetische Operationen eine feste Zeitdauer benötigen. Dadurch kann die Zeitkomplexität, auch Bitkomplexität genannt, deutlich höher sein als die arithmetische Komplexität. Die arithmetische Schwierigkeit der Berechnung der Determinante einer ganzzahligen nn-Matrix ist beispielsweise O(n^3) für Standardtechniken (Gaußsche Elimination). Da sich die Größe der Koeffizienten während der Berechnung exponentiell ausdehnen kann, ist die Bitkomplexität der gleichen Verfahren in n exponentiell. Wenn diese Techniken in Verbindung mit multimodularer Arithmetik verwendet werden, kann die Bitkomplexität auf O(n^4) verringert werden.
Die Bitkomplexität bezieht sich formal auf die Anzahl von Operationen an Bits, die zum Ausführen eines Algorithmus erforderlich sind. Sie entspricht der zeitlichen Komplexität bis auf einen konstanten Faktor in den meisten Berechnungsparadigmen. Die Anzahl der von Computern benötigten Operationen an Maschinenwörtern ist proportional zur Bitkomplexität. Für realistische Berechnungsmodelle sind somit die Zeitkomplexität und die Bitkomplexität identisch.
Die Ressource, die beim Sortieren und Suchen häufig berücksichtigt wird, ist die Anzahl der Vergleiche von Einträgen. Wenn die Daten gut geordnet sind, ist dies ein guter Indikator für die zeitliche Komplexität.
Bei allen möglichen Eingaben ist es unmöglich, die Anzahl der Schritte in einem Algorithmus zu zählen. Da die Komplexität einer Eingabe mit ihrer Größe ansteigt, wird sie üblicherweise als Funktion der Größe n der Eingabe (in Bits) dargestellt, und somit ist die Komplexität eine Funktion von n. Bei gleich großen Eingaben kann die Komplexität eines Algorithmus jedoch erheblich variieren. Als Ergebnis werden routinemäßig eine Vielzahl von Komplexitätsfunktionen verwendet.
Die Worst-Case-Komplexität ist die Summe aller Komplexität für alle Inputs der Größe n, während die Average-Case-Komplexität die Summe aller Komplexitäten für alle Inputs der Größe n ist (dies ist sinnvoll, da die Anzahl der möglichen Inputs einer gegebenen Größe endlich). Bei der Verwendung des Begriffs „Komplexität“ ohne weitere Definition wird die Worst-Case-Zeitkomplexität berücksichtigt.
Die Worst-Case- und Average-Case-Komplexität sind notorisch schwer richtig zu berechnen. Darüber hinaus haben diese genauen Werte wenig praktische Anwendung, da jede Änderung des Maschinen- oder Berechnungsparadigmas die Komplexität geringfügig verändern würde. Darüber hinaus ist die Ressourcennutzung für kleine Werte von n nicht entscheidend, daher ist eine einfache Implementierung für kleine n oft attraktiver als eine geringe Komplexität.
Aus diesen Gründen wird dem Verhalten der Komplexität für hohes n die meiste Aufmerksamkeit gewidmet, d. h. seinem asymptotischen Verhalten, wenn n gegen unendlich geht. Daher wird häufig die große O-Notation verwendet, um Komplexität anzuzeigen.
Computermodelle
Die Wahl eines Berechnungsmodells, das darin besteht, die wesentlichen Operationen anzugeben, die in einer Zeiteinheit durchgeführt werden, ist entscheidend für die Bestimmung der Komplexität. Dies wird manchmal als Multitape-Turing-Maschine bezeichnet, wenn das Berechnungsparadigma nicht speziell beschrieben wird.
Ein deterministisches Berechnungsmodell ist eines, bei dem die nachfolgenden Zustände der Maschine und die auszuführenden Operationen vollständig durch den vorherigen Zustand definiert werden. Rekursive Funktionen, Lambda-Kalkül und Turing-Maschinen waren die ersten deterministischen Modelle. Random-Access-Maschinen (auch als RAM-Maschinen bekannt) sind ein beliebtes Paradigma für die Simulation realer Computer.
Wenn das Berechnungsmodell nicht definiert ist, wird normalerweise von einer Multitape-Turingmaschine ausgegangen. Auf Multitape-Turing-Maschinen ist die Zeitkomplexität für die meisten Algorithmen dieselbe wie auf RAM-Maschinen, obwohl beträchtliche Aufmerksamkeit bei der Speicherung der Daten im Speicher erforderlich sein kann, um diese Äquivalenz zu erreichen.
In einigen Schritten der Berechnung können in einem nicht-deterministischen Berechnungsmodell, wie beispielsweise nicht-deterministischen Turing-Maschinen, verschiedene Entscheidungen getroffen werden. In der Komplexitätstheorie werden alle möglichen Optionen gleichzeitig berücksichtigt, und nichtdeterministische Zeitkomplexität ist die Zeit, die erforderlich ist, wenn immer die besten Entscheidungen getroffen werden. Anders ausgedrückt, die Berechnung erfolgt gleichzeitig auf so vielen (identischen) Prozessoren wie erforderlich, und die nicht-deterministische Berechnungszeit ist die Zeit, die der erste Prozessor benötigt, um die Berechnung abzuschließen. Diese Parallelität kann im Quantencomputing genutzt werden, indem überlagerte verschränkte Zustände verwendet werden, wenn spezielle Quantenalgorithmen ausgeführt werden, wie zum Beispiel die Faktorisierung winziger Ganzzahlen nach Shor.
Auch wenn ein solches Berechnungsmodell derzeit nicht praktikabel ist, hat es theoretische Bedeutung, insbesondere in Bezug auf das P = NP-Problem, das fragt, ob die unter Verwendung von „polynomialer Zeit“ und „nicht deterministischer polynomialer Zeit“ erzeugten Komplexitätsklassen als mindestens obere Grenzen sind gleich. Auf einem deterministischen Computer erfordert die Simulation eines NP-Algorithmus „exponentielle Zeit“. Wenn eine Aufgabe in polynomieller Zeit auf einem nicht-deterministischen System gelöst werden kann, gehört sie zur NP-Schwierigkeitsklasse. Wenn ein Problem in NP liegt und nicht einfacher ist als jedes andere NP-Problem, wird es als NP-vollständig bezeichnet. Das Knapsack-Problem, das Travelling-Salesman-Problem und das Boolesche Erfüllbarkeitsproblem sind alle NP-vollständige kombinatorische Probleme. Der bekannteste Algorithmus weist für all diese Probleme eine exponentielle Komplexität auf. Wenn eines dieser Probleme in polynomieller Zeit auf einer deterministischen Maschine gelöst werden könnte, dann könnten auch alle NP-Probleme in polynomieller Zeit gelöst werden, und P = NP wäre festgelegt. Ab 2017 wird allgemein angenommen, dass P NP ist, was impliziert, dass die schlimmsten Situationen von NP-Problemen grundsätzlich schwer zu lösen sind, dh bei interessanten Eingabelängen viel länger dauern als jede mögliche Zeitspanne (Dekaden).
Paralleles und verteiltes Rechnen
Paralleles und verteiltes Rechnen beinhaltet die Aufteilung der Verarbeitung auf mehrere Prozessoren, die alle gleichzeitig arbeiten. Der grundlegende Unterschied zwischen den verschiedenen Modellen besteht in der Art und Weise, wie Daten zwischen Prozessoren gesendet werden. Die Datenübertragung zwischen Prozessoren ist beim parallelen Rechnen typischerweise sehr schnell, wohingegen die Datenübertragung zwischen den Prozessoren beim verteilten Rechnen über ein Netzwerk erfolgt und somit wesentlich langsamer ist.
Eine Berechnung auf N Prozessoren benötigt mindestens den Quotienten von N der Zeit, die sie auf einem einzelnen Prozessor benötigt. Da einige Teilaufgaben nicht parallelisiert werden können und einige Prozessoren möglicherweise auf ein Ergebnis von einem anderen Prozessor warten müssen, wird diese theoretisch ideale Grenze in Wirklichkeit nie erreicht.
Das Hauptproblem der Komplexität besteht daher darin, Algorithmen zu entwickeln, damit das Produkt der Rechenzeit durch die Anzahl der Prozessoren so nah wie möglich an der Zeit ist, die erforderlich ist, um dieselbe Berechnung auf einem einzelnen Prozessor durchzuführen.
Quantenberechnung
Ein Quantencomputer ist ein Computer mit einem quantenmechanischen Rechenmodell. Für Quantencomputer gilt die Church-Turing-These, die besagt, dass jedes Problem, das ein Quantencomputer lösen kann, auch von einer Turing-Maschine gelöst werden kann. Einige Aufgaben könnten jedoch theoretisch mit einem Quantencomputer und nicht mit einem klassischen Computer mit deutlich geringerer zeitlicher Komplexität gelöst werden. Dies ist vorerst rein theoretisch, da niemand weiß, wie man einen praktischen Quantencomputer entwickelt.
Die Quantenkomplexitätstheorie wurde entwickelt, um die verschiedenen Arten von Problemen zu untersuchen, die von Quantencomputern gelöst werden können. Es wird in der Post-Quanten-Kryptografie verwendet, bei der kryptografische Protokolle erstellt werden, die gegen Angriffe auf Quantencomputer resistent sind.
Komplexität des Problems (untere Schranken)
Die Komplexität der Algorithmen, die das Problem lösen können, einschließlich unentdeckter Techniken, ist die Komplexität des Problems. Als Ergebnis ist die Komplexität eines Problems gleich der Komplexität jedes Algorithmus, der es löst.
Als Ergebnis repräsentiert jede in großer O-Notation angegebene Komplexität eine Komplexität sowohl des Algorithmus als auch des begleitenden Problems.
Andererseits ist es oft schwierig, nichttriviale untere Schranken für die Problemkomplexität zu erhalten, und dafür gibt es nur wenige Strategien.
Um die meisten Probleme zu lösen, müssen alle Eingabedaten gelesen werden, was proportional zur Größe der Daten Zeit in Anspruch nimmt. Als Ergebnis haben solche Probleme mindestens eine lineare Komplexität oder, in Big-Omega-Notation, eine Komplexität von Ω(n).
Für einige Probleme, wie die der Computeralgebra und der computeralgebraischen Geometrie, gibt es sehr umfangreiche Lösungen. Da die Ausgabe geschrieben werden muss, wird die Komplexität durch die maximale Größe der Ausgabe eingeschränkt.
Die für einen Sortieralgorithmus erforderliche Anzahl von Vergleichen hat eine nichtlineare untere Schranke von (nlogn). Als Ergebnis sind die besten Sortieralgorithmen die effizientesten, da ihre Komplexität O(nlogn) beträgt. Die Tatsache, dass es n! Möglichkeiten, n Dinge zu organisieren, führt zu dieser unteren Schranke. Da jeder Vergleich diese Sammlung von n teilt! Ordnungen in zwei Teile zerlegt, muss die Anzahl von N Vergleichen, die erforderlich ist, um alle Ordnungen zu unterscheiden, 2N > n! sein, was O(nlogn) nach der Stirling-Formel impliziert.
Das Reduzieren eines Problems auf ein anderes Problem ist eine übliche Strategie zum Erhalten von Beschränkungen der reduzierten Komplexität.
Algorithmenentwicklung
Die Bewertung der Komplexität eines Algorithmus ist ein wichtiges Element des Entwurfsprozesses, da sie nützliche Informationen über die zu erwartende Leistung liefert.
Es ist ein häufiges Missverständnis, dass aufgrund des Mooreschen Gesetzes, das das exponentielle Wachstum moderner Computerleistung vorhersagt, die Bewertung der Komplexität von Algorithmen an Bedeutung verlieren wird. Dies ist falsch, da die erhöhte Leistung die Verarbeitung riesiger Datenmengen (Big Data) ermöglicht. Zum Beispiel sollte jeder Algorithmus in weniger als einer Sekunde gut funktionieren, wenn er eine Liste mit einigen Hundert Einträgen alphabetisch sortiert, wie zum Beispiel die Bibliographie eines Buches. Andererseits müssten für eine Million Einträge (zum Beispiel die Telefonnummern einer Großstadt) die grundlegenden Algorithmen, die O(n2) Vergleiche erfordern, eine Billion Vergleiche durchführen, was drei Stunden bei einer Geschwindigkeit von 10 Millionen Vergleiche pro Sekunde. Quicksort und Mergesort hingegen erfordern nur nlogn-Vergleiche (als durchschnittliche Komplexität für erstere, als Worst-Case-Komplexität für letztere). Dies ergibt etwa 30,000,000 Vergleiche für n = 1,000,000, was bei 3 Millionen Vergleichen pro Sekunde nur 10 Sekunden dauern würde.
Als Ergebnis kann die Bewertung der Komplexität die Eliminierung vieler ineffizienter Algorithmen vor der Implementierung ermöglichen. Damit lassen sich auch komplexe Algorithmen verfeinern, ohne alle möglichen Varianten testen zu müssen. Die Untersuchung der Komplexität ermöglicht es, den Aufwand zur Steigerung der Effizienz einer Implementierung zu bündeln, indem die teuersten Schritte eines komplexen Algorithmus bestimmt werden.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/CCTF-Zertifizierungscurriculum für Grundlagen der Berechnungskomplexitätstheorie verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/IS/ACC Erweiterte klassische Kryptographie
EITC/IS/ACC Advanced Classical Cryptography ist das europäische IT-Zertifizierungsprogramm, das das Fachwissen in der klassischen Kryptografie voranbringt und sich hauptsächlich auf die Public-Key-Kryptografie konzentriert, mit einer Einführung in praktische Public-Key-Chiffren sowie digitale Signaturen, Public-Key-Infrastruktur und Sicherheitszertifikate, die im Internet weit verbreitet sind.
Das Curriculum des EITC/IS/ACC Advanced Classical Cryptography konzentriert sich auf die Public-Key (asymmetrische) Kryptografie, beginnend mit der Einführung in den Diffie-Hellman-Schlüsselaustausch und das diskrete Protokollproblem (einschließlich seiner Verallgemeinerung), dann geht es weiter zur Verschlüsselung mit diskretem Log-Problem, das das Elgamal Encryption Scheme, elliptische Kurven und die Elliptic Curve Cryptography (ECC), digitale Signaturen (einschließlich Sicherheitsdienste und die Elgamal Digital Signature), Hash-Funktionen (einschließlich der SHA-1 has-Funktion), Message Authentication Codes . abdeckt (einschließlich MAC und HMAC), Schlüsselaufbau (einschließlich Symmetric Key Establishment SKE und Kerberos), um mit der Klassenbetrachtung der Man-in-the-Middle-Angriffe abzuschließen, zusammen mit kryptografischen Zertifikaten und der Public Key Infrastructure (PKI), innerhalb der folgenden Struktur , das umfassende didaktische Videoinhalte als Referenz für diese EITC-Zertifizierung umfasst.
Kryptographie bezeichnet Wege der sicheren Kommunikation in Gegenwart eines Gegners. Kryptographie im weiteren Sinne ist der Prozess der Erstellung und Analyse von Protokollen, die den Zugriff Dritter oder der Öffentlichkeit auf private (verschlüsselte) Nachrichten verhindern. Die moderne klassische Kryptographie basiert auf mehreren Hauptmerkmalen der Informationssicherheit wie Datenvertraulichkeit, Datenintegrität, Authentifizierung und Nichtabstreitbarkeit. Im Gegensatz zur Quantenkryptographie, die auf radikal anderen quantenphysikalischen Regeln beruht, die die Natur charakterisieren, bezeichnet die klassische Kryptographie eine Kryptographie, die auf klassischen physikalischen Gesetzen basiert. In der klassischen Kryptographie treffen die Bereiche Mathematik, Informatik, Elektrotechnik, Kommunikationswissenschaft und Physik aufeinander. Elektronischer Handel, chipbasierte Zahlungskarten, digitale Währungen, Computerpasswörter und militärische Kommunikation sind Beispiele für kryptografische Anwendungen.
Vor der heutigen Ära war Kryptographie fast gleichbedeutend mit Verschlüsselung, die Informationen von lesbarem zu unverständlichem Unsinn machte. Um den Zugriff von Angreifern auf eine verschlüsselte Nachricht zu verhindern, teilt der Absender den Entschlüsselungsprozess nur mit den vorgesehenen Empfängern. Die Namen Alice („A“) für den Absender, Bob („B“) für den beabsichtigten Empfänger und Eve („Abhörerin“) für den Widersacher werden in der Kryptographie-Literatur häufig verwendet.
Seit der Entwicklung von Rotorchiffriermaschinen im Ersten Weltkrieg und der Einführung von Computern im Zweiten Weltkrieg sind Kryptographieverfahren immer komplexer und ihre Anwendungen vielfältiger geworden.
Die moderne Kryptographie ist stark von der mathematischen Theorie und der Informatikpraxis abhängig; kryptografische Methoden basieren auf Annahmen der Rechenhärte, was es für jeden Gegner schwierig macht, sie in der Praxis zu durchbrechen. Während der Einbruch in ein gut durchdachtes System theoretisch möglich ist, ist dies in der Praxis unmöglich. Solche Systeme werden als „computersicher“ bezeichnet, wenn sie angemessen konstruiert sind; dennoch erfordern theoretische Durchbrüche (z. B. Verbesserungen bei ganzzahligen Faktorisierungsverfahren) und schnellere Computertechnologie eine ständige Neubewertung und, falls erforderlich, eine Anpassung dieser Designs. Es gibt informationstheoretisch sichere Systeme, wie das One-Time-Pad, die sich auch bei unendlicher Rechenleistung als unzerbrechlich erweisen, aber in der Praxis deutlich schwieriger einzusetzen sind als die besten theoretisch zerbrechlichen, aber rechensicheren Schemata.
Im Informationszeitalter hat der Fortschritt der kryptografischen Technologie eine Vielzahl von rechtlichen Herausforderungen mit sich gebracht. Viele Nationen haben Kryptographie als Waffe eingestuft, die ihre Verwendung und ihren Export aufgrund ihres Potenzials für Spionage und Volksverhetzung einschränkt oder verbietet. Ermittler können die Herausgabe von Verschlüsselungsschlüsseln für ermittlungsrelevante Dokumente an einigen Orten, an denen Kryptographie zulässig ist, erzwingen. Bei digitalen Medien spielt die Kryptographie auch eine Schlüsselrolle bei der digitalen Rechteverwaltung und bei Konflikten mit Urheberrechtsverletzungen.
Der Begriff „Kryptograph“ (im Gegensatz zu „Kryptogramm“) wurde erstmals im XNUMX. Jahrhundert in Edgar Allan Poes Kurzgeschichte „The Gold-Bug“ verwendet.
Bis vor kurzem bezog sich die Kryptographie fast ausschließlich auf „Verschlüsselung“, bei der gewöhnliche Daten (bekannt als Klartext) in ein unlesbares Format (genannt Geheimtext) umgewandelt werden. Entschlüsselung ist das Gegenteil von Verschlüsselung, dh der Übergang vom unverständlichen Chiffretext zum Klartext. Eine Chiffre (oder Chiffre) ist eine Reihe von Techniken, die eine Verschlüsselung und Entschlüsselung in umgekehrter Reihenfolge durchführen. Der Algorithmus und jeweils ein „Schlüssel“ sind für die detaillierte Ausführung der Chiffre zuständig. Der Schlüssel ist ein Geheimnis (vorzugsweise nur den Kommunikanten bekannt), das verwendet wird, um den Chiffretext zu entschlüsseln. Es ist normalerweise eine Zeichenfolge (idealerweise kurz, damit sich der Benutzer daran erinnern kann). Ein „Kryptosystem“ ist die geordnete Ansammlung von Elementen endlicher potentieller Klartexte, Geheimtexte, Schlüssel und die Verschlüsselungs- und Entschlüsselungsverfahren, die formal mathematisch jedem Schlüssel entsprechen. Schlüssel sind sowohl formal als auch praktisch von entscheidender Bedeutung, da Chiffren mit festen Schlüsseln leicht nur anhand der Informationen der Chiffre gebrochen werden können, was sie für die meisten Zwecke unbrauchbar (oder sogar kontraproduktiv) macht.
In der Vergangenheit wurden Chiffren häufig ohne zusätzliche Verfahren wie Authentifizierung oder Integritätsprüfungen zur Verschlüsselung oder Entschlüsselung verwendet. Kryptosysteme werden in zwei Kategorien unterteilt: symmetrisch und asymmetrisch. Derselbe Schlüssel (der geheime Schlüssel) wird zum Ver- und Entschlüsseln einer Nachricht in symmetrischen Systemen verwendet, die bis in die 1970er Jahre die einzigen bekannten waren. Da symmetrische Systeme kürzere Schlüssellängen verwenden, ist die Datenmanipulation in symmetrischen Systemen schneller als in asymmetrischen Systemen. Asymmetrische Systeme verschlüsseln eine Kommunikation mit einem „öffentlichen Schlüssel“ und entschlüsseln sie mit einem ähnlichen „privaten Schlüssel“. Die Verwendung asymmetrischer Systeme verbessert die Kommunikationssicherheit aufgrund der Schwierigkeit, die Beziehung zwischen den beiden Schlüsseln zu bestimmen. RSA (Rivest–Shamir–Adleman) und ECC sind zwei Beispiele für asymmetrische Systeme (Elliptic Curve Cryptography). Der weit verbreitete AES (Advanced Encryption Standard), der den früheren DES ablöste, ist ein Beispiel für einen hochwertigen symmetrischen Algorithmus (Data Encryption Standard). Die verschiedenen Techniken zum Verwirren der Sprache von Kindern, wie Pig Latin oder andere Gesänge, und tatsächlich alle kryptographischen Schemata, egal wie ernst es gemeint war, aus irgendeiner Quelle vor der Einführung des One-Time-Pad zu Beginn des XNUMX. Jahrhunderts sind Beispiele für eine geringe Qualität symmetrische Algorithmen.
Der Begriff „Code“ wird umgangssprachlich oft verwendet, um sich auf jede Technik der Verschlüsselung oder Verbergung von Nachrichten zu beziehen. In der Kryptographie bezieht sich Code jedoch auf die Ersetzung eines Codeworts für eine Einheit von Klartext (dh ein bedeutungsvolles Wort oder eine bedeutungsvolle Phrase) (zum Beispiel ersetzt „Wallaby“ „Angriff im Morgengrauen“). Im Gegensatz dazu wird ein Geheimtext erzeugt, indem ein Element unterhalb einer solchen Ebene (beispielsweise ein Buchstabe, eine Silbe oder ein Buchstabenpaar) modifiziert oder ersetzt wird, um einen Geheimtext zu bilden.
Kryptoanalyse ist die Untersuchung von Möglichkeiten, verschlüsselte Daten zu entschlüsseln, ohne Zugriff auf den dafür erforderlichen Schlüssel zu haben; mit anderen Worten, es ist das Studium, wie man Verschlüsselungsschemata oder ihre Implementierungen „knacken“ kann.
Im Englischen verwenden einige Leute die Begriffe „Kryptografie“ und „Kryptologie“ austauschbar, während andere (einschließlich der US-Militärpraxis im Allgemeinen) „Kryptografie“ verwenden, um sich auf die Verwendung und Praxis kryptografischer Techniken zu beziehen, und „Kryptologie“, um sich auf die Kombination zu beziehen Studium der Kryptographie und Kryptoanalyse. Englisch ist anpassungsfähiger als eine Reihe anderer Sprachen, in denen „Kryptologie“ (wie sie von Kryptologen praktiziert wird) immer im zweiten Sinne verwendet wird. Die Steganographie ist gemäß RFC 2828 manchmal in der Kryptologie enthalten.
Kryptolinguistik ist das Studium von Spracheigenschaften, die eine gewisse Relevanz in der Kryptographie oder Kryptologie haben (z. B. Häufigkeitsstatistiken, Buchstabenkombinationen, universelle Muster usw.).
Kryptographie und Kryptoanalyse haben eine lange Geschichte.
Die Geschichte der Kryptographie ist der Hauptartikel.
Vor der Neuzeit befasste sich die Kryptographie hauptsächlich mit der Vertraulichkeit von Nachrichten (dh Verschlüsselung) – der Umwandlung von Nachrichten von einer verständlichen in eine unverständliche Form und wieder, um sie für Abfangjäger oder Lauscher ohne geheimes Wissen (nämlich den zur Entschlüsselung benötigten Schlüssel) unlesbar zu machen dieser Nachricht). Die Verschlüsselung wurde entwickelt, um die Gespräche von Spionen, Militärführern und Diplomaten geheim zu halten. In den letzten Jahrzehnten ist die Disziplin gewachsen und umfasst unter anderem Techniken wie die Überprüfung der Nachrichtenintegrität, die Authentifizierung der Sender-/Empfänger-Identität, digitale Signaturen, interaktive Beweise und sichere Berechnungen.
Die beiden gebräuchlichsten klassischen Chiffrentypen sind Transpositionsziffern, die Buchstaben oder Buchstabengruppen systematisch durch andere Buchstaben oder Buchstabengruppen ersetzen (z. die Buchstaben oder Buchstabengruppen systematisch durch andere Buchstaben oder Buchstabengruppen ersetzen (z. B. „Fly at once“ wird zu „gmz bu Einfache Versionen von beiden haben nie viel Privatsphäre vor schlauen Gegnern geboten. Die Caesar-Chiffre war eine frühe Ersatzchiffre, in der Jeder Buchstabe im Klartext wurde durch einen Buchstaben eine bestimmte Anzahl von Stellen weiter unten im Alphabet ersetzt. Laut Sueton benutzte ihn Julius Caesar in einer Drei-Mann-Schicht, um mit seinen Generälen zu kommunizieren. Eine frühe hebräische Chiffre, Atbash, ist ein Beispiel. Die älteste bekannte Verwendung der Kryptographie ist ein in Stein gemeißelter Chiffretext in Ägypten (um 1900 v. Chr.). ein, um Informationen zu verbergen.
Krypten sollen den klassischen Griechen bekannt gewesen sein (z. B. die Skytale-Transpositions-Chiffre, die angeblich vom spartanischen Militär verwendet wurde). Auch die Steganographie (die Praxis, selbst das Vorhandensein einer Mitteilung zu verbergen, um sie privat zu halten) wurde in der Antike erfunden. Ein Satz, der laut Herodot auf den rasierten Kopf eines Sklaven tätowiert und unter dem nachgewachsenen Haar versteckt ist. Die Verwendung von unsichtbarer Tinte, Mikropunkten und digitalen Wasserzeichen zum Verbergen von Informationen sind aktuellere Beispiele der Steganographie.
Kautiliyam und Mulavediya sind zwei Arten von Chiffren, die in Indiens 2000 Jahre altem Kamasutra von Vtsyyana erwähnt werden. Die Ersetzungen der Chiffrebuchstaben im Kautiliyam basieren auf phonetischen Beziehungen, wie zum Beispiel Vokalen, die zu Konsonanten werden. Das Chiffre-Alphabet in der Mulavediya besteht aus übereinstimmenden Buchstaben und verwendet reziproke Buchstaben.
Laut dem muslimischen Gelehrten Ibn al-Nadim hatte das sassanidische Persien zwei geheime Schriften: die h-dabrya (wörtlich „Königsschrift“), die für die offizielle Korrespondenz verwendet wurde, und die rz-saharya, die verwendet wurde, um geheime Nachrichten mit anderen auszutauschen Länder.
David Kahn schreibt in seinem Buch The Codebreakers, dass die zeitgenössische Kryptologie mit den Arabern begann, die als erste kryptanalytische Verfahren sorgfältig dokumentierten. Das Buch der kryptografischen Botschaften wurde von Al-Khalil (717–786) geschrieben und enthält die früheste Verwendung von Permutationen und Kombinationen, um alle denkbaren arabischen Wörter mit und ohne Vokale aufzulisten.
Chiffretexte, die von einer klassischen Chiffre (sowie einigen modernen Chiffren) generiert werden, geben statistische Informationen über den Klartext an, die verwendet werden können, um die Chiffre zu knacken. Fast alle derartigen Chiffren konnten nach der Entdeckung der Frequenzanalyse von einem intelligenten Angreifer gebrochen werden, möglicherweise im 9. Jahrhundert durch den arabischen Mathematiker und Universalgelehrten Al-Kindi (auch bekannt als Alkindus). Klassische Chiffren sind auch heute noch beliebt, wenn auch weitgehend als Rätsel (siehe Kryptogramm). Risalah fi Istikhraj al-Mu'amma (Manuskript zur Entschlüsselung kryptographischer Nachrichten) wurde von Al-Kindi geschrieben und dokumentiert die erste bekannte Anwendung von frequenzanalytischen Kryptoanalysetechniken.
Einige Verschlüsselungsansätze mit erweitertem Verlauf, wie etwa homophone Chiffre, die dazu neigen, die Häufigkeitsverteilung abzuflachen, profitieren möglicherweise nicht von Sprachbuchstabenhäufigkeiten. Die Häufigkeiten von Sprachbuchstabengruppen (oder N-Gramm) können einen Angriff auf diese Chiffren auslösen.
Bis zur Entdeckung der polyalphabetischen Chiffre, vor allem durch Leon Battista Alberti um 1467, waren praktisch alle Chiffren der Kryptoanalyse mit dem Frequenzanalyseansatz zugänglich, obwohl es einige Hinweise darauf gibt, dass sie Al-Kindi bereits bekannt war. Alberti hatte die Idee, separate Chiffren (oder Ersatzalphabete) für verschiedene Teile einer Kommunikation zu verwenden (vielleicht für jeden aufeinanderfolgenden Klartextbuchstaben am Limit). Er schuf auch das vermutlich erste automatische Verschlüsselungsgerät, ein Rad, das einen Teil seines Designs ausführte. Die Verschlüsselung in der Vigenère-Chiffre, einer polyalphabetischen Chiffre, wird durch ein Schlüsselwort gesteuert, das die Buchstabenersetzung basierend darauf regelt, welcher Buchstabe des Schlüsselworts verwendet wird. Charles Babbage zeigte Mitte des XNUMX. Jahrhunderts, dass die Vigenère-Chiffre für die Kasiski-Analyse anfällig war, aber Friedrich Kasiski veröffentlichte seine Ergebnisse zehn Jahre später.
Trotz der Tatsache, dass die Frequenzanalyse eine leistungsstarke und umfassende Technik für viele Chiffren ist, ist die Verschlüsselung in der Praxis effektiv geblieben, da viele angehende Kryptoanalytiker diese Technik nicht kennen. Um eine Nachricht zu knacken, ohne eine Frequenzanalyse zu verwenden, war die Kenntnis der verwendeten Chiffre und möglicherweise des verwendeten Schlüssels erforderlich, was Spionage, Bestechung, Einbruch, Überlaufen und andere kryptanalytisch nicht informierte Taktiken attraktiver macht. Das Geheimnis des Algorithmus einer Chiffre wurde schließlich im 19. Jahrhundert als weder vernünftige noch machbare Garantie für die Nachrichtensicherheit anerkannt; tatsächlich sollte jedes geeignete kryptografische Schema (einschließlich Chiffren) sicher bleiben, selbst wenn der Gegner den Chiffrieralgorithmus selbst vollständig versteht. Die Sicherheit des Schlüssels sollte ausreichen, damit eine gute Chiffre die Vertraulichkeit im Angesicht eines Angriffs behält. Auguste Kerckhoffs stellte dieses grundlegende Prinzip erstmals 1883 fest, und es ist als Kerckhoffs-Prinzip bekannt; alternativ und unverblümter formulierte Claude Shannon, der Erfinder der Informationstheorie und der Grundlagen der theoretischen Kryptographie, sie als Shannons Maxime – „der Feind kennt das System“.
Um mit Verschlüsselungen zu helfen, wurden viele physische Geräte und Hilfestellungen verwendet. Die Skytale des antiken Griechenlands, eine Rute, die angeblich von den Spartanern als Transpositions-Chiffrierwerkzeug verwendet wurde, könnte eine der ersten gewesen sein. Im Mittelalter wurden weitere Hilfsmittel entwickelt, wie das Chiffrengitter, das auch für die Steganographie verwendet wurde. Mit der Entwicklung polyalphabetischer Chiffren wurden anspruchsvollere Hilfsmittel wie Albertis Chiffrierscheibe, Johannes Trithemius' Tabula Recta-Schema und Thomas Jeffersons Radchiffre verfügbar (nicht öffentlich bekannt und unabhängig von Bazeries um 1900 neu erfunden). Viele mechanische Verschlüsselungs-/Entschlüsselungssysteme wurden im frühen 1920. Jahrhundert entwickelt und patentiert, darunter Rotormaschinen, die von den späten XNUMXer Jahren bis zum Zweiten Weltkrieg bekanntermaßen von der deutschen Regierung und dem Militär eingesetzt wurden. Nach dem Ersten Weltkrieg führten die von höherwertigen Instanzen dieser Maschinendesigns implementierten Chiffren zu einem deutlichen Anstieg der kryptanalytischen Schwierigkeit.
Die Kryptographie befasste sich vor dem frühen XNUMX. Jahrhundert hauptsächlich mit linguistischen und lexikographischen Mustern. Seitdem hat sich der Schwerpunkt weiterentwickelt und die Kryptographie umfasst nun Aspekte der Informationstheorie, der Rechenkomplexität, der Statistik, der Kombinatorik, der abstrakten Algebra, der Zahlentheorie und der endlichen Mathematik im Allgemeinen. Kryptographie ist eine Technik, die jedoch insofern einzigartig ist, als sie sich mit aktivem, intelligentem und feindlichem Widerstand befasst, während andere Arten der Technik (wie Bau- oder Chemieingenieurwesen) lediglich mit neutralen Naturkräften zu tun haben. Auch der Zusammenhang zwischen Kryptografieschwierigkeiten und Quantenphysik wird untersucht.
Die Entwicklung von digitalen Computern und Elektronik unterstützte die Kryptoanalyse, indem sie die Erstellung wesentlich komplexerer Chiffren ermöglichte. Darüber hinaus ermöglichten Computer im Gegensatz zu herkömmlichen Chiffren, die ausschließlich geschriebene Sprachtexte verschlüsselten, die Verschlüsselung jeder Art von Daten, die in jedem Binärformat dargestellt werden konnten; das war neu und entscheidend. Sowohl beim Verschlüsselungsdesign als auch bei der Kryptoanalyse haben Computer die Sprachkryptographie verdrängt. Im Gegensatz zu klassischen und mechanischen Verfahren, die hauptsächlich traditionelle Zeichen (dh Buchstaben und Zahlen) direkt manipulieren, arbeiten viele Computerchiffren mit binären Bitfolgen (gelegentlich in Gruppen oder Blöcken). Computer hingegen haben die Kryptoanalyse unterstützt, wodurch die erhöhte Verschlüsselungskomplexität teilweise kompensiert wurde. Trotzdem sind gute moderne Chiffren der Kryptoanalyse voraus geblieben; es ist oft der Fall, dass die Verwendung einer guten Verschlüsselung sehr effizient ist (dh schnell und erfordert nur wenige Ressourcen wie Speicher oder CPU-Kapazität), während das Aufbrechen dieser Verschlüsselung einen um viele Größenordnungen größeren Aufwand erfordert, der weitaus größer ist als der für jede andere erforderliche Verschlüsselung klassische Chiffre, die eine Kryptoanalyse effektiv unmöglich macht.
Die moderne Kryptographie feiert ihr Debüt.
Die Kryptoanalyse der neuen mechanischen Geräte erwies sich als anspruchsvoll und zeitaufwändig. Während des Zweiten Weltkriegs förderten kryptanalytische Aktivitäten in Bletchley Park im Vereinigten Königreich die Erfindung effizienterer Methoden für sich wiederholende Aufgaben. Der Colossus, der weltweit erste vollständig elektronische, digitale, programmierbare Computer, wurde entwickelt, um die Entschlüsselung von Chiffren zu unterstützen, die von der Lorenz SZ40/42-Maschine der Bundeswehr erstellt wurden.
Kryptographie ist ein relativ neues Feld der offenen akademischen Forschung, das erst Mitte der 1970er Jahre begann. IBM-Mitarbeiter entwickelten den Algorithmus, der zum Federal (dh US) Data Encryption Standard wurde; Whitfield Diffie und Martin Hellman haben ihren Schlüsselübereinstimmungsalgorithmus veröffentlicht; und Martin Gardners Scientific American Kolumne veröffentlichte den RSA-Algorithmus. Kryptographie hat seitdem als Technik für Kommunikation, Computernetzwerke und Computersicherheit im Allgemeinen an Popularität gewonnen.
Es gibt enge Verbindungen zur abstrakten Mathematik, da mehrere moderne Kryptographieansätze ihre Schlüssel nur dann geheim halten können, wenn bestimmte mathematische Probleme hartnäckig sind, wie beispielsweise die ganzzahlige Faktorisierung oder Probleme mit dem diskreten Logarithmus. Es gibt nur eine Handvoll Kryptosysteme, die sich als 100% sicher erwiesen haben. Claude Shannon hat bewiesen, dass der One-Time-Pad einer davon ist. Es gibt einige Schlüsselalgorithmen, die sich unter bestimmten Bedingungen als sicher erwiesen haben. Die Unfähigkeit, extrem große ganze Zahlen zu faktorisieren, ist beispielsweise die Grundlage für die Annahme, dass RSA und andere Systeme sicher sind, aber der Nachweis der Unzerbrechlichkeit ist nicht erreichbar, da das zugrunde liegende mathematische Problem ungelöst bleibt. In der Praxis sind diese weit verbreitet und die meisten kompetenten Beobachter glauben, dass sie in der Praxis unzerbrechlich sind. Es gibt RSA-ähnliche Systeme, wie eines von Michael O. Rabin, die nachweislich sicher sind, wenn die Faktorisierung von n = pq nicht möglich ist; sie sind jedoch praktisch nutzlos. Das Problem des diskreten Logarithmus ist die Grundlage für die Annahme, dass einige andere Kryptosysteme sicher sind, und es gibt ähnliche, weniger praktische Systeme, die im Hinblick auf die Lösbarkeit oder Unlösbarkeit des Problems des diskreten Logarithmus nachweislich sicher sind.
Entwickler von kryptografischen Algorithmen und Systemen müssen bei der Arbeit an ihren Ideen mögliche zukünftige Fortschritte berücksichtigen und sich der kryptografischen Geschichte bewusst sein. Mit der Verbesserung der Rechenleistung von Computern ist beispielsweise die Breite der Brute-Force-Angriffe gewachsen, und somit sind auch die erforderlichen Schlüssellängen gewachsen. Einige kryptografische Systemdesigner, die sich mit Post-Quanten-Kryptografie befassen, ziehen bereits die möglichen Konsequenzen des Quantencomputing in Betracht; Die angekündigte unmittelbare bevorstehende Einführung bescheidener Implementierungen dieser Maschinen könnte die Notwendigkeit von Vorsichtsmaßnahmen mehr als nur spekulativ machen.
Klassische Kryptographie in der Moderne
Symmetrische (oder private-Schlüssel-)Kryptographie ist eine Art der Verschlüsselung, bei der Sender und Empfänger denselben Schlüssel verwenden (oder, seltener, ihre Schlüssel unterschiedlich, aber leicht berechenbar miteinander verbunden sind und geheim gehalten werden.) ). Bis Juni 1976 war dies die einzige Verschlüsselungsart, die öffentlich bekannt war.
Blockchiffren und Stromchiffren werden beide verwendet, um symmetrische Schlüsselchiffren zu implementieren. Eine Blockchiffre verschlüsselt die Eingabe in Blöcken von Klartext und nicht in einzelnen Zeichen, wie dies bei einer Stromchiffre der Fall ist.
Die US-Regierung hat den Data Encryption Standard (DES) und den Advanced Encryption Standard (AES) als Kryptographie-Standards bezeichnet (allerdings wurde die Zertifizierung von DES mit der Einführung des AES schließlich zurückgezogen). DES (insbesondere seine immer noch zugelassene und wesentlich sicherere Triple-DES-Variante) bleibt trotz seiner Verabschiedung als offizieller Standard beliebt; Es wird in einer Vielzahl von Anwendungen verwendet, von der ATM-Verschlüsselung über den E-Mail-Datenschutz bis hin zum sicheren Fernzugriff. Es wurden eine Reihe verschiedener Blockchiffren erfunden und veröffentlicht, mit unterschiedlichem Erfolg. Viele, darunter auch einige, die von qualifizierten Praktikern wie FEAL entworfen wurden, sind weitgehend kaputt gegangen.
Stromchiffren erzeugen im Gegensatz zu Blockchiffren einen unendlich langen Strom von Schlüsselmaterial, der Bit für Bit oder Zeichen für Zeichen mit Klartext gekoppelt ist, ähnlich dem One-Time-Pad. Der Ausgabestrom einer Stromchiffre wird aus einem verborgenen internen Zustand erzeugt, der sich mit der Funktion der Chiffre ändert. Das geheime Schlüsselmaterial wird verwendet, um diesen internen Zustand zunächst einzurichten. Weit verbreitet ist die Stromchiffre RC4. Durch Erzeugen von Blöcken eines Schlüsselstroms (anstelle eines Pseudozufallszahlengenerators) und Verwenden einer XOR-Operation auf jedes Bit des Klartextes mit jedem Bit des Schlüsselstroms können Blockchiffren als Stromchiffren verwendet werden.
Message Authentication Codes (MACs) ähneln kryptografischen Hash-Funktionen, mit der Ausnahme, dass ein geheimer Schlüssel verwendet werden kann, um den Hash-Wert nach Erhalt zu validieren; Diese zusätzliche Komplexität verhindert einen Angriff auf Naked Digest-Algorithmen und wird daher als lohnenswert angesehen. Eine dritte Art von kryptografischer Technik sind kryptografische Hash-Funktionen. Sie nehmen Nachrichten beliebiger Länge als Eingabe und geben einen kleinen Hash fester Länge aus, der beispielsweise in digitalen Signaturen verwendet werden kann. Ein Angreifer kann mit guten Hash-Algorithmen nicht zwei Nachrichten finden, die denselben Hash erzeugen. MD4 ist eine weit verbreitete, aber mittlerweile fehlerhafte Hash-Funktion; MD5, eine Weiterentwicklung von MD4, ist ebenfalls weit verbreitet, aber in der Praxis gebrochen. Die Secure Hash Algorithm-Reihe von MD5-ähnlichen Hash-Algorithmen wurde von der US-amerikanischen National Security Agency entwickelt: Die US-Standardisierungsbehörde entschied, dass es aus Sicherheitsgründen „umsichtig“ war, einen neuen Standard zu entwickeln, um „die Robustheit des gesamten Hash-Algorithmus von NIST deutlich zu verbessern“. Werkzeugkasten.“ SHA-1 ist weit verbreitet und sicherer als MD5, aber Kryptoanalytiker haben Angriffe dagegen identifiziert. die SHA-2-Familie verbessert SHA-1, ist jedoch ab 2011 anfällig für Zusammenstöße; und die SHA-2-Familie verbessert SHA-1, ist aber anfällig für Kollisionen Als Ergebnis sollte bis 2012 ein Designwettbewerb für Hash-Funktionen abgehalten werden, um einen neuen nationalen US-Standard namens SHA-3 auszuwählen. Der Wettbewerb endete am 2. Oktober 2012, als das National Institute of Standards and Technology (NIST) Keccak als neuen SHA-3-Hash-Algorithmus ankündigte. Kryptografische Hashfunktionen liefern im Gegensatz zu invertierbaren Block- und Stromchiffren eine gehashte Ausgabe, die nicht verwendet werden kann, um die ursprünglichen Eingabedaten wiederherzustellen. Kryptografische Hash-Funktionen werden verwendet, um die Authentizität von Daten zu überprüfen, die aus einer nicht vertrauenswürdigen Quelle stammen, oder um einen zusätzlichen Schutzgrad hinzuzufügen.
Obwohl eine Nachricht oder ein Satz von Nachrichten einen anderen Schlüssel als andere haben kann, verwenden Kryptosysteme mit symmetrischen Schlüsseln denselben Schlüssel zum Verschlüsseln und Entschlüsseln. Ein großer Nachteil ist die zur sicheren Verwendung symmetrischer Chiffren erforderliche Schlüsselverwaltung. Jedes einzelne Paar kommunizierender Teilnehmer sollte idealerweise einen anderen Schlüssel teilen, sowie möglicherweise einen anderen Geheimtext für jeden gesendeten Geheimtext. Die Anzahl der erforderlichen Schlüssel wächst direkt proportional zur Anzahl der Netzwerkteilnehmer, was komplizierte Schlüsselverwaltungstechniken erfordert, um sie alle konsistent und geheim zu halten.
Whitfield Diffie und Martin Hellman erfanden das Konzept der Kryptographie mit öffentlichem Schlüssel (auch als asymmetrischer Schlüssel bekannt) in einer bahnbrechenden Arbeit von 1976, in der zwei verschiedene, aber mathematisch verwandte Schlüssel – ein öffentlicher Schlüssel und ein privater Schlüssel – verwendet werden. Obwohl sie untrennbar miteinander verbunden sind, ist ein System mit öffentlichen Schlüsseln so aufgebaut, dass die Berechnung eines Schlüssels (des 'privaten Schlüssels') aus dem anderen (des 'öffentlichen Schlüssels') rechnerisch nicht möglich ist. Vielmehr werden beide Schlüssel heimlich als verknüpftes Paar erzeugt. Laut dem Historiker David Kahn ist die Public-Key-Kryptographie „der revolutionärste neue Begriff auf diesem Gebiet, seit die polyalphabetische Substitution in der Renaissance aufgekommen ist“.
Der öffentliche Schlüssel in einem Kryptosystem mit öffentlichem Schlüssel kann frei übertragen werden, aber der gekoppelte private Schlüssel muss verborgen bleiben. Der öffentliche Schlüssel wird zur Verschlüsselung verwendet, während der private oder geheime Schlüssel zur Entschlüsselung in einem Verschlüsselungsschema mit öffentlichem Schlüssel verwendet wird. Diffie und Hellman waren zwar nicht in der Lage, ein solches System zu entwickeln, aber sie zeigten, dass eine Kryptografie mit öffentlichem Schlüssel denkbar war, indem sie das Diffie-Hellman-Schlüsselaustauschprotokoll zur Verfügung stellten, eine Lösung, die es zwei Personen ermöglicht, sich heimlich auf einen gemeinsamen Verschlüsselungsschlüssel zu einigen. Das am weitesten verbreitete Format für Public-Key-Zertifikate wird durch den X.509-Standard definiert.
Die Veröffentlichung von Diffie und Hellman weckte ein breites akademisches Interesse an der Entwicklung eines praktischen Verschlüsselungssystems mit öffentlichem Schlüssel. 1978 gewannen Ronald Rivest, Adi Shamir und Len Adleman den Wettbewerb, und ihre Antwort wurde als RSA-Algorithmus bekannt.
Die Diffie-Hellman- und RSA-Algorithmen sind nicht nur die frühesten öffentlich bekannten Instanzen von hochwertigen Public-Key-Algorithmen, sondern gehören auch zu den am häufigsten verwendeten. Das Cramer-Shoup-Kryptosystem, die ElGamal-Verschlüsselung und zahlreiche elliptische Kurvenansätze sind Beispiele für asymmetrische Schlüsselalgorithmen.
Laut einem Dokument, das 1997 vom Government Communications Headquarters (GCHQ), einem britischen Geheimdienst, herausgegeben wurde, sahen die Kryptografen des GCHQ mehrere wissenschaftliche Fortschritte voraus. Der Legende nach wurde die asymmetrische Schlüsselkryptographie um 1970 von James H. Ellis erfunden. Clifford Cocks erfand 1973 eine Lösung, die RSA im Design sehr ähnlich war. Malcolm J. Williamson wird die Erfindung des Diffie-Hellman-Schlüsselaustauschs im Jahr 1974 zugeschrieben.
Digitale Signatursysteme werden auch unter Verwendung von Public-Key-Kryptographie implementiert. Eine digitale Signatur ähnelt einer herkömmlichen Signatur darin, dass sie für den Benutzer einfach zu erstellen, für andere jedoch schwer zu fälschen ist. Digitale Signaturen können auch dauerhaft mit dem Inhalt der zu signierenden Kommunikation verknüpft werden; das bedeutet, dass sie nicht von einem Dokument in ein anderes „verschoben“ werden können, ohne entdeckt zu werden. Es gibt zwei Algorithmen in digitalen Signaturschemata: einen zum Signieren, der einen geheimen Schlüssel verwendet, um die Nachricht zu verarbeiten (oder einen Hash der Nachricht oder beides), und einen zur Verifizierung, der den passenden öffentlichen Schlüssel mit der Nachricht zur Validierung verwendet die Echtheit der Unterschrift. Zwei der am häufigsten verwendeten digitalen Signaturmethoden sind RSA und DSA. Infrastrukturen mit öffentlichen Schlüsseln und viele Netzwerksicherheitssysteme (z. B. SSL/TLS, viele VPNs) sind für ihre Funktion auf digitale Signaturen angewiesen.
Die rechnerische Komplexität „harter“ Probleme, wie sie sich beispielsweise aus der Zahlentheorie ergeben, wird häufig genutzt, um Public-Key-Verfahren zu entwickeln. Das ganzzahlige Faktorisierungsproblem hängt mit der Härte von RSA zusammen, während das Problem des diskreten Logarithmus mit Diffie-Hellman und DSA zusammenhängt. Die Sicherheit der elliptischen Kurvenkryptographie basiert auf theoretischen Problemen der elliptischen Kurvenzahl. Die meisten Algorithmen mit öffentlichem Schlüssel umfassen Operationen wie modulare Multiplikation und Exponentiation, die aufgrund der Schwierigkeit der zugrunde liegenden Probleme wesentlich rechenaufwendiger sind als die Techniken, die in den meisten Blockchiffren verwendet werden, insbesondere bei normalen Schlüsselgrößen. Als Ergebnis sind Public-Key-Kryptosysteme häufig hybride Kryptosysteme, bei denen die Nachricht mit einem schnellen, hochwertigen symmetrischen Schlüsselalgorithmus verschlüsselt wird, während der entsprechende symmetrische Schlüssel mit der Nachricht gesendet, jedoch mit einem öffentlichen Schlüsselalgorithmus verschlüsselt wird. Häufig werden auch hybride Signaturschemata verwendet, bei denen eine kryptografische Hash-Funktion berechnet und nur der resultierende Hash digital signiert wird.
Hash-Funktionen in der Kryptographie
Kryptografische Hashfunktionen sind kryptografische Algorithmen, die bestimmte Schlüssel erzeugen und verwenden, um Daten entweder für symmetrische oder asymmetrische Verschlüsselung zu verschlüsseln, und sie können als Schlüssel betrachtet werden. Sie nehmen Nachrichten beliebiger Länge als Eingabe und geben einen kleinen Hash fester Länge aus, der beispielsweise in digitalen Signaturen verwendet werden kann. Ein Angreifer kann mit guten Hash-Algorithmen nicht zwei Nachrichten finden, die denselben Hash erzeugen. MD4 ist eine weit verbreitete, aber mittlerweile fehlerhafte Hash-Funktion; MD5, eine Weiterentwicklung von MD4, ist ebenfalls weit verbreitet, aber in der Praxis gebrochen. Die Secure Hash Algorithm-Reihe von MD5-ähnlichen Hash-Algorithmen wurde von der US-amerikanischen National Security Agency entwickelt: Die US-Standardisierungsbehörde entschied, dass es aus Sicherheitsgründen „umsichtig“ war, einen neuen Standard zu entwickeln, um „die Robustheit des gesamten Hash-Algorithmus von NIST deutlich zu verbessern“. Werkzeugkasten.“ SHA-1 ist weit verbreitet und sicherer als MD5, aber Kryptoanalytiker haben Angriffe dagegen identifiziert. die SHA-2-Familie verbessert SHA-1, ist jedoch ab 2011 anfällig für Zusammenstöße; und die SHA-2-Familie verbessert SHA-1, ist aber anfällig für Kollisionen Als Ergebnis sollte bis 2012 ein Designwettbewerb für Hash-Funktionen abgehalten werden, um einen neuen nationalen US-Standard namens SHA-3 auszuwählen. Der Wettbewerb endete am 2. Oktober 2012, als das National Institute of Standards and Technology (NIST) Keccak als neuen SHA-3-Hash-Algorithmus ankündigte. Kryptografische Hash-Funktionen bieten im Gegensatz zu invertierbaren Block- und Stream-Chiffren eine gehashte Ausgabe, die nicht verwendet werden kann, um die ursprünglichen Eingabedaten wiederherzustellen. Kryptografische Hash-Funktionen werden verwendet, um die Authentizität von Daten zu überprüfen, die aus einer nicht vertrauenswürdigen Quelle stammen, oder um einen zusätzlichen Schutzgrad hinzuzufügen.
Kryptografische Primitive und Kryptosysteme
Ein Großteil der theoretischen Arbeit der Kryptografie konzentriert sich auf kryptografische Primitive – Algorithmen mit grundlegenden kryptografischen Eigenschaften – und deren Beziehung zu anderen kryptografischen Herausforderungen. Diese grundlegenden Primitive werden dann verwendet, um komplexere kryptografische Werkzeuge zu erstellen. Diese Grundelemente bieten grundlegende Qualitäten, die verwendet werden, um komplexere Werkzeuge zu erstellen, die als Kryptosysteme oder kryptografische Protokolle bekannt sind und eine oder mehrere Sicherheitseigenschaften auf hohem Niveau gewährleisten. Andererseits ist die Grenze zwischen kryptographischen Primitiven und Kryptosystemen willkürlich; der RSA-Algorithmus beispielsweise wird manchmal als Kryptosystem und manchmal als Primitiv angesehen. Pseudozufallsfunktionen, Einwegfunktionen und andere kryptografische Primitive sind gängige Beispiele.
Ein kryptographisches System oder Kryptosystem wird durch Kombinieren eines oder mehrerer kryptographischer Grundelemente erzeugt, um einen komplizierteren Algorithmus zu erzeugen. Kryptosysteme (z. B. El-Gamal-Verschlüsselung) sollen spezifische Funktionalität (z. B. Verschlüsselung mit öffentlichem Schlüssel) bereitstellen und gleichzeitig bestimmte Sicherheitsqualitäten sicherstellen (z. B. CPA-Sicherheit eines zufälligen Oracle-Modells mit gewähltem Klartext-Angriff). Um die Sicherheitsqualitäten des Systems zu unterstützen, verwenden Kryptosysteme die Eigenschaften der zugrunde liegenden kryptographischen Grundelemente. Ein ausgeklügeltes Kryptosystem kann aus einer Kombination zahlreicher rudimentärerer Kryptosysteme generiert werden, da die Unterscheidung zwischen Primitiven und Kryptosystemen etwas willkürlich ist. In vielen Fällen umfasst die Struktur des Kryptosystems eine Hin- und Her-Kommunikation zwischen zwei oder mehr Parteien im Raum (z. B. zwischen dem Sender und dem Empfänger einer sicheren Nachricht) oder über die Zeit (z. B. zwischen dem Sender und dem Empfänger einer sicheren Nachricht). (zB kryptographisch geschützte Backup-Daten).
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/ACC Advanced Classical Cryptography Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
Grundlagen der klassischen EITC/IS/CCF-Kryptografie
EITC/IS/CCF Classical Cryptography Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der klassischen Kryptografie, einschließlich der Kryptografie mit privatem und öffentlichem Schlüssel, mit einer Einführung in praktische Verschlüsselungen, die im Internet weit verbreitet sind, wie z die RSA.
Das Curriculum der EITC/IS/CCF Classical Cryptography Fundamentals umfasst die Einführung in die Private-Key-Kryptografie, modulare Arithmetik und historische Chiffren, Stromchiffren, Zufallszahlen, das One-Time Pad (OTP) bedingungslos sichere Chiffre (unter Annahme einer Lösungsbereitstellung) auf das Schlüsselverteilungsproblem, wie es z. B. durch die Quantum Key Distribution, QKD gegeben ist), linear rückgekoppelte Schieberegister, Data Encryption Standard (DES-Chiffre, einschließlich Verschlüsselung, Schlüsselplan und Entschlüsselung), Advanced Encryption Standard (AES, Einführung von Galois-Feldern) basierte Kryptografie), Anwendungen von Blockchiffren (einschließlich ihrer Funktionsweise), Berücksichtigung von Mehrfachverschlüsselung und Brute-Force-Angriffen, Einführung in die Public-Key-Kryptografie mit Zahlentheorie, Euklidischer Algorithmus, Eulers Phi-Funktion und Eulers Theorem, sowie die Einführung in das RSA-Kryptosystem und effiziente Exponentiation, innerhalb der folgenden Struktur, umfassend eine umfassende Videodidaktik c als Referenz für diese EITC-Zertifizierung.
Kryptographie bezeichnet Wege der sicheren Kommunikation in Gegenwart eines Gegners. Kryptographie im weiteren Sinne ist der Prozess der Erstellung und Analyse von Protokollen, die den Zugriff Dritter oder der Öffentlichkeit auf private (verschlüsselte) Nachrichten verhindern. Die moderne klassische Kryptographie basiert auf mehreren Hauptmerkmalen der Informationssicherheit wie Datenvertraulichkeit, Datenintegrität, Authentifizierung und Nichtabstreitbarkeit. Im Gegensatz zur Quantenkryptographie, die auf radikal anderen quantenphysikalischen Regeln beruht, die die Natur charakterisieren, bezeichnet die klassische Kryptographie eine Kryptographie, die auf klassischen physikalischen Gesetzen basiert. In der klassischen Kryptographie treffen die Bereiche Mathematik, Informatik, Elektrotechnik, Kommunikationswissenschaft und Physik aufeinander. Elektronischer Handel, chipbasierte Zahlungskarten, digitale Währungen, Computerpasswörter und militärische Kommunikation sind Beispiele für kryptografische Anwendungen.
Vor der heutigen Ära war Kryptographie fast gleichbedeutend mit Verschlüsselung, die Informationen von lesbarem zu unverständlichem Unsinn machte. Um den Zugriff von Angreifern auf eine verschlüsselte Nachricht zu verhindern, teilt der Absender den Entschlüsselungsprozess nur mit den vorgesehenen Empfängern. Die Namen Alice („A“) für den Absender, Bob („B“) für den beabsichtigten Empfänger und Eve („Abhörerin“) für den Widersacher werden in der Kryptographie-Literatur häufig verwendet.
Seit der Entwicklung von Rotorchiffriermaschinen im Ersten Weltkrieg und der Einführung von Computern im Zweiten Weltkrieg sind Kryptographieverfahren immer komplexer und ihre Anwendungen vielfältiger geworden.
Die moderne Kryptographie ist stark von der mathematischen Theorie und der Informatikpraxis abhängig; kryptografische Methoden basieren auf Annahmen der Rechenhärte, was es für jeden Gegner schwierig macht, sie in der Praxis zu durchbrechen. Während der Einbruch in ein gut durchdachtes System theoretisch möglich ist, ist dies in der Praxis unmöglich. Solche Systeme werden als „computersicher“ bezeichnet, wenn sie angemessen konstruiert sind; dennoch erfordern theoretische Durchbrüche (z. B. Verbesserungen bei ganzzahligen Faktorisierungsverfahren) und schnellere Computertechnologie eine ständige Neubewertung und, falls erforderlich, eine Anpassung dieser Designs. Es gibt informationstheoretisch sichere Systeme, wie das One-Time-Pad, die sich auch bei unendlicher Rechenleistung als unzerbrechlich erweisen, aber in der Praxis deutlich schwieriger einzusetzen sind als die besten theoretisch zerbrechlichen, aber rechensicheren Schemata.
Im Informationszeitalter hat der Fortschritt der kryptografischen Technologie eine Vielzahl von rechtlichen Herausforderungen mit sich gebracht. Viele Nationen haben Kryptographie als Waffe eingestuft, die ihre Verwendung und ihren Export aufgrund ihres Potenzials für Spionage und Volksverhetzung einschränkt oder verbietet. Ermittler können die Herausgabe von Verschlüsselungsschlüsseln für ermittlungsrelevante Dokumente an einigen Orten, an denen Kryptographie zulässig ist, erzwingen. Bei digitalen Medien spielt die Kryptographie auch eine Schlüsselrolle bei der digitalen Rechteverwaltung und bei Konflikten mit Urheberrechtsverletzungen.
Der Begriff „Kryptograph“ (im Gegensatz zu „Kryptogramm“) wurde erstmals im XNUMX. Jahrhundert in Edgar Allan Poes Kurzgeschichte „The Gold-Bug“ verwendet.
Bis vor kurzem bezog sich die Kryptographie fast ausschließlich auf „Verschlüsselung“, bei der gewöhnliche Daten (bekannt als Klartext) in ein unlesbares Format (genannt Geheimtext) umgewandelt werden. Entschlüsselung ist das Gegenteil von Verschlüsselung, dh der Übergang vom unverständlichen Chiffretext zum Klartext. Eine Chiffre (oder Chiffre) ist eine Reihe von Techniken, die eine Verschlüsselung und Entschlüsselung in umgekehrter Reihenfolge durchführen. Der Algorithmus und jeweils ein „Schlüssel“ sind für die detaillierte Ausführung der Chiffre zuständig. Der Schlüssel ist ein Geheimnis (vorzugsweise nur den Kommunikanten bekannt), das verwendet wird, um den Chiffretext zu entschlüsseln. Es ist normalerweise eine Zeichenfolge (idealerweise kurz, damit sich der Benutzer daran erinnern kann). Ein „Kryptosystem“ ist die geordnete Ansammlung von Elementen endlicher potentieller Klartexte, Geheimtexte, Schlüssel und die Verschlüsselungs- und Entschlüsselungsverfahren, die formal mathematisch jedem Schlüssel entsprechen. Schlüssel sind sowohl formal als auch praktisch von entscheidender Bedeutung, da Chiffren mit festen Schlüsseln leicht nur anhand der Informationen der Chiffre gebrochen werden können, was sie für die meisten Zwecke unbrauchbar (oder sogar kontraproduktiv) macht.
In der Vergangenheit wurden Chiffren häufig ohne zusätzliche Verfahren wie Authentifizierung oder Integritätsprüfungen zur Verschlüsselung oder Entschlüsselung verwendet. Kryptosysteme werden in zwei Kategorien unterteilt: symmetrisch und asymmetrisch. Derselbe Schlüssel (der geheime Schlüssel) wird zum Ver- und Entschlüsseln einer Nachricht in symmetrischen Systemen verwendet, die bis in die 1970er Jahre die einzigen bekannten waren. Da symmetrische Systeme kürzere Schlüssellängen verwenden, ist die Datenmanipulation in symmetrischen Systemen schneller als in asymmetrischen Systemen. Asymmetrische Systeme verschlüsseln eine Kommunikation mit einem „öffentlichen Schlüssel“ und entschlüsseln sie mit einem ähnlichen „privaten Schlüssel“. Die Verwendung asymmetrischer Systeme verbessert die Kommunikationssicherheit aufgrund der Schwierigkeit, die Beziehung zwischen den beiden Schlüsseln zu bestimmen. RSA (Rivest–Shamir–Adleman) und ECC sind zwei Beispiele für asymmetrische Systeme (Elliptic Curve Cryptography). Der weit verbreitete AES (Advanced Encryption Standard), der den früheren DES ablöste, ist ein Beispiel für einen hochwertigen symmetrischen Algorithmus (Data Encryption Standard). Die verschiedenen Techniken zum Verwirren der Sprache von Kindern, wie Pig Latin oder andere Gesänge, und tatsächlich alle kryptographischen Schemata, egal wie ernst es gemeint war, aus irgendeiner Quelle vor der Einführung des One-Time-Pad zu Beginn des XNUMX. Jahrhunderts sind Beispiele für eine geringe Qualität symmetrische Algorithmen.
Der Begriff „Code“ wird umgangssprachlich oft verwendet, um sich auf jede Technik der Verschlüsselung oder Verbergung von Nachrichten zu beziehen. In der Kryptographie bezieht sich Code jedoch auf die Ersetzung eines Codeworts für eine Einheit von Klartext (dh ein bedeutungsvolles Wort oder eine bedeutungsvolle Phrase) (zum Beispiel ersetzt „Wallaby“ „Angriff im Morgengrauen“). Im Gegensatz dazu wird ein Geheimtext erzeugt, indem ein Element unterhalb einer solchen Ebene (beispielsweise ein Buchstabe, eine Silbe oder ein Buchstabenpaar) modifiziert oder ersetzt wird, um einen Geheimtext zu bilden.
Kryptoanalyse ist die Untersuchung von Möglichkeiten, verschlüsselte Daten zu entschlüsseln, ohne Zugriff auf den dafür erforderlichen Schlüssel zu haben; mit anderen Worten, es ist das Studium, wie man Verschlüsselungsschemata oder ihre Implementierungen „knacken“ kann.
Im Englischen verwenden einige Leute die Begriffe „Kryptografie“ und „Kryptologie“ austauschbar, während andere (einschließlich der US-Militärpraxis im Allgemeinen) „Kryptografie“ verwenden, um sich auf die Verwendung und Praxis kryptografischer Techniken zu beziehen, und „Kryptologie“, um sich auf die Kombination zu beziehen Studium der Kryptographie und Kryptoanalyse. Englisch ist anpassungsfähiger als eine Reihe anderer Sprachen, in denen „Kryptologie“ (wie sie von Kryptologen praktiziert wird) immer im zweiten Sinne verwendet wird. Die Steganographie ist gemäß RFC 2828 manchmal in der Kryptologie enthalten.
Kryptolinguistik ist das Studium von Spracheigenschaften, die eine gewisse Relevanz in der Kryptographie oder Kryptologie haben (z. B. Häufigkeitsstatistiken, Buchstabenkombinationen, universelle Muster usw.).
Kryptographie und Kryptoanalyse haben eine lange Geschichte.
Die Geschichte der Kryptographie ist der Hauptartikel.
Vor der Neuzeit befasste sich die Kryptographie hauptsächlich mit der Vertraulichkeit von Nachrichten (dh Verschlüsselung) – der Umwandlung von Nachrichten von einer verständlichen in eine unverständliche Form und wieder, um sie für Abfangjäger oder Lauscher ohne geheimes Wissen (nämlich den zur Entschlüsselung benötigten Schlüssel) unlesbar zu machen dieser Nachricht). Die Verschlüsselung wurde entwickelt, um die Gespräche von Spionen, Militärführern und Diplomaten geheim zu halten. In den letzten Jahrzehnten ist die Disziplin gewachsen und umfasst unter anderem Techniken wie die Überprüfung der Nachrichtenintegrität, die Authentifizierung der Sender-/Empfänger-Identität, digitale Signaturen, interaktive Beweise und sichere Berechnungen.
Die beiden gebräuchlichsten klassischen Chiffrentypen sind Transpositionsziffern, die Buchstaben oder Buchstabengruppen systematisch durch andere Buchstaben oder Buchstabengruppen ersetzen (z. die Buchstaben oder Buchstabengruppen systematisch durch andere Buchstaben oder Buchstabengruppen ersetzen (z. B. „Fly at once“ wird zu „gmz bu Einfache Versionen von beiden haben nie viel Privatsphäre vor schlauen Gegnern geboten. Die Caesar-Chiffre war eine frühe Ersatzchiffre, in der Jeder Buchstabe im Klartext wurde durch einen Buchstaben eine bestimmte Anzahl von Stellen weiter unten im Alphabet ersetzt. Laut Sueton benutzte ihn Julius Caesar in einer Drei-Mann-Schicht, um mit seinen Generälen zu kommunizieren. Eine frühe hebräische Chiffre, Atbash, ist ein Beispiel. Die älteste bekannte Verwendung der Kryptographie ist ein in Stein gemeißelter Chiffretext in Ägypten (um 1900 v. Chr.). ein, um Informationen zu verbergen.
Krypten sollen den klassischen Griechen bekannt gewesen sein (z. B. die Skytale-Transpositions-Chiffre, die angeblich vom spartanischen Militär verwendet wurde). Auch die Steganographie (die Praxis, selbst das Vorhandensein einer Mitteilung zu verbergen, um sie privat zu halten) wurde in der Antike erfunden. Ein Satz, der laut Herodot auf den rasierten Kopf eines Sklaven tätowiert und unter dem nachgewachsenen Haar versteckt ist. Die Verwendung von unsichtbarer Tinte, Mikropunkten und digitalen Wasserzeichen zum Verbergen von Informationen sind aktuellere Beispiele der Steganographie.
Kautiliyam und Mulavediya sind zwei Arten von Chiffren, die in Indiens 2000 Jahre altem Kamasutra von Vtsyyana erwähnt werden. Die Ersetzungen der Chiffrebuchstaben im Kautiliyam basieren auf phonetischen Beziehungen, wie zum Beispiel Vokalen, die zu Konsonanten werden. Das Chiffre-Alphabet in der Mulavediya besteht aus übereinstimmenden Buchstaben und verwendet reziproke Buchstaben.
Laut dem muslimischen Gelehrten Ibn al-Nadim hatte das sassanidische Persien zwei geheime Schriften: die h-dabrya (wörtlich „Königsschrift“), die für die offizielle Korrespondenz verwendet wurde, und die rz-saharya, die verwendet wurde, um geheime Nachrichten mit anderen auszutauschen Länder.
David Kahn schreibt in seinem Buch The Codebreakers, dass die zeitgenössische Kryptologie mit den Arabern begann, die als erste kryptanalytische Verfahren sorgfältig dokumentierten. Das Buch der kryptografischen Botschaften wurde von Al-Khalil (717–786) geschrieben und enthält die früheste Verwendung von Permutationen und Kombinationen, um alle denkbaren arabischen Wörter mit und ohne Vokale aufzulisten.
Chiffretexte, die von einer klassischen Chiffre (sowie einigen modernen Chiffren) generiert werden, geben statistische Informationen über den Klartext an, die verwendet werden können, um die Chiffre zu knacken. Fast alle derartigen Chiffren konnten nach der Entdeckung der Frequenzanalyse von einem intelligenten Angreifer gebrochen werden, möglicherweise im 9. Jahrhundert durch den arabischen Mathematiker und Universalgelehrten Al-Kindi (auch bekannt als Alkindus). Klassische Chiffren sind auch heute noch beliebt, wenn auch weitgehend als Rätsel (siehe Kryptogramm). Risalah fi Istikhraj al-Mu'amma (Manuskript zur Entschlüsselung kryptographischer Nachrichten) wurde von Al-Kindi geschrieben und dokumentiert die erste bekannte Anwendung von frequenzanalytischen Kryptoanalysetechniken.
Einige Verschlüsselungsansätze mit erweitertem Verlauf, wie etwa homophone Chiffre, die dazu neigen, die Häufigkeitsverteilung abzuflachen, profitieren möglicherweise nicht von Sprachbuchstabenhäufigkeiten. Die Häufigkeiten von Sprachbuchstabengruppen (oder N-Gramm) können einen Angriff auf diese Chiffren auslösen.
Bis zur Entdeckung der polyalphabetischen Chiffre, vor allem durch Leon Battista Alberti um 1467, waren praktisch alle Chiffren der Kryptoanalyse mit dem Frequenzanalyseansatz zugänglich, obwohl es einige Hinweise darauf gibt, dass sie Al-Kindi bereits bekannt war. Alberti hatte die Idee, separate Chiffren (oder Ersatzalphabete) für verschiedene Teile einer Kommunikation zu verwenden (vielleicht für jeden aufeinanderfolgenden Klartextbuchstaben am Limit). Er schuf auch das vermutlich erste automatische Verschlüsselungsgerät, ein Rad, das einen Teil seines Designs ausführte. Die Verschlüsselung in der Vigenère-Chiffre, einer polyalphabetischen Chiffre, wird durch ein Schlüsselwort gesteuert, das die Buchstabenersetzung basierend darauf regelt, welcher Buchstabe des Schlüsselworts verwendet wird. Charles Babbage zeigte Mitte des XNUMX. Jahrhunderts, dass die Vigenère-Chiffre für die Kasiski-Analyse anfällig war, aber Friedrich Kasiski veröffentlichte seine Ergebnisse zehn Jahre später.
Trotz der Tatsache, dass die Frequenzanalyse eine leistungsstarke und umfassende Technik für viele Chiffren ist, ist die Verschlüsselung in der Praxis effektiv geblieben, da viele angehende Kryptoanalytiker diese Technik nicht kennen. Um eine Nachricht zu knacken, ohne eine Frequenzanalyse zu verwenden, war die Kenntnis der verwendeten Chiffre und möglicherweise des verwendeten Schlüssels erforderlich, was Spionage, Bestechung, Einbruch, Überlaufen und andere kryptanalytisch nicht informierte Taktiken attraktiver macht. Das Geheimnis des Algorithmus einer Chiffre wurde schließlich im 19. Jahrhundert als weder vernünftige noch machbare Garantie für die Nachrichtensicherheit anerkannt; tatsächlich sollte jedes geeignete kryptografische Schema (einschließlich Chiffren) sicher bleiben, selbst wenn der Gegner den Chiffrieralgorithmus selbst vollständig versteht. Die Sicherheit des Schlüssels sollte ausreichen, damit eine gute Chiffre die Vertraulichkeit im Angesicht eines Angriffs behält. Auguste Kerckhoffs stellte dieses grundlegende Prinzip erstmals 1883 fest, und es ist als Kerckhoffs-Prinzip bekannt; alternativ und unverblümter formulierte Claude Shannon, der Erfinder der Informationstheorie und der Grundlagen der theoretischen Kryptographie, sie als Shannons Maxime – „der Feind kennt das System“.
Um mit Verschlüsselungen zu helfen, wurden viele physische Geräte und Hilfestellungen verwendet. Die Skytale des antiken Griechenlands, eine Rute, die angeblich von den Spartanern als Transpositions-Chiffrierwerkzeug verwendet wurde, könnte eine der ersten gewesen sein. Im Mittelalter wurden weitere Hilfsmittel entwickelt, wie das Chiffrengitter, das auch für die Steganographie verwendet wurde. Mit der Entwicklung polyalphabetischer Chiffren wurden anspruchsvollere Hilfsmittel wie Albertis Chiffrierscheibe, Johannes Trithemius' Tabula Recta-Schema und Thomas Jeffersons Radchiffre verfügbar (nicht öffentlich bekannt und unabhängig von Bazeries um 1900 neu erfunden). Viele mechanische Verschlüsselungs-/Entschlüsselungssysteme wurden im frühen 1920. Jahrhundert entwickelt und patentiert, darunter Rotormaschinen, die von den späten XNUMXer Jahren bis zum Zweiten Weltkrieg bekanntermaßen von der deutschen Regierung und dem Militär eingesetzt wurden. Nach dem Ersten Weltkrieg führten die von höherwertigen Instanzen dieser Maschinendesigns implementierten Chiffren zu einem deutlichen Anstieg der kryptanalytischen Schwierigkeit.
Die Kryptographie befasste sich vor dem frühen XNUMX. Jahrhundert hauptsächlich mit linguistischen und lexikographischen Mustern. Seitdem hat sich der Schwerpunkt weiterentwickelt und die Kryptographie umfasst nun Aspekte der Informationstheorie, der Rechenkomplexität, der Statistik, der Kombinatorik, der abstrakten Algebra, der Zahlentheorie und der endlichen Mathematik im Allgemeinen. Kryptographie ist eine Technik, die jedoch insofern einzigartig ist, als sie sich mit aktivem, intelligentem und feindlichem Widerstand befasst, während andere Arten der Technik (wie Bau- oder Chemieingenieurwesen) lediglich mit neutralen Naturkräften zu tun haben. Auch der Zusammenhang zwischen Kryptografieschwierigkeiten und Quantenphysik wird untersucht.
Die Entwicklung von digitalen Computern und Elektronik unterstützte die Kryptoanalyse, indem sie die Erstellung wesentlich komplexerer Chiffren ermöglichte. Darüber hinaus ermöglichten Computer im Gegensatz zu herkömmlichen Chiffren, die ausschließlich geschriebene Sprachtexte verschlüsselten, die Verschlüsselung jeder Art von Daten, die in jedem Binärformat dargestellt werden konnten; das war neu und entscheidend. Sowohl beim Verschlüsselungsdesign als auch bei der Kryptoanalyse haben Computer die Sprachkryptographie verdrängt. Im Gegensatz zu klassischen und mechanischen Verfahren, die hauptsächlich traditionelle Zeichen (dh Buchstaben und Zahlen) direkt manipulieren, arbeiten viele Computerchiffren mit binären Bitfolgen (gelegentlich in Gruppen oder Blöcken). Computer hingegen haben die Kryptoanalyse unterstützt, wodurch die erhöhte Verschlüsselungskomplexität teilweise kompensiert wurde. Trotzdem sind gute moderne Chiffren der Kryptoanalyse voraus geblieben; es ist oft der Fall, dass die Verwendung einer guten Verschlüsselung sehr effizient ist (dh schnell und erfordert nur wenige Ressourcen wie Speicher oder CPU-Kapazität), während das Aufbrechen dieser Verschlüsselung einen um viele Größenordnungen größeren Aufwand erfordert, der weitaus größer ist als der für jede andere erforderliche Verschlüsselung klassische Chiffre, die eine Kryptoanalyse effektiv unmöglich macht.
Die moderne Kryptographie feiert ihr Debüt.
Die Kryptoanalyse der neuen mechanischen Geräte erwies sich als anspruchsvoll und zeitaufwändig. Während des Zweiten Weltkriegs förderten kryptanalytische Aktivitäten in Bletchley Park im Vereinigten Königreich die Erfindung effizienterer Methoden für sich wiederholende Aufgaben. Der Colossus, der weltweit erste vollständig elektronische, digitale, programmierbare Computer, wurde entwickelt, um die Entschlüsselung von Chiffren zu unterstützen, die von der Lorenz SZ40/42-Maschine der Bundeswehr erstellt wurden.
Kryptographie ist ein relativ neues Feld der offenen akademischen Forschung, das erst Mitte der 1970er Jahre begann. IBM-Mitarbeiter entwickelten den Algorithmus, der zum Federal (dh US) Data Encryption Standard wurde; Whitfield Diffie und Martin Hellman haben ihren Schlüsselübereinstimmungsalgorithmus veröffentlicht; und Martin Gardners Scientific American Kolumne veröffentlichte den RSA-Algorithmus. Kryptographie hat seitdem als Technik für Kommunikation, Computernetzwerke und Computersicherheit im Allgemeinen an Popularität gewonnen.
Es gibt enge Verbindungen zur abstrakten Mathematik, da mehrere moderne Kryptographieansätze ihre Schlüssel nur dann geheim halten können, wenn bestimmte mathematische Probleme hartnäckig sind, wie beispielsweise die ganzzahlige Faktorisierung oder Probleme mit dem diskreten Logarithmus. Es gibt nur eine Handvoll Kryptosysteme, die sich als 100% sicher erwiesen haben. Claude Shannon hat bewiesen, dass der One-Time-Pad einer davon ist. Es gibt einige Schlüsselalgorithmen, die sich unter bestimmten Bedingungen als sicher erwiesen haben. Die Unfähigkeit, extrem große ganze Zahlen zu faktorisieren, ist beispielsweise die Grundlage für die Annahme, dass RSA und andere Systeme sicher sind, aber der Nachweis der Unzerbrechlichkeit ist nicht erreichbar, da das zugrunde liegende mathematische Problem ungelöst bleibt. In der Praxis sind diese weit verbreitet und die meisten kompetenten Beobachter glauben, dass sie in der Praxis unzerbrechlich sind. Es gibt RSA-ähnliche Systeme, wie eines von Michael O. Rabin, die nachweislich sicher sind, wenn die Faktorisierung von n = pq nicht möglich ist; sie sind jedoch praktisch nutzlos. Das Problem des diskreten Logarithmus ist die Grundlage für die Annahme, dass einige andere Kryptosysteme sicher sind, und es gibt ähnliche, weniger praktische Systeme, die im Hinblick auf die Lösbarkeit oder Unlösbarkeit des Problems des diskreten Logarithmus nachweislich sicher sind.
Entwickler von kryptografischen Algorithmen und Systemen müssen bei der Arbeit an ihren Ideen mögliche zukünftige Fortschritte berücksichtigen und sich der kryptografischen Geschichte bewusst sein. Mit der Verbesserung der Rechenleistung von Computern ist beispielsweise die Breite der Brute-Force-Angriffe gewachsen, und somit sind auch die erforderlichen Schlüssellängen gewachsen. Einige kryptografische Systemdesigner, die sich mit Post-Quanten-Kryptografie befassen, ziehen bereits die möglichen Konsequenzen des Quantencomputing in Betracht; Die angekündigte unmittelbare bevorstehende Einführung bescheidener Implementierungen dieser Maschinen könnte die Notwendigkeit von Vorsichtsmaßnahmen mehr als nur spekulativ machen.
Klassische Kryptographie in der Moderne
Symmetrische (oder private-Schlüssel-)Kryptographie ist eine Art der Verschlüsselung, bei der Sender und Empfänger denselben Schlüssel verwenden (oder, seltener, ihre Schlüssel unterschiedlich, aber leicht berechenbar miteinander verbunden sind und geheim gehalten werden.) ). Bis Juni 1976 war dies die einzige Verschlüsselungsart, die öffentlich bekannt war.
Blockchiffren und Stromchiffren werden beide verwendet, um symmetrische Schlüsselchiffren zu implementieren. Eine Blockchiffre verschlüsselt die Eingabe in Blöcken von Klartext und nicht in einzelnen Zeichen, wie dies bei einer Stromchiffre der Fall ist.
Die US-Regierung hat den Data Encryption Standard (DES) und den Advanced Encryption Standard (AES) als Kryptographie-Standards bezeichnet (allerdings wurde die Zertifizierung von DES mit der Einführung des AES schließlich zurückgezogen). DES (insbesondere seine immer noch zugelassene und wesentlich sicherere Triple-DES-Variante) bleibt trotz seiner Verabschiedung als offizieller Standard beliebt; Es wird in einer Vielzahl von Anwendungen verwendet, von der ATM-Verschlüsselung über den E-Mail-Datenschutz bis hin zum sicheren Fernzugriff. Es wurden eine Reihe verschiedener Blockchiffren erfunden und veröffentlicht, mit unterschiedlichem Erfolg. Viele, darunter auch einige, die von qualifizierten Praktikern wie FEAL entworfen wurden, sind weitgehend kaputt gegangen.
Stromchiffren erzeugen im Gegensatz zu Blockchiffren einen unendlich langen Strom von Schlüsselmaterial, der Bit für Bit oder Zeichen für Zeichen mit Klartext gekoppelt ist, ähnlich dem One-Time-Pad. Der Ausgabestrom einer Stromchiffre wird aus einem verborgenen internen Zustand erzeugt, der sich mit der Funktion der Chiffre ändert. Das geheime Schlüsselmaterial wird verwendet, um diesen internen Zustand zunächst einzurichten. Weit verbreitet ist die Stromchiffre RC4. Durch Erzeugen von Blöcken eines Schlüsselstroms (anstelle eines Pseudozufallszahlengenerators) und Verwenden einer XOR-Operation auf jedes Bit des Klartextes mit jedem Bit des Schlüsselstroms können Blockchiffren als Stromchiffren verwendet werden.
Message Authentication Codes (MACs) ähneln kryptografischen Hash-Funktionen, mit der Ausnahme, dass ein geheimer Schlüssel verwendet werden kann, um den Hash-Wert nach Erhalt zu validieren; Diese zusätzliche Komplexität verhindert einen Angriff auf Naked Digest-Algorithmen und wird daher als lohnenswert angesehen. Eine dritte Art von kryptografischer Technik sind kryptografische Hash-Funktionen. Sie nehmen Nachrichten beliebiger Länge als Eingabe und geben einen kleinen Hash fester Länge aus, der beispielsweise in digitalen Signaturen verwendet werden kann. Ein Angreifer kann mit guten Hash-Algorithmen nicht zwei Nachrichten finden, die denselben Hash erzeugen. MD4 ist eine weit verbreitete, aber mittlerweile fehlerhafte Hash-Funktion; MD5, eine Weiterentwicklung von MD4, ist ebenfalls weit verbreitet, aber in der Praxis gebrochen. Die Secure Hash Algorithm-Reihe von MD5-ähnlichen Hash-Algorithmen wurde von der US-amerikanischen National Security Agency entwickelt: Die US-Standardisierungsbehörde entschied, dass es aus Sicherheitsgründen „umsichtig“ war, einen neuen Standard zu entwickeln, um „die Robustheit des gesamten Hash-Algorithmus von NIST deutlich zu verbessern“. Werkzeugkasten.“ SHA-1 ist weit verbreitet und sicherer als MD5, aber Kryptoanalytiker haben Angriffe dagegen identifiziert. die SHA-2-Familie verbessert SHA-1, ist jedoch ab 2011 anfällig für Zusammenstöße; und die SHA-2-Familie verbessert SHA-1, ist aber anfällig für Kollisionen Als Ergebnis sollte bis 2012 ein Designwettbewerb für Hash-Funktionen abgehalten werden, um einen neuen nationalen US-Standard namens SHA-3 auszuwählen. Der Wettbewerb endete am 2. Oktober 2012, als das National Institute of Standards and Technology (NIST) Keccak als neuen SHA-3-Hash-Algorithmus ankündigte. Kryptografische Hashfunktionen liefern im Gegensatz zu invertierbaren Block- und Stromchiffren eine gehashte Ausgabe, die nicht verwendet werden kann, um die ursprünglichen Eingabedaten wiederherzustellen. Kryptografische Hash-Funktionen werden verwendet, um die Authentizität von Daten zu überprüfen, die aus einer nicht vertrauenswürdigen Quelle stammen, oder um einen zusätzlichen Schutzgrad hinzuzufügen.
Obwohl eine Nachricht oder ein Satz von Nachrichten einen anderen Schlüssel als andere haben kann, verwenden Kryptosysteme mit symmetrischen Schlüsseln denselben Schlüssel zum Verschlüsseln und Entschlüsseln. Ein großer Nachteil ist die zur sicheren Verwendung symmetrischer Chiffren erforderliche Schlüsselverwaltung. Jedes einzelne Paar kommunizierender Teilnehmer sollte idealerweise einen anderen Schlüssel teilen, sowie möglicherweise einen anderen Geheimtext für jeden gesendeten Geheimtext. Die Anzahl der erforderlichen Schlüssel wächst direkt proportional zur Anzahl der Netzwerkteilnehmer, was komplizierte Schlüsselverwaltungstechniken erfordert, um sie alle konsistent und geheim zu halten.
Whitfield Diffie und Martin Hellman erfanden das Konzept der Kryptographie mit öffentlichem Schlüssel (auch als asymmetrischer Schlüssel bekannt) in einer bahnbrechenden Arbeit von 1976, in der zwei verschiedene, aber mathematisch verwandte Schlüssel – ein öffentlicher Schlüssel und ein privater Schlüssel – verwendet werden. Obwohl sie untrennbar miteinander verbunden sind, ist ein System mit öffentlichen Schlüsseln so aufgebaut, dass die Berechnung eines Schlüssels (des 'privaten Schlüssels') aus dem anderen (des 'öffentlichen Schlüssels') rechnerisch nicht möglich ist. Vielmehr werden beide Schlüssel heimlich als verknüpftes Paar erzeugt. Laut dem Historiker David Kahn ist die Public-Key-Kryptographie „der revolutionärste neue Begriff auf diesem Gebiet, seit die polyalphabetische Substitution in der Renaissance aufgekommen ist“.
Der öffentliche Schlüssel in einem Kryptosystem mit öffentlichem Schlüssel kann frei übertragen werden, aber der gekoppelte private Schlüssel muss verborgen bleiben. Der öffentliche Schlüssel wird zur Verschlüsselung verwendet, während der private oder geheime Schlüssel zur Entschlüsselung in einem Verschlüsselungsschema mit öffentlichem Schlüssel verwendet wird. Diffie und Hellman waren zwar nicht in der Lage, ein solches System zu entwickeln, aber sie zeigten, dass eine Kryptografie mit öffentlichem Schlüssel denkbar war, indem sie das Diffie-Hellman-Schlüsselaustauschprotokoll zur Verfügung stellten, eine Lösung, die es zwei Personen ermöglicht, sich heimlich auf einen gemeinsamen Verschlüsselungsschlüssel zu einigen. Das am weitesten verbreitete Format für Public-Key-Zertifikate wird durch den X.509-Standard definiert.
Die Veröffentlichung von Diffie und Hellman weckte ein breites akademisches Interesse an der Entwicklung eines praktischen Verschlüsselungssystems mit öffentlichem Schlüssel. 1978 gewannen Ronald Rivest, Adi Shamir und Len Adleman den Wettbewerb, und ihre Antwort wurde als RSA-Algorithmus bekannt.
Die Diffie-Hellman- und RSA-Algorithmen sind nicht nur die frühesten öffentlich bekannten Instanzen von hochwertigen Public-Key-Algorithmen, sondern gehören auch zu den am häufigsten verwendeten. Das Cramer-Shoup-Kryptosystem, die ElGamal-Verschlüsselung und zahlreiche elliptische Kurvenansätze sind Beispiele für asymmetrische Schlüsselalgorithmen.
Laut einem Dokument, das 1997 vom Government Communications Headquarters (GCHQ), einem britischen Geheimdienst, herausgegeben wurde, sahen die Kryptografen des GCHQ mehrere wissenschaftliche Fortschritte voraus. Der Legende nach wurde die asymmetrische Schlüsselkryptographie um 1970 von James H. Ellis erfunden. Clifford Cocks erfand 1973 eine Lösung, die RSA im Design sehr ähnlich war. Malcolm J. Williamson wird die Erfindung des Diffie-Hellman-Schlüsselaustauschs im Jahr 1974 zugeschrieben.
Digitale Signatursysteme werden auch unter Verwendung von Public-Key-Kryptographie implementiert. Eine digitale Signatur ähnelt einer herkömmlichen Signatur darin, dass sie für den Benutzer einfach zu erstellen, für andere jedoch schwer zu fälschen ist. Digitale Signaturen können auch dauerhaft mit dem Inhalt der zu signierenden Kommunikation verknüpft werden; das bedeutet, dass sie nicht von einem Dokument in ein anderes „verschoben“ werden können, ohne entdeckt zu werden. Es gibt zwei Algorithmen in digitalen Signaturschemata: einen zum Signieren, der einen geheimen Schlüssel verwendet, um die Nachricht zu verarbeiten (oder einen Hash der Nachricht oder beides), und einen zur Verifizierung, der den passenden öffentlichen Schlüssel mit der Nachricht zur Validierung verwendet die Echtheit der Unterschrift. Zwei der am häufigsten verwendeten digitalen Signaturmethoden sind RSA und DSA. Infrastrukturen mit öffentlichen Schlüsseln und viele Netzwerksicherheitssysteme (z. B. SSL/TLS, viele VPNs) sind für ihre Funktion auf digitale Signaturen angewiesen.
Die rechnerische Komplexität „harter“ Probleme, wie sie sich beispielsweise aus der Zahlentheorie ergeben, wird häufig genutzt, um Public-Key-Verfahren zu entwickeln. Das ganzzahlige Faktorisierungsproblem hängt mit der Härte von RSA zusammen, während das Problem des diskreten Logarithmus mit Diffie-Hellman und DSA zusammenhängt. Die Sicherheit der elliptischen Kurvenkryptographie basiert auf theoretischen Problemen der elliptischen Kurvenzahl. Die meisten Algorithmen mit öffentlichem Schlüssel umfassen Operationen wie modulare Multiplikation und Exponentiation, die aufgrund der Schwierigkeit der zugrunde liegenden Probleme wesentlich rechenaufwendiger sind als die Techniken, die in den meisten Blockchiffren verwendet werden, insbesondere bei normalen Schlüsselgrößen. Als Ergebnis sind Public-Key-Kryptosysteme häufig hybride Kryptosysteme, bei denen die Nachricht mit einem schnellen, hochwertigen symmetrischen Schlüsselalgorithmus verschlüsselt wird, während der entsprechende symmetrische Schlüssel mit der Nachricht gesendet, jedoch mit einem öffentlichen Schlüsselalgorithmus verschlüsselt wird. Häufig werden auch hybride Signaturschemata verwendet, bei denen eine kryptografische Hash-Funktion berechnet und nur der resultierende Hash digital signiert wird.
Hash-Funktionen in der Kryptographie
Kryptografische Hashfunktionen sind kryptografische Algorithmen, die bestimmte Schlüssel erzeugen und verwenden, um Daten entweder für symmetrische oder asymmetrische Verschlüsselung zu verschlüsseln, und sie können als Schlüssel betrachtet werden. Sie nehmen Nachrichten beliebiger Länge als Eingabe und geben einen kleinen Hash fester Länge aus, der beispielsweise in digitalen Signaturen verwendet werden kann. Ein Angreifer kann mit guten Hash-Algorithmen nicht zwei Nachrichten finden, die denselben Hash erzeugen. MD4 ist eine weit verbreitete, aber mittlerweile fehlerhafte Hash-Funktion; MD5, eine Weiterentwicklung von MD4, ist ebenfalls weit verbreitet, aber in der Praxis gebrochen. Die Secure Hash Algorithm-Reihe von MD5-ähnlichen Hash-Algorithmen wurde von der US-amerikanischen National Security Agency entwickelt: Die US-Standardisierungsbehörde entschied, dass es aus Sicherheitsgründen „umsichtig“ war, einen neuen Standard zu entwickeln, um „die Robustheit des gesamten Hash-Algorithmus von NIST deutlich zu verbessern“. Werkzeugkasten.“ SHA-1 ist weit verbreitet und sicherer als MD5, aber Kryptoanalytiker haben Angriffe dagegen identifiziert. die SHA-2-Familie verbessert SHA-1, ist jedoch ab 2011 anfällig für Zusammenstöße; und die SHA-2-Familie verbessert SHA-1, ist aber anfällig für Kollisionen Als Ergebnis sollte bis 2012 ein Designwettbewerb für Hash-Funktionen abgehalten werden, um einen neuen nationalen US-Standard namens SHA-3 auszuwählen. Der Wettbewerb endete am 2. Oktober 2012, als das National Institute of Standards and Technology (NIST) Keccak als neuen SHA-3-Hash-Algorithmus ankündigte. Kryptografische Hash-Funktionen bieten im Gegensatz zu invertierbaren Block- und Stream-Chiffren eine gehashte Ausgabe, die nicht verwendet werden kann, um die ursprünglichen Eingabedaten wiederherzustellen. Kryptografische Hash-Funktionen werden verwendet, um die Authentizität von Daten zu überprüfen, die aus einer nicht vertrauenswürdigen Quelle stammen, oder um einen zusätzlichen Schutzgrad hinzuzufügen.
Kryptografische Primitive und Kryptosysteme
Ein Großteil der theoretischen Arbeit der Kryptografie konzentriert sich auf kryptografische Primitive – Algorithmen mit grundlegenden kryptografischen Eigenschaften – und deren Beziehung zu anderen kryptografischen Herausforderungen. Diese grundlegenden Primitive werden dann verwendet, um komplexere kryptografische Werkzeuge zu erstellen. Diese Grundelemente bieten grundlegende Qualitäten, die verwendet werden, um komplexere Werkzeuge zu erstellen, die als Kryptosysteme oder kryptografische Protokolle bekannt sind und eine oder mehrere Sicherheitseigenschaften auf hohem Niveau gewährleisten. Andererseits ist die Grenze zwischen kryptographischen Primitiven und Kryptosystemen willkürlich; der RSA-Algorithmus beispielsweise wird manchmal als Kryptosystem und manchmal als Primitiv angesehen. Pseudozufallsfunktionen, Einwegfunktionen und andere kryptografische Primitive sind gängige Beispiele.
Ein kryptographisches System oder Kryptosystem wird durch Kombinieren eines oder mehrerer kryptographischer Grundelemente erzeugt, um einen komplizierteren Algorithmus zu erzeugen. Kryptosysteme (z. B. El-Gamal-Verschlüsselung) sollen spezifische Funktionalität (z. B. Verschlüsselung mit öffentlichem Schlüssel) bereitstellen und gleichzeitig bestimmte Sicherheitsqualitäten sicherstellen (z. B. CPA-Sicherheit eines zufälligen Oracle-Modells mit gewähltem Klartext-Angriff). Um die Sicherheitsqualitäten des Systems zu unterstützen, verwenden Kryptosysteme die Eigenschaften der zugrunde liegenden kryptographischen Grundelemente. Ein ausgeklügeltes Kryptosystem kann aus einer Kombination zahlreicher rudimentärerer Kryptosysteme generiert werden, da die Unterscheidung zwischen Primitiven und Kryptosystemen etwas willkürlich ist. In vielen Fällen umfasst die Struktur des Kryptosystems eine Hin- und Her-Kommunikation zwischen zwei oder mehr Parteien im Raum (z. B. zwischen dem Sender und dem Empfänger einer sicheren Nachricht) oder über die Zeit (z. B. zwischen dem Sender und dem Empfänger einer sicheren Nachricht). (zB kryptographisch geschützte Backup-Daten).
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/CCF Classical Cryptography Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/QI/QIF Quanteninformationsgrundlagen
EITC/QI/QIF Quantum Information Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der Quanteninformation und Quantenberechnung, das auf den Gesetzen der Quantenphysik statt der klassischen Physik basiert und qualitative Vorteile gegenüber ihren klassischen Gegenstücken bietet.
Das Curriculum des EITC/QI/QIF Quantum Information Fundamentals umfasst die Einführung in die Quantenmechanik (einschließlich der Berücksichtigung des Doppelspaltexperiments und der Materiewelleninterferenz), die Einführung in die Quanteninformation (Qubits und ihre geometrische Darstellung), die Lichtpolarisation, das Unsicherheitsprinzip, Quanten Verschränkung, EPR-Paradox, Bell-Ungleichheitsverletzung, Aufgabe des lokalen Realismus, Quanteninformationsverarbeitung (einschließlich Einheitstransformation, Einzel-Qubit- und Zwei-Qubit-Gatter), No-Cloning-Theorem, Quantenteleportation, Quantenmessung, Quantenberechnung (einschließlich Einführung in Multi -Qubit-Systeme, universelle Familie von Gattern, Reversibilität der Berechnung), Quantenalgorithmen (einschließlich Quanten-Fourier-Transformation, Simons Algorithmus, erweiterte Churh-Turing-These, Shor'q-Quantenfaktorierungsalgorithmus, Grovers Quantensuchalgorithmus), Quantenobservablen, Shrodinger-Gleichung, Qubits-Implementierungen, Quantenkomplexitätstheorie, adiabatische Quantencomputer ion, BQP, Einführung in Spin, innerhalb der folgenden Struktur, die umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfasst.
Quanteninformation ist die Information über den Zustand eines Quantensystems. Es ist die grundlegende Untersuchungseinheit der Quanteninformationstheorie und kann mit Quanteninformationsverarbeitungstechniken manipuliert werden. Quanteninformationen beziehen sich sowohl auf die technische Definition in Bezug auf die Von-Neumann-Entropie als auch auf den allgemeinen rechnerischen Begriff.
Quanteninformation und -berechnung ist ein interdisziplinäres Gebiet, das unter anderem Quantenmechanik, Informatik, Informationstheorie, Philosophie und Kryptographie umfasst. Sein Studium ist auch für Disziplinen wie Kognitionswissenschaft, Psychologie und Neurowissenschaften relevant. Sein Hauptaugenmerk liegt auf der Gewinnung von Informationen aus Materie im mikroskopischen Maßstab. Die Beobachtung in der Wissenschaft ist ein grundlegendes Unterscheidungskriterium der Realität und eine der wichtigsten Formen der Informationsbeschaffung. Daher ist eine Messung erforderlich, um die Beobachtung zu quantifizieren, was sie für die wissenschaftliche Methode entscheidend macht. In der Quantenmechanik können nicht kommutierende Observablen aufgrund des Unsicherheitsprinzips nicht gleichzeitig präzise gemessen werden, da ein Eigenzustand in einer Basis kein Eigenzustand in der anderen Basis ist. Da beide Variablen nicht gleichzeitig gut definiert sind, kann ein Quantenzustand niemals definitive Informationen über beide Variablen enthalten. Aufgrund dieser fundamentalen Eigenschaft der Messung in der Quantenmechanik kann diese Theorie im Gegensatz zur klassischen Mechanik, die vollständig deterministisch ist, allgemein als nichtdeterministisch charakterisiert werden. Der Indeterminismus von Quantenzuständen charakterisiert Informationen, die als Zustände von Quantensystemen definiert sind. Mathematisch gesehen liegen diese Zustände in Überlagerungen (Linearkombinationen) der Zustände klassischer Systeme.
Da Informationen immer im Zustand eines physischen Systems kodiert sind, sind sie an sich physisch. Während sich die Quantenmechanik mit der Untersuchung von Eigenschaften von Materie auf mikroskopischer Ebene befasst, konzentriert sich die Quanteninformationswissenschaft darauf, Informationen aus diesen Eigenschaften zu extrahieren, und Quantencomputer manipulieren und verarbeiten Quanteninformationen – führen logische Operationen durch – unter Verwendung von Quanteninformationsverarbeitungstechniken.
Quanteninformationen können wie klassische Informationen mit Computern verarbeitet, von einem Ort zum anderen übertragen, mit Algorithmen manipuliert und mit Informatik und Mathematik analysiert werden. So wie die Grundeinheit der klassischen Information das Bit ist, handelt es sich bei der Quanteninformation um Qubits, die in Überlagerung von 0 und 1 existieren können (was gleichzeitig etwas wahr und falsch ist). Quanteninformationen können auch in sogenannten verschränkten Zuständen vorliegen, die in ihren Messungen rein nicht-klassische nicht-lokale Korrelationen aufweisen und Anwendungen wie die Quantenteleportation ermöglichen. Der Grad der Verschränkung kann mit der Von-Neumann-Entropie gemessen werden, die auch ein Maß für die Quanteninformation ist. In letzter Zeit hat sich das Gebiet des Quantencomputings zu einem sehr aktiven Forschungsgebiet entwickelt, da die Möglichkeit besteht, moderne Berechnungen, Kommunikation und Kryptographie zu stören.
Die Geschichte der Quanteninformation begann um die Jahrhundertwende, als die klassische Physik zur Quantenphysik revolutioniert wurde. Die Theorien der klassischen Physik sagten Absurditäten wie die ultraviolette Katastrophe oder die Spirale von Elektronen in den Kern voraus. Zunächst wurden diese Probleme beiseite gewischt, indem Ad-hoc-Hypothesen zur klassischen Physik hinzugefügt wurden. Bald wurde klar, dass eine neue Theorie geschaffen werden musste, um diese Absurditäten zu verstehen, und die Theorie der Quantenmechanik war geboren.
Die Quantenmechanik wurde von Schrödinger mit der Wellenmechanik und von Heisenberg mit der Matrixmechanik formuliert. Die Gleichwertigkeit dieser Methoden wurde später bewiesen. Ihre Formulierungen beschrieben die Dynamik mikroskopischer Systeme, hatten jedoch einige unbefriedigende Aspekte bei der Beschreibung von Messprozessen. Von Neumann formulierte die Quantentheorie mithilfe der Operatoralgebra so, dass sie sowohl die Messung als auch die Dynamik beschrieb. Diese Studien betonten eher die philosophischen Aspekte der Messung als einen quantitativen Ansatz zur Extraktion von Informationen durch Messungen.
In den 1960er Jahren schlugen Stratonovich, Helstrom und Gordon eine Formulierung der optischen Kommunikation unter Verwendung der Quantenmechanik vor. Dies war das erste historische Erscheinen der Quanteninformationstheorie. Sie untersuchten hauptsächlich Fehlerwahrscheinlichkeiten und Kanalkapazitäten für die Kommunikation. Später erreichte Holevo eine obere Grenze der Kommunikationsgeschwindigkeit bei der Übertragung einer klassischen Nachricht über einen Quantenkanal.
In den 1970er Jahren wurden Techniken zur Manipulation von Einzelatom-Quantenzuständen entwickelt, wie die Atomfalle und das Rastertunnelmikroskop, die es ermöglichen, einzelne Atome zu isolieren und in Arrays anzuordnen. Vor diesen Entwicklungen war eine genaue Kontrolle über einzelne Quantensysteme nicht möglich, und Experimente nutzten eine gröbere, gleichzeitige Kontrolle über eine große Anzahl von Quantensystemen. Die Entwicklung praktikabler Single-State-Manipulationstechniken führte zu einem verstärkten Interesse im Bereich der Quanteninformation und -berechnung.
In den 1980er Jahren kam das Interesse auf, ob es möglich sein könnte, Einsteins Relativitätstheorie mithilfe von Quanteneffekten zu widerlegen. Wenn es möglich wäre, einen unbekannten Quantenzustand zu klonen, wäre es möglich, verschränkte Quantenzustände zu verwenden, um Informationen schneller als Lichtgeschwindigkeit zu übertragen, was Einsteins Theorie widerlegt. Das No-Cloning-Theorem zeigte jedoch, dass ein solches Klonen unmöglich ist. Das Theorem war eines der frühesten Ergebnisse der Quanteninformationstheorie.
Entwicklung aus der Kryptographie
Trotz aller Aufregung und des Interesses, isolierte Quantensysteme zu studieren und einen Weg zu finden, die Relativitätstheorie zu umgehen, stagnierte die Forschung auf dem Gebiet der Quanteninformationstheorie in den 1980er Jahren. Ungefähr zur gleichen Zeit begann jedoch ein anderer Weg, sich mit Quanteninformationen und Berechnungen zu beschäftigen: Kryptographie. Im Allgemeinen ist Kryptographie das Problem der Kommunikation oder Berechnung, an dem zwei oder mehr Parteien beteiligt sind, die einander möglicherweise nicht vertrauen.
Bennett und Brassard haben einen Kommunikationskanal entwickelt, bei dem es unmöglich ist, unbemerkt abzuhören, eine Möglichkeit, heimlich über große Entfernungen mit dem quantenkryptografischen Protokoll BB84 zu kommunizieren. Die Schlüsselidee war die Verwendung des Grundprinzips der Quantenmechanik, dass Beobachtung das Beobachtete stört, und die Einführung eines Lauschers in eine sichere Kommunikationsleitung wird die beiden Parteien, die versuchen zu kommunizieren, sofort über die Anwesenheit des Lauschers informieren.
Entwicklung aus Informatik und Mathematik
Mit dem Aufkommen von Alan Turings revolutionären Ideen eines programmierbaren Computers oder einer Turing-Maschine zeigte er, dass jede reale Berechnung in eine äquivalente Berechnung mit einer Turing-Maschine übersetzt werden kann. Dies ist als Church-Turing-These bekannt.
Schon bald wurden die ersten Computer hergestellt und die Computerhardware wuchs so schnell, dass das Wachstum durch Erfahrung in der Produktion in einer empirischen Beziehung namens Moores Gesetz kodifiziert wurde. Dieses „Gesetz“ ist ein projektiver Trend, der besagt, dass sich die Anzahl der Transistoren in einem integrierten Schaltkreis alle zwei Jahre verdoppelt. Als Transistoren immer kleiner wurden, um mehr Leistung pro Oberfläche zu packen, traten in der Elektronik Quanteneffekte auf, die zu unbeabsichtigten Interferenzen führten. Dies führte zum Aufkommen des Quantencomputings, das die Quantenmechanik nutzte, um Algorithmen zu entwickeln.
An diesem Punkt zeigten Quantencomputer das Versprechen, bei bestimmten spezifischen Problemen viel schneller zu sein als klassische Computer. Ein solches Beispielproblem wurde von David Deutsch und Richard Jozsa entwickelt, bekannt als Deutsch-Jozsa-Algorithmus. Dieses Problem hatte jedoch wenig bis keine praktische Anwendung. 1994 stellte Peter Shor ein sehr wichtiges und praktisches Problem, nämlich die Primfaktoren einer ganzen Zahl zu finden. Das Diskrete-Logarithmus-Problem, wie es genannt wurde, konnte auf einem Quantencomputer effizient gelöst werden, aber nicht auf einem klassischen Computer, was zeigt, dass Quantencomputer leistungsfähiger sind als Turing-Maschinen.
Entwicklung aus der Informationstheorie
Etwa zu der Zeit machte die Informatik eine Revolution, ebenso die Informationstheorie und die Kommunikation durch Claude Shannon. Shannon hat zwei grundlegende Theoreme der Informationstheorie entwickelt: das Noiseless Channel Coding Theorem und das Noisy Channel Coding Theorem. Er zeigte auch, dass Fehlerkorrekturcodes verwendet werden können, um die gesendeten Informationen zu schützen.
Auch die Quanteninformationstheorie verfolgte einen ähnlichen Weg, Ben Schumacher machte 1995 mit Hilfe des Qubits ein Analogon zu Shannons geräuschlosem Codierungstheorem. Außerdem wurde eine Theorie der Fehlerkorrektur entwickelt, die es Quantencomputern ermöglicht, unabhängig von Rauschen effiziente Berechnungen durchzuführen und eine zuverlässige Kommunikation über verrauschte Quantenkanäle zu ermöglichen.
Qubits und Informationstheorie
Quanteninformationen unterscheiden sich in vielerlei auffälligen und ungewohnten Weisen stark von klassischen Informationen, die durch das Bit verkörpert werden. Während die grundlegende Einheit der klassischen Information das Bit ist, ist die grundlegendste Einheit der Quanteninformation das Qubit. Klassische Informationen werden mit der Shannon-Entropie gemessen, während das quantenmechanische Analogon die Von-Neumann-Entropie ist. Ein statistisches Ensemble quantenmechanischer Systeme wird durch die Dichtematrix charakterisiert. Viele Entropiemaße der klassischen Informationstheorie lassen sich auch auf den Quantenfall verallgemeinern, wie die Holevo-Entropie und die bedingte Quantenentropie.
Im Gegensatz zu klassischen digitalen Zuständen (die diskret sind) hat ein Qubit einen stetigen Wert, der durch eine Richtung auf der Bloch-Kugel beschrieben werden kann. Trotz dieser kontinuierlichen Bewertung ist ein Qubit die kleinstmögliche Einheit der Quanteninformation, und obwohl der Qubit-Zustand kontinuierlich bewertet ist, ist es unmöglich, den Wert genau zu messen. Fünf berühmte Theoreme beschreiben die Grenzen der Manipulation von Quanteninformationen:
- Theorem ohne Teleportation, der besagt, dass ein Qubit nicht (ganz) in klassische Bits umgewandelt werden kann; das heißt, es kann nicht vollständig „gelesen“ werden.
- No-Cloning-Theorem, das verhindert, dass ein beliebiges Qubit kopiert wird,
- No-Deleting-Theorem, das verhindert, dass ein beliebiges Qubit gelöscht wird,
- No-Broadcasting-Theorem, das verhindert, dass ein beliebiges Qubit an mehrere Empfänger geliefert wird, obwohl es von Ort zu Ort transportiert werden kann (zB über Quantenteleportation),
- No-Hiding-Theorem, das die Erhaltung von Quanteninformation demonstriert,Diese Theoreme beweisen, dass Quanteninformation im Universum erhalten bleibt und sie eröffnen einzigartige Möglichkeiten in der Quanteninformationsverarbeitung.
Quanteninformationsverarbeitung
Der Zustand eines Qubits enthält alle seine Informationen. Dieser Zustand wird häufig als Vektor auf der Bloch-Kugel ausgedrückt. Dieser Zustand kann durch Anwendung linearer Transformationen oder Quantengatter geändert werden. Diese einheitlichen Transformationen werden als Rotationen auf der Bloch-Kugel bezeichnet. Während klassische Gatter den bekannten Operationen der Booleschen Logik entsprechen, sind Quantengatter physikalische unitäre Operatoren.
Aufgrund der Flüchtigkeit von Quantensystemen und der Unmöglichkeit, Zustände zu kopieren, ist die Speicherung von Quanteninformationen viel schwieriger als die Speicherung klassischer Informationen. Trotzdem können mit der Quantenfehlerkorrektur Quanteninformationen im Prinzip immer noch zuverlässig gespeichert werden. Die Existenz von Quantenfehlerkorrekturcodes hat auch zur Möglichkeit einer fehlertoleranten Quantenberechnung geführt.
Klassische Bits können mithilfe von Quantengattern in Konfigurationen von Qubits kodiert und anschließend daraus wiedergewonnen werden. Ein einzelnes Qubit allein kann nicht mehr als ein Bit zugänglicher klassischer Informationen über seine Herstellung vermitteln. Dies ist der Satz von Holevo. Bei der superdichten Codierung kann ein Sender jedoch, indem er auf eines von zwei verschränkten Qubits einwirkt, zwei Bits zugänglicher Informationen über ihren gemeinsamen Zustand an einen Empfänger übermitteln.
Quanteninformationen können in einem Quantenkanal analog zum Konzept eines klassischen Kommunikationskanals bewegt werden. Quantennachrichten haben eine endliche Größe, gemessen in Qubits; Quantenkanäle haben eine endliche Kanalkapazität, gemessen in Qubits pro Sekunde.
Quanteninformation und Veränderungen der Quanteninformation können quantitativ gemessen werden, indem man ein Analogon der Shannon-Entropie, die sogenannte von-Neumann-Entropie, verwendet.
In einigen Fällen können Quantenalgorithmen verwendet werden, um Berechnungen schneller durchzuführen als mit jedem bekannten klassischen Algorithmus. Das bekannteste Beispiel dafür ist der Shor-Algorithmus, der Zahlen in polynomieller Zeit faktorisieren kann, im Vergleich zu den besten klassischen Algorithmen, die subexponentielle Zeit benötigen. Da die Faktorisierung ein wichtiger Teil der Sicherheit der RSA-Verschlüsselung ist, hat Shors Algorithmus das neue Feld der Post-Quanten-Kryptographie eröffnet, das versucht, Verschlüsselungsschemata zu finden, die auch dann sicher bleiben, wenn Quantencomputer im Einsatz sind. Andere Beispiele für Algorithmen, die die Quantenüberlegenheit demonstrieren, umfassen den Suchalgorithmus von Grover, bei dem der Quantenalgorithmus eine quadratische Beschleunigung gegenüber dem bestmöglichen klassischen Algorithmus bietet. Die Komplexitätsklasse von Problemen, die von einem Quantencomputer effizient lösbar sind, wird als BQP bezeichnet.
Die Quantenschlüsselverteilung (QKD) ermöglicht eine bedingungslos sichere Übertragung klassischer Informationen, im Gegensatz zur klassischen Verschlüsselung, die prinzipiell immer, wenn nicht praktisch gebrochen werden kann. Beachten Sie, dass bestimmte subtile Punkte in Bezug auf die Sicherheit von QKD immer noch heiß diskutiert werden.
Das Studium aller oben genannten Themen und Unterschiede umfasst die Quanteninformationstheorie.
Bezug zur Quantenmechanik
Quantenmechanik ist die Untersuchung, wie sich mikroskopische physikalische Systeme in der Natur dynamisch verändern. Auf dem Gebiet der Quanteninformationstheorie werden die untersuchten Quantensysteme von jedem realen Gegenstück abstrahiert. Ein Qubit könnte zum Beispiel physikalisch ein Photon in einem linearen optischen Quantencomputer sein, ein Ion in einem Quantencomputer mit gefangenen Ionen oder es könnte eine große Ansammlung von Atomen wie in einem supraleitenden Quantencomputer sein. Unabhängig von der physikalischen Implementierung gelten die Grenzen und Eigenschaften von Qubits, die von der Quanteninformationstheorie impliziert werden, da alle diese Systeme mathematisch durch dieselbe Vorrichtung von Dichtematrizen über den komplexen Zahlen beschrieben werden. Ein weiterer wichtiger Unterschied zur Quantenmechanik besteht darin, dass, während die Quantenmechanik oft unendlichdimensionale Systeme wie einen harmonischen Oszillator untersucht, sich die Quanteninformationstheorie sowohl auf kontinuierlich veränderliche Systeme als auch auf endlichdimensionale Systeme bezieht.
Quantenberechnung
Quantencomputing ist eine Art von Berechnung, die die kollektiven Eigenschaften von Quantenzuständen wie Superposition, Interferenz und Verschränkung nutzt, um Berechnungen durchzuführen. Die Geräte, die Quantenberechnungen durchführen, werden als Quantencomputer bezeichnet.: I-5 Obwohl aktuelle Quantencomputer zu klein sind, um herkömmliche (klassische) Computer für praktische Anwendungen zu übertreffen, wird angenommen, dass sie in der Lage sind, bestimmte Rechenprobleme zu lösen, wie z (der RSA-Verschlüsselung zugrunde liegt), wesentlich schneller als klassische Computer. Das Studium des Quantencomputings ist ein Teilgebiet der Quanteninformationswissenschaft.
Quantencomputing begann 1980, als der Physiker Paul Benioff ein quantenmechanisches Modell der Turing-Maschine vorschlug. Richard Feynman und Yuri Manin schlugen später vor, dass ein Quantencomputer das Potenzial habe, Dinge zu simulieren, die ein klassischer Computer nicht tun könnte. 1994 entwickelte Peter Shor einen Quantenalgorithmus zum Faktorisieren von ganzen Zahlen mit dem Potenzial, RSA-verschlüsselte Kommunikation zu entschlüsseln. 1998 entwickelten Isaac Chuang, Neil Gershenfeld und Mark Kubinec den ersten Zwei-Qubit-Quantencomputer, der Berechnungen durchführen konnte. Trotz anhaltender experimenteller Fortschritte seit Ende der 1990er Jahre glauben die meisten Forscher, dass „fehlertolerantes Quantencomputing noch ein ziemlich ferner Traum ist“. In den letzten Jahren sind die Investitionen in die Quantencomputing-Forschung im öffentlichen und privaten Sektor gestiegen. Am 23. Oktober 2019 behauptete Google AI in Zusammenarbeit mit der US-amerikanischen National Aeronautics and Space Administration (NASA), eine Quantenberechnung durchgeführt zu haben, die auf keinem klassischen Computer durchführbar war, aber ob diese Behauptung gültig war oder noch gültig ist, ist ein Thema von aktive Forschung.
Es gibt verschiedene Arten von Quantencomputern (auch bekannt als Quantencomputersysteme), einschließlich des Quantenschaltungsmodells, der Quanten-Turing-Maschine, des adiabatischen Quantencomputers, des Einweg-Quantencomputers und verschiedener zellulärer Quantenautomaten. Das am weitesten verbreitete Modell ist der Quantenschaltkreis, der auf dem Quantenbit oder „Qubit“ basiert, das dem Bit in der klassischen Berechnung ähnlich ist. Ein Qubit kann sich in einem 1- oder 0-Quantenzustand oder in einer Überlagerung der 1- und 0-Zustände befinden. Bei der Messung ist es jedoch immer 0 oder 1; die Wahrscheinlichkeit eines der beiden Ergebnisse hängt vom Quantenzustand des Qubits unmittelbar vor der Messung ab.
Die Bemühungen zum Bau eines physikalischen Quantencomputers konzentrieren sich auf Technologien wie Transmons, Ionenfallen und topologische Quantencomputer, die darauf abzielen, qualitativ hochwertige Qubits zu erzeugen.: 2–13 Diese Qubits können je nach Rechenmodell des vollständigen Quantencomputers unterschiedlich gestaltet sein. ob Quantenlogikgatter, Quantenausheilung oder adiabatische Quantenberechnung. Derzeit gibt es eine Reihe erheblicher Hindernisse für den Bau nützlicher Quantencomputer. Es ist besonders schwierig, die Quantenzustände von Qubits aufrechtzuerhalten, da sie unter Quantendekohärenz und Zustandstreue leiden. Quantencomputer benötigen daher eine Fehlerkorrektur.
Jedes Rechenproblem, das von einem klassischen Computer gelöst werden kann, kann auch von einem Quantencomputer gelöst werden. Umgekehrt kann jedes Problem, das von einem Quantencomputer gelöst werden kann, auch von einem klassischen Computer gelöst werden, zumindest im Prinzip mit genügend Zeit. Mit anderen Worten, Quantencomputer gehorchen der Church-Turing-These. Dies bedeutet, dass Quantencomputer zwar keine zusätzlichen Vorteile gegenüber klassischen Computern in Bezug auf die Berechenbarkeit bieten, Quantenalgorithmen für bestimmte Probleme jedoch deutlich geringere Zeitkomplexitäten aufweisen als entsprechende bekannte klassische Algorithmen. Insbesondere wird angenommen, dass Quantencomputer in der Lage sind, bestimmte Probleme schnell zu lösen, die kein klassischer Computer in machbarer Zeit lösen könnte – eine Leistung, die als „Quantenüberlegenheit“ bekannt ist. Die Untersuchung der Rechenkomplexität von Problemen in Bezug auf Quantencomputer ist als Quantenkomplexitätstheorie bekannt.
Das vorherrschende Modell der Quantenberechnung beschreibt die Berechnung in Form eines Netzwerks von Quantenlogikgattern. Dieses Modell kann man sich als abstrakte linear-algebraische Verallgemeinerung einer klassischen Schaltung vorstellen. Da dieses Schaltungsmodell der Quantenmechanik gehorcht, wird angenommen, dass ein Quantencomputer, der diese Schaltungen effizient betreiben kann, physikalisch realisierbar ist.
Ein aus n Informationsbits bestehender Speicher hat 2^n mögliche Zustände. Ein Vektor, der alle Speicherzustände repräsentiert, hat somit 2^n Einträge (einen für jeden Zustand). Dieser Vektor wird als Wahrscheinlichkeitsvektor angesehen und repräsentiert die Tatsache, dass sich der Speicher in einem bestimmten Zustand befindet.
In der klassischen Ansicht hätte ein Eintrag den Wert 1 (dh eine 100-prozentige Wahrscheinlichkeit, sich in diesem Zustand zu befinden) und alle anderen Einträge wären null.
In der Quantenmechanik können Wahrscheinlichkeitsvektoren auf Dichteoperatoren verallgemeinert werden. Der Quantenzustandsvektorformalismus wird normalerweise zuerst eingeführt, weil er konzeptionell einfacher ist und weil er anstelle des Dichtematrixformalismus für reine Zustände verwendet werden kann, bei denen das gesamte Quantensystem bekannt ist.
eine Quantenberechnung kann als ein Netzwerk von quantenlogischen Gattern und Messungen beschrieben werden. Jede Messung kann jedoch bis zum Ende der Quantenberechnung verschoben werden, obwohl diese Verschiebung mit Rechenkosten verbunden sein kann, sodass die meisten Quantenschaltungen ein Netzwerk darstellen, das nur aus Quantenlogikgattern und keinen Messungen besteht.
Jede Quantenberechnung (die im obigen Formalismus jede unitäre Matrix über n Qubits ist) kann als ein Netzwerk von Quantenlogikgattern aus einer ziemlich kleinen Familie von Gattern dargestellt werden. Eine Auswahl an Gate-Familien, die diese Konstruktion ermöglicht, wird als universeller Gate-Satz bezeichnet, da ein Computer, der solche Schaltungen ausführen kann, ein universeller Quantencomputer ist. Ein gemeinsamer Satz umfasst alle Single-Qubit-Gates sowie das CNOT-Gate von oben. Dies bedeutet, dass jede Quantenberechnung durchgeführt werden kann, indem eine Sequenz von Single-Qubit-Gates zusammen mit CNOT-Gates ausgeführt wird. Obwohl diese Gattermenge unendlich ist, kann sie durch eine endliche Gattermenge ersetzt werden, indem man auf den Satz von Solovay-Kitaev zurückgreift.
Quantenalgorithmen
Der Fortschritt bei der Suche nach Quantenalgorithmen konzentriert sich normalerweise auf dieses Quantenschaltungsmodell, obwohl es Ausnahmen wie den quantenadiabatischen Algorithmus gibt. Quantenalgorithmen können grob nach der Art der Beschleunigung kategorisiert werden, die gegenüber entsprechenden klassischen Algorithmen erreicht wird.
Quantenalgorithmen, die mehr als eine polynomielle Beschleunigung gegenüber dem bekanntesten klassischen Algorithmus bieten, umfassen den Shor-Algorithmus zum Faktorisieren und die verwandten Quantenalgorithmen zum Berechnen diskreter Logarithmen, zum Lösen der Pell-Gleichung und allgemeiner zum Lösen des versteckten Untergruppenproblems für abelsche endliche Gruppen. Diese Algorithmen hängen vom Grundelement der Quanten-Fourier-Transformation ab. Es wurde kein mathematischer Beweis gefunden, der zeigt, dass ein ebenso schneller klassischer Algorithmus nicht entdeckt werden kann, obwohl dies als unwahrscheinlich gilt befindet sich im Quantenabfragemodell, bei dem es sich um ein eingeschränktes Modell handelt, bei dem untere Schranken viel einfacher zu beweisen sind und nicht unbedingt zu einer Beschleunigung für praktische Probleme führen.
Andere Probleme, darunter die Simulation quantenphysikalischer Prozesse aus der Chemie und Festkörperphysik, die Approximation bestimmter Jones-Polynome und der Quantenalgorithmus für lineare Gleichungssysteme, haben Quantenalgorithmen scheinbar superpolynomische Beschleunigungen und sind BQP-vollständig. Da diese Probleme BQP-vollständig sind, würde ein ebenso schneller klassischer Algorithmus für sie implizieren, dass kein Quantenalgorithmus eine superpolynomielle Beschleunigung liefert, was als unwahrscheinlich erachtet wird.
Einige Quantenalgorithmen, wie der Grover-Algorithmus und die Amplitudenverstärkung, liefern polynomielle Beschleunigungen gegenüber entsprechenden klassischen Algorithmen. Obwohl diese Algorithmen eine vergleichsweise bescheidene quadratische Beschleunigung ergeben, sind sie weit verbreitet und bieten daher Beschleunigungen für eine Vielzahl von Problemen. Viele Beispiele für nachweisbare Quantenbeschleunigungen für Abfrageprobleme beziehen sich auf Grovers Algorithmus, darunter den Algorithmus von Brassard, Høyer und Tapp zum Auffinden von Kollisionen in Zwei-zu-Eins-Funktionen, der den Algorithmus von Grover verwendet, und den Algorithmus von Farhi, Goldstone und Gutmann zur Bewertung von NAND Bäume, die eine Variante des Suchproblems ist.
Kryptografische Anwendungen
Eine bemerkenswerte Anwendung der Quantenberechnung sind Angriffe auf derzeit verwendete kryptografische Systeme. Es wird angenommen, dass die Faktorisierung ganzer Zahlen, die die Sicherheit von kryptografischen Systemen mit öffentlichem Schlüssel untermauert, mit einem gewöhnlichen Computer für große ganze Zahlen rechnerisch nicht durchführbar ist, wenn sie das Produkt von wenigen Primzahlen (zB Produkte von zwei 300-stelligen Primzahlen) sind. Im Vergleich dazu könnte ein Quantencomputer dieses Problem effizient lösen, indem er den Algorithmus von Shor verwendet, um seine Faktoren zu finden. Diese Fähigkeit würde es einem Quantencomputer ermöglichen, viele der heute verwendeten kryptografischen Systeme in dem Sinne zu zerstören, dass es einen polynomiellen Zeitalgorithmus (in der Anzahl der Stellen der ganzen Zahl) zur Lösung des Problems geben würde. Insbesondere basieren die meisten der populären Verschlüsselungen mit öffentlichen Schlüsseln auf der Schwierigkeit, ganze Zahlen zu faktorisieren, oder auf dem Problem des diskreten Logarithmus, die beide durch den Shor-Algorithmus gelöst werden können. Insbesondere könnten die RSA-, Diffie-Hellman- und elliptischen Diffie-Hellman-Algorithmen durchbrochen werden. Diese werden verwendet, um sichere Webseiten, verschlüsselte E-Mails und viele andere Arten von Daten zu schützen. Diese zu durchbrechen hätte erhebliche Auswirkungen auf die elektronische Privatsphäre und Sicherheit.
Die Identifizierung kryptografischer Systeme, die möglicherweise gegen Quantenalgorithmen sicher sind, ist ein aktiv erforschtes Thema im Bereich der Post-Quanten-Kryptografie. Einige Algorithmen mit öffentlichem Schlüssel basieren auf anderen Problemen als der ganzzahligen Faktorisierung und diskreten Logarithmus-Problemen, auf die der Algorithmus von Shor angewendet wird, wie das McEliece-Kryptosystem, das auf einem Problem der Codierungstheorie basiert. Es ist auch nicht bekannt, dass gitterbasierte Kryptosysteme von Quantencomputern gebrochen werden, und es ist ein gut untersuchtes offenes Problem, einen Polynomialzeitalgorithmus zur Lösung des Diederproblems mit versteckten Untergruppen zu finden, das viele gitterbasierte Kryptosysteme brechen würde. Es wurde bewiesen, dass die Anwendung des Grover-Algorithmus zum Brechen eines symmetrischen Algorithmus (geheimer Schlüssel) durch Brute-Force eine Zeit benötigt, die ungefähr 2n/2 Aufrufen des zugrunde liegenden kryptografischen Algorithmus entspricht, verglichen mit ungefähr 2n im klassischen Fall, was bedeutet, dass symmetrische Schlüssellängen effektiv halbiert: AES-256 hätte dieselbe Sicherheit gegen einen Angriff mit dem Grover-Algorithmus wie AES-128 gegen die klassische Brute-Force-Suche (siehe Schlüsselgröße).
Die Quantenkryptographie könnte möglicherweise einige der Funktionen der Public-Key-Kryptographie erfüllen. Quantenbasierte kryptografische Systeme könnten daher sicherer gegen Quantenhacking sein als herkömmliche Systeme.
Suchprobleme
Das bekannteste Beispiel für ein Problem, das eine polynomielle Quantenbeschleunigung zulässt, ist die unstrukturierte Suche, bei der ein markiertes Element aus einer Liste von n Elementen in einer Datenbank gefunden wird. Dies kann durch den Grover-Algorithmus gelöst werden, der O(sqrt(n))-Abfragen an die Datenbank verwendet, quadratisch weniger als die Omega(n)-Abfragen, die für klassische Algorithmen erforderlich sind. In diesem Fall ist der Vorteil nicht nur beweisbar, sondern auch optimal: Es hat sich gezeigt, dass der Grover-Algorithmus die maximal mögliche Wahrscheinlichkeit angibt, das gewünschte Element für beliebig viele Orakelsuchen zu finden.
Probleme, die mit dem Grover-Algorithmus angegangen werden können, haben die folgenden Eigenschaften:
- Es gibt keine durchsuchbare Struktur in der Sammlung möglicher Antworten,
- Die Anzahl der zu prüfenden möglichen Antworten entspricht der Anzahl der Eingaben in den Algorithmus, und
- Es gibt eine boolesche Funktion, die jede Eingabe auswertet und bestimmt, ob es die richtige Antwort ist
Bei Problemen mit all diesen Eigenschaften skaliert die Laufzeit von Grovers Algorithmus auf einem Quantencomputer im Gegensatz zur linearen Skalierung klassischer Algorithmen als Quadratwurzel der Anzahl der Eingaben (oder Elemente in der Datenbank). Eine allgemeine Klasse von Problemen, auf die der Grover-Algorithmus angewendet werden kann, ist das Boolesche Erfüllbarkeitsproblem, bei dem die Datenbank, durch die der Algorithmus iteriert, die aller möglichen Antworten ist. Ein Beispiel und (mögliche) Anwendung hierfür ist ein Passwort-Cracker, der versucht, ein Passwort zu erraten. Symmetrische Verschlüsselungen wie Triple DES und AES sind für diese Art von Angriffen besonders anfällig.
Simulation von Quantensystemen
Da Chemie und Nanotechnologie auf das Verständnis von Quantensystemen angewiesen sind und solche Systeme klassisch nicht effizient simuliert werden können, glauben viele, dass die Quantensimulation eine der wichtigsten Anwendungen des Quantencomputings sein wird. Die Quantensimulation könnte auch verwendet werden, um das Verhalten von Atomen und Teilchen unter ungewöhnlichen Bedingungen wie den Reaktionen in einem Collider zu simulieren. Quantensimulationen könnten verwendet werden, um zukünftige Bahnen von Partikeln und Protonen unter Überlagerung im Doppelspaltexperiment vorherzusagen. Etwa 2% des jährlichen globalen Energieoutputs werden für die Stickstofffixierung verwendet, um Ammoniak für den Haber-Prozess in der Landwirtschaft zu produzieren Düngemittelindustrie, während natürlich vorkommende Organismen auch Ammoniak produzieren. Quantensimulationen könnten verwendet werden, um diesen Prozess zu verstehen, der die Produktion erhöht.
Quantum Annealing und adiabatische Optimierung
Quantum Annealing oder adiabatische Quantenberechnung beruht auf dem adiabatischen Theorem, um Berechnungen durchzuführen. Ein System wird in den Grundzustand für einen einfachen Hamilton-Operator versetzt, der sich langsam zu einem komplizierteren Hamilton-Operator entwickelt, dessen Grundzustand die Lösung des fraglichen Problems darstellt. Das adiabatische Theorem besagt, dass das System, wenn die Evolution langsam genug ist, während des gesamten Prozesses in seinem Grundzustand bleibt.
Maschinelles Lernen
Da Quantencomputer Ausgaben erzeugen können, die klassische Computer nicht effizient produzieren können, und da Quantencomputer im Wesentlichen linear algebraisch sind, äußern einige die Hoffnung, Quantenalgorithmen zu entwickeln, die Aufgaben des maschinellen Lernens beschleunigen können. So soll beispielsweise der Quantenalgorithmus für lineare Gleichungssysteme oder „HHL-Algorithmus“, benannt nach seinen Entdeckern Harrow, Hassidim und Lloyd, gegenüber klassischen Gegenstücken Beschleunigung bieten. Einige Forschungsgruppen haben kürzlich den Einsatz von Quanten-Annealing-Hardware zum Trainieren von Boltzmann-Maschinen und tiefen neuronalen Netzen untersucht.
Computational Biology
Im Bereich der Computerbiologie hat Quantencomputing eine große Rolle bei der Lösung vieler biologischer Probleme gespielt. Ein bekanntes Beispiel wäre die Computergenomik und wie Computer die Zeit für die Sequenzierung eines menschlichen Genoms drastisch verkürzt haben. Angesichts der Art und Weise, wie die Computerbiologie generische Datenmodellierung und -speicherung verwendet, wird erwartet, dass auch ihre Anwendungen auf die Computerbiologie entstehen.
Computergestütztes Wirkstoffdesign und generative Chemie
Modelle der tiefgreifenden generativen Chemie stellen sich als leistungsstarke Werkzeuge heraus, um die Wirkstoffforschung zu beschleunigen. Die immense Größe und Komplexität des Strukturraums aller möglichen wirkstoffähnlichen Moleküle stellen jedoch erhebliche Hindernisse dar, die in Zukunft von Quantencomputern überwunden werden könnten. Quantencomputer eignen sich von Natur aus gut zum Lösen komplexer Quanten-Vielteilchenprobleme und können daher bei Anwendungen der Quantenchemie hilfreich sein. Daher ist zu erwarten, dass quantenverstärkte generative Modelle, einschließlich Quanten-GANs, schließlich zu ultimativen generativen Chemiealgorithmen weiterentwickelt werden können. Hybridarchitekturen, die Quantencomputer mit tiefen klassischen Netzwerken kombinieren, wie beispielsweise Quantum Variational Autoencoders, können bereits auf kommerziell erhältlichen Annealern trainiert und verwendet werden, um neue arzneimittelähnliche molekulare Strukturen zu generieren.
Entwicklung von physikalischen Quantencomputern
Die Herausforderungen
Beim Bau eines großen Quantencomputers gibt es eine Reihe von technischen Herausforderungen. Der Physiker David DiVincenzo hat diese Anforderungen an einen praktischen Quantencomputer aufgelistet:
- Physikalisch skalierbar, um die Anzahl der Qubits zu erhöhen,
- Qubits, die auf beliebige Werte initialisiert werden können,
- Quantentore, die schneller sind als die Dekohärenzzeit,
- Universelles Torset,
- Leicht lesbare Qubits.
Auch die Beschaffung von Teilen für Quantencomputer ist sehr schwierig. Viele Quantencomputer, wie die von Google und IBM konstruierten, benötigen Helium-3, ein Nebenprodukt der Kernforschung, und spezielle supraleitende Kabel, die nur von der japanischen Firma Coax Co. hergestellt werden.
Die Steuerung von Multi-Qubit-Systemen erfordert die Erzeugung und Koordination einer großen Anzahl elektrischer Signale mit enger und deterministischer zeitlicher Auflösung. Dies hat zur Entwicklung von Quantencontrollern geführt, die eine Schnittstelle zu den Qubits ermöglichen. Diese Systeme zu skalieren, um eine wachsende Zahl von Qubits zu unterstützen, ist eine zusätzliche Herausforderung.
Quantendekohärenz
Eine der größten Herausforderungen beim Bau von Quantencomputern ist die Kontrolle oder Beseitigung der Quantendekohärenz. Dies bedeutet normalerweise, das System von seiner Umgebung zu isolieren, da Interaktionen mit der Außenwelt das System zur Dekohärenz führen. Es gibt jedoch auch andere Quellen der Dekohärenz. Beispiele sind die Quantengatter und die Gitterschwingungen und der thermonukleare Hintergrundspin des physikalischen Systems, das verwendet wird, um die Qubits zu implementieren. Dekohärenz ist irreversibel, da sie effektiv nicht einheitlich ist und normalerweise stark kontrolliert, wenn nicht vermieden werden sollte. Insbesondere die Dekohärenzzeiten für Kandidatensysteme, die transversale Relaxationszeit T2 (für die NMR- und MRI-Technologie auch Dephasierungszeit genannt), liegen bei niedriger Temperatur typischerweise zwischen Nanosekunden und Sekunden. Derzeit erfordern einige Quantencomputer, dass ihre Qubits auf 20 Millikelvin gekühlt werden (normalerweise mit einem Verdünnungskühlschrank), um eine signifikante Dekohärenz zu verhindern. Eine Studie aus dem Jahr 2020 argumentiert, dass ionisierende Strahlung wie die kosmische Strahlung dennoch dazu führen kann, dass bestimmte Systeme innerhalb von Millisekunden entkohären.
Infolgedessen können zeitaufwändige Aufgaben einige Quantenalgorithmen funktionsunfähig machen, da das Aufrechterhalten des Zustands von Qubits über einen ausreichend langen Zeitraum die Überlagerungen schließlich verfälscht.
Diese Probleme sind für optische Ansätze schwieriger, da die Zeitskalen um Größenordnungen kürzer sind und ein oft zitierter Ansatz zu ihrer Überwindung die optische Pulsformung ist. Fehlerraten sind typischerweise proportional zum Verhältnis von Betriebszeit zu Dekohärenzzeit, daher muss jede Operation viel schneller als die Dekohärenzzeit abgeschlossen werden.
Wenn die Fehlerrate klein genug ist, wird, wie im Quantenschwellenwertsatz beschrieben, angenommen, dass es möglich ist, eine Quantenfehlerkorrektur zu verwenden, um Fehler und Dekohärenz zu unterdrücken. Dies ermöglicht, dass die Gesamtberechnungszeit länger ist als die Dekohärenzzeit, wenn das Fehlerkorrekturschema Fehler schneller korrigieren kann, als die Dekohärenz sie einführt. Ein oft zitierter Wert für die erforderliche Fehlerrate in jedem Gatter für fehlertolerante Berechnungen ist 10–3, vorausgesetzt, das Rauschen ist depolarisierend.
Die Erfüllung dieser Skalierbarkeitsbedingung ist für eine Vielzahl von Systemen möglich. Die Verwendung der Fehlerkorrektur bringt jedoch die Kosten einer stark erhöhten Anzahl von benötigten Qubits mit sich. Die Zahl, die erforderlich ist, um ganze Zahlen unter Verwendung des Shor-Algorithmus zu faktorisieren, ist immer noch polynomiell und wird als zwischen L und L2 angesehen, wobei L die Anzahl der Stellen in der zu faktorisierenden Zahl ist; Fehlerkorrekturalgorithmen würden diese Zahl um einen zusätzlichen Faktor von L aufblähen. Für eine 1000-Bit-Zahl bedeutet dies, dass etwa 104 Bit ohne Fehlerkorrektur benötigt werden. Mit Fehlerkorrektur würde die Zahl auf etwa 107 Bit ansteigen. Die Rechenzeit beträgt etwa L2 oder etwa 107 Schritte und bei 1 MHz etwa 10 Sekunden.
Ein ganz anderer Ansatz für das Stabilitäts-Dekohärenz-Problem besteht darin, einen topologischen Quantencomputer mit Anyons zu schaffen, Quasiteilchen, die als Threads verwendet werden und sich auf die Geflechttheorie verlassen, um stabile Logikgatter zu bilden.
Quantenüberlegenheit
Quantenüberlegenheit ist ein von John Preskill geprägter Begriff, der sich auf die technische Meisterleistung bezieht, zu zeigen, dass ein programmierbares Quantengerät ein Problem lösen kann, das über die Fähigkeiten moderner klassischer Computer hinausgeht. Das Problem muss nicht nützlich sein, daher betrachten einige den Quantenüberlegenheitstest nur als möglichen zukünftigen Maßstab.
Im Oktober 2019 behauptete Google AI Quantum mit Hilfe der NASA als erster, die Quantenüberlegenheit erreicht zu haben, indem sie Berechnungen auf dem Sycamore-Quantencomputer mehr als 3,000,000 Mal schneller durchführte als auf dem Summit, der allgemein als der schnellste der Welt gilt Computer. Diese Behauptung wurde später in Frage gestellt: IBM hat erklärt, dass Summit Samples viel schneller durchführen kann als behauptet, und Forscher haben seitdem bessere Algorithmen für das Sampling-Problem entwickelt, das verwendet wird, um die Quantenüberlegenheit zu beanspruchen, wodurch die Lücke zwischen Sycamore und klassische Supercomputer.
Im Dezember 2020 implementierte eine Gruppe am USTC eine Art Boson-Sampling an 76 Photonen mit einem photonischen Quantencomputer Jiuzhang, um die Quantenüberlegenheit zu demonstrieren. Die Autoren behaupten, dass ein klassischer zeitgenössischer Supercomputer eine Rechenzeit von 600 Millionen Jahren benötigen würde, um die Anzahl von Samples zu erzeugen, die sein Quantenprozessor in 20 Sekunden erzeugen kann. Am 16. November 2021 präsentierte IBM auf dem Quantencomputing-Gipfel einen 127-Qubit-Mikroprozessor namens IBM Eagle.
Physische Implementierungen
Für die physikalische Umsetzung eines Quantencomputers werden viele verschiedene Kandidaten verfolgt, darunter (unterscheidbar durch das physikalische System, mit dem die Qubits realisiert werden):
- Supraleitendes Quantencomputing (Qubit implementiert durch den Zustand kleiner supraleitender Schaltkreise, Josephson-Übergänge)
- Quantencomputer mit gefangenen Ionen (Qubit, das durch den inneren Zustand der gefangenen Ionen implementiert wird)
- Neutrale Atome in optischen Gittern (Qubit implementiert durch interne Zustände neutraler Atome, die in einem optischen Gitter gefangen sind)
- Quantenpunktcomputer, spinbasiert (zB der Loss-DiVincenzo Quantencomputer) (Qubit gegeben durch die Spinzustände der gefangenen Elektronen)
- Quantenpunktcomputer, raumbezogen (Qubit gegeben durch Elektronenposition im Doppelquantenpunkt)
- Quantencomputing mit konstruierten Quantenquellen, die im Prinzip den Bau von Quantencomputern ermöglichen könnten, die bei Raumtemperatur arbeiten
- Gekoppelter Quantendraht (Qubit implementiert durch ein Paar von Quantendrähten, die durch einen Quantenpunktkontakt gekoppelt sind)
- Kernspinresonanz-Quantencomputer (NMRQC) implementiert mit der Kernspinresonanz von Molekülen in Lösung, wobei Qubits durch Kernspins innerhalb des gelösten Moleküls bereitgestellt und mit Radiowellen untersucht werden
- Festkörper-NMR Kane-Quantencomputer (Qubit realisiert durch den Kernspinzustand von Phosphordonatoren in Silizium)
- Elektronen-auf-Helium-Quantencomputer (Qubit ist der Elektronenspin)
- Hohlraumquantenelektrodynamik (CQED) (Qubit, bereitgestellt durch den inneren Zustand von eingefangenen Atomen, die an Hohlräume mit hoher Finesse gekoppelt sind)
- Molekularer Magnet (Qubit durch Spinzustände gegeben)
- Fulleren-basierter ESR-Quantencomputer (Qubit basierend auf dem elektronischen Spin von Atomen oder Molekülen, die in Fullerene eingeschlossen sind)
- Nichtlinearer optischer Quantencomputer (Qubits, die durch die Verarbeitung von Zuständen verschiedener Lichtmodi durch lineare und nichtlineare Elemente realisiert werden)
- Linearer optischer Quantencomputer (Qubits, die durch die Verarbeitung von Zuständen verschiedener Lichtmodi durch lineare Elemente wie Spiegel, Strahlteiler und Phasenschieber realisiert werden)
- Diamantbasierter Quantencomputer (Qubit, realisiert durch den Elektronen- oder Kernspin von Stickstoff-Leerstellenzentren in Diamant)
- Bose-Einstein-Kondensat-basierter Quantencomputer
- Quantencomputer auf Transistorbasis – String-Quantencomputer mit Mitreißen positiver Löcher mithilfe einer elektrostatischen Falle
- Quantencomputer auf der Basis von Seltenerdmetallionen-dotierten anorganischen Kristallen (Qubit, realisiert durch den internen elektronischen Zustand von Dotierstoffen in Glasfasern)
- Quantencomputer auf Basis von metallähnlichen Kohlenstoff-Nanosphären
- Die große Zahl der Kandidaten zeigt, dass Quantencomputing trotz rasanter Fortschritte noch in den Kinderschuhen steckt.
Es gibt eine Reihe von Quantencomputermodellen, die sich durch die Grundelemente unterscheiden, in die die Berechnung zerlegt wird. Für praktische Implementierungen sind die vier relevanten Berechnungsmodelle:
- Quantum Gate Array (Berechnung zerlegt in eine Folge von Quantengattern mit wenigen Qubits)
- Einweg-Quantencomputer (Berechnung zerlegt in eine Folge von Ein-Qubit-Messungen, angewendet auf einen stark verschränkten Anfangszustand oder Clusterzustand)
- Adiabatischer Quantencomputer, basierend auf Quanten-Annealing (Berechnung zerlegt in eine langsame kontinuierliche Transformation eines anfänglichen Hamilton-Operators in einen finalen Hamilton-Operator, dessen Grundzustände die Lösung enthalten)
- Topologischer Quantencomputer (Berechnung zerlegt in das Geflecht von Anyons in einem 2D-Gitter)
Die Quanten-Turing-Maschine ist theoretisch wichtig, aber die physikalische Umsetzung dieses Modells ist nicht machbar. Alle vier Berechnungsmodelle haben sich als gleichwertig erwiesen; jeder kann den anderen mit nicht mehr als polynomialem Overhead simulieren.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/QI/QIF Quantum Information Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
Grundlagen der EITC/IS/QCF-Quantenkryptografie
EITC/IS/QCF Quantum Cryptography Fundamentals ist das europäische IT-Zertifizierungsprogramm zu theoretischen und praktischen Aspekten der Quantenkryptografie mit Schwerpunkt auf der Quantum Key Distribution (QKD), das in Verbindung mit dem One-Time Pad erstmals in der Geschichte absolute (informationstheoretische) Kommunikationssicherheit.
Das Curriculum der EITC/IS/QCF Quantum Cryptography Fundamentals umfasst die Einführung in die Quantenschlüsselverteilung, Quantenkommunikationskanäle, Informationsträger, zusammengesetzte Quantensysteme, klassische und Quantenentropie als kommunikationstheoretische Informationsmaße, QKD-Vorbereitungs- und Messprotokolle, verschränkungsbasierte QKD-Protokolle, Klassische QKD-Nachbearbeitung (einschließlich Fehlerkorrektur und Datenschutzverstärkung), Sicherheit der Quantenschlüsselverteilung (Definitionen, Abhörstrategien, Sicherheit des BB84-Protokolls, Sicherheit cia entropischer Unsicherheitsbeziehungen), praktische QKD (Experiment vs. Theorie), Einführung in experimentelle Quanten Kryptographie sowie Quanten-Hacking innerhalb der folgenden Struktur, die umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfasst.
Die Quantenkryptographie beschäftigt sich mit der Entwicklung und Implementierung kryptographischer Systeme, die auf Gesetzen der Quantenphysik und nicht auf den Gesetzen der klassischen Physik basieren. Die Quantenschlüsselverteilung ist die bekannteste Anwendung der Quantenkryptographie, da sie eine informationstheoretisch sichere Lösung für das Schlüsselaustauschproblem bietet. Die Quantenkryptographie hat den Vorteil, dass sie die Erledigung einer Vielzahl von kryptographischen Aufgaben ermöglicht, von denen gezeigt oder vermutet wurde, dass sie allein mit klassischer (Nicht-Quanten-)Kommunikation unmöglich sind. Das Kopieren von Daten, die beispielsweise in einem Quantenzustand kodiert sind, ist unmöglich. Wenn versucht wird, die codierten Daten zu lesen, wird der Quantenzustand aufgrund des Kollaps der Wellenfunktion geändert (No-Cloning-Theorem). Bei der Quantenschlüsselverteilung kann dies zur Erkennung von Lauschangriffen (QKD) verwendet werden.
Den Arbeiten von Stephen Wiesner und Gilles Brassard wird die Etablierung der Quantenkryptographie zugeschrieben. Wiesner, damals an der Columbia University in New York, erfand in den frühen 1970er Jahren das Konzept der quantenkonjugierten Codierung. Die IEEE Information Theory Society lehnte seine wichtige Studie „Conjugate Coding“ ab, wurde aber schließlich 1983 in SIGACT News veröffentlicht , so dass beide, aber nicht beide empfangen und dekodiert werden können. Erst auf dem 20. IEEE Symposium on the Foundations of Computer Science, das 1979 in Puerto Rico stattfand, entdeckten Charles H. Bennett vom Thomas J. Watson Research Center von IBM und Gilles Brassard, wie man die Ergebnisse von Wiesner einbeziehen kann. „Wir haben erkannt, dass Photonen nie dazu gedacht sind, Informationen zu speichern, sondern sie zu übermitteln.“ Bennett und Brassard führten 84 ein sicheres Kommunikationssystem namens BB1984 ein, basierend auf ihren früheren Arbeiten. In Anlehnung an David Deutschs Idee, Quanten-Nichtlokalität und Bell-Ungleichung zu verwenden, um eine sichere Schlüsselverteilung zu erreichen, untersuchte Artur Ekert in einer Studie von 1991 die verschränkungsbasierte Quantenschlüsselverteilung eingehender.
Kaks dreistufige Technik schlägt vor, dass beide Seiten ihre Polarisation zufällig drehen. Werden einzelne Photonen eingesetzt, kann diese Technologie theoretisch für eine durchgängige, bruchsichere Datenverschlüsselung eingesetzt werden. Es wurde der grundlegende Polarisationsdrehmechanismus implementiert. Dies ist ein ausschließlich quantenbasiertes Kryptographieverfahren, im Gegensatz zur Quantenschlüsselverteilung, die klassische Verschlüsselung verwendet.
Quantenschlüsselverteilungsmethoden basieren auf der BB84-Methode. MagiQ Technologies, Inc. (Boston, Massachusetts, USA), ID Quantique (Genf, Schweiz), QuintessenceLabs (Canberra, Australien), Toshiba (Tokio, Japan), QNu Labs und SeQureNet sind alle Hersteller von Quantenkryptografiesystemen (Paris , Frankreich).
Vorteile
Kryptographie ist das sicherste Glied in der Datensicherheitskette. Dagegen können Interessenten nicht erwarten, dass kryptografische Schlüssel dauerhaft sicher bleiben. Quantenkryptographie kann Daten für längere Zeiträume verschlüsseln als herkömmliche Kryptographie. Wissenschaftler können mit herkömmlicher Kryptographie keine Verschlüsselung für mehr als 30 Jahre garantieren, aber einige Interessengruppen benötigen möglicherweise längere Schutzfristen. Nehmen Sie zum Beispiel die Gesundheitsbranche. Seit 85.9 verwenden 2017 % der niedergelassenen Ärzte elektronische Patientenaktensysteme, um Patientendaten zu speichern und zu übermitteln. Krankenakten müssen gemäß dem Gesetz zur Übertragbarkeit und Rechenschaftspflicht von Krankenversicherungen privat geführt werden. Krankenakten in Papierform werden in der Regel nach einer gewissen Zeit verbrannt, während computergestützte Akten eine digitale Spur hinterlassen. Elektronische Aufzeichnungen können durch die Verteilung von Quantenschlüsseln bis zu 100 Jahre lang geschützt werden. Die Quantenkryptographie hat auch Anwendungen für Regierungen und Militärs, da Regierungen militärisches Material normalerweise seit fast 60 Jahren geheim halten. Es wurde auch gezeigt, dass die Verteilung von Quantenschlüsseln selbst dann sicher sein kann, wenn sie über einen verrauschten Kanal über eine lange Distanz übertragen wird. Es kann von einem verrauschten Quantenschema in ein klassisches rauschfreies Schema umgewandelt werden. Um dieses Problem anzugehen, kann die klassische Wahrscheinlichkeitstheorie verwendet werden. Quantum-Repeater können bei diesem Prozess des ständigen Schutzes über einen verrauschten Kanal helfen. Quantenrepeater sind in der Lage, Fehler in der Quantenkommunikation effizient zu beheben. Um die Kommunikationssicherheit zu gewährleisten, können Quantenrepeater, also Quantencomputer, als Segmente über dem verrauschten Kanal stationiert werden. Quantum-Repeater erreichen dies, indem sie die Kanalsegmente reinigen, bevor sie sie zu einer sicheren Kommunikationsleitung verbinden. Über eine große Entfernung können unterdurchschnittliche Quantenrepeater einen effizienten Schutz durch den verrauschten Kanal bieten.
Anwendungen
Quantenkryptografie ist ein weit gefasster Begriff, der sich auf eine Vielzahl von kryptografischen Techniken und Protokollen bezieht. In den folgenden Abschnitten werden einige der bemerkenswertesten Anwendungen und Protokolle behandelt.
Verteilung von Quantenschlüsseln
Die Technik der Quantenkommunikation, um einen gemeinsamen Schlüssel zwischen zwei Parteien (zum Beispiel Alice und Bob) einzurichten, ohne dass eine dritte Partei (Eve) etwas über diesen Schlüssel erfährt, selbst wenn Eve die gesamte Kommunikation zwischen Alice und Bob belauschen kann, ist bekannt als QKD. Es entstehen Diskrepanzen, wenn Eve versucht, Wissen über den erstellten Schlüssel zu sammeln, was Alice und Bob auffällt. Sobald der Schlüssel eingerichtet ist, wird er normalerweise verwendet, um die Kommunikation mit herkömmlichen Methoden zu verschlüsseln. Der ausgetauschte Schlüssel könnte beispielsweise für symmetrische Kryptographie (zB One-Time-Pad) verwendet werden.
Die Sicherheit der Quantenschlüsselverteilung kann theoretisch hergestellt werden, ohne den Fähigkeiten eines Lauschers irgendwelche Beschränkungen aufzuerlegen, was mit der klassischen Schlüsselverteilung nicht erreichbar ist. Obwohl einige minimale Annahmen erforderlich sind, beispielsweise dass Quantenphysik gilt und sich Alice und Bob gegenseitig authentifizieren können, sollte Eve nicht in der Lage sein, sich als Alice oder Bob auszugeben, da ein Man-in-the-Middle-Angriff möglich wäre.
Obwohl QKD sicher zu sein scheint, stehen seine Anwendungen vor praktischen Herausforderungen. Aufgrund der Beschränkungen der Übertragungsentfernung und der Schlüsselerzeugungsrate ist dies der Fall. Kontinuierliche Forschung und technologische Entwicklungen haben zukünftige Fortschritte bei solchen Einschränkungen ermöglicht. Lucamariniet al. schlug 2018 ein Doppelfeld-QKD-System vor, das in der Lage sein könnte, die Ratenverlustskalierung eines verlustbehafteten Kommunikationskanals zu überwinden. Bei 340 Kilometern Glasfaser wurde gezeigt, dass die Rate des Twin-Field-Protokolls die geheime Schlüsselvereinbarungskapazität des verlustbehafteten Kanals, bekannt als Repeater-less PLOB-Bound, überstieg; seine ideale Rate überschreitet diese Grenze bereits bei 200 Kilometern und folgt der Rate-Loss-Skalierung der höheren Repeater-unterstützten geheimen Schlüsselvereinbarungskapazität (siehe Abbildung 1 für weitere Details). Mit „550 Kilometern konventioneller Glasfaser“, die in der Kommunikation bereits weit verbreitet ist, lassen sich laut Protokoll ideale Schlüsselraten erzielen. Minder et al., die als erster effektiver Quantenrepeater bezeichnet wurden, bestätigten die theoretischen Ergebnisse bei der ersten experimentellen Demonstration von QKD über die Geschwindigkeitsverlustgrenze im Jahr 2019. Die Sending-Not-Send-Variante (SNS) des TF-QKD Protokoll ist einer der wichtigsten Durchbrüche in Bezug auf das Erreichen hoher Übertragungsraten über lange Distanzen.
Misstrauische Quantenkryptographie
Die Teilnehmer an misstrauischer Kryptographie vertrauen einander nicht. Alice und Bob arbeiten beispielsweise zusammen, um eine Berechnung abzuschließen, bei der beide Parteien private Eingaben bereitstellen. Alice hingegen vertraut Bob nicht, und Bob vertraut Alice nicht. Folglich erfordert eine sichere Implementierung eines kryptografischen Jobs Alices Versicherung, dass Bob nicht geschummelt hat, nachdem die Berechnung abgeschlossen ist, und Bobs Versicherung, dass Alice nicht geschummelt hat. Commitment-Schemata und sichere Berechnungen, von denen letztere die Aufgaben des Münzwurfs und des unbewussten Transfers umfassen, sind Beispiele für misstrauische kryptografische Aufgaben. Das Gebiet der nicht vertrauenswürdigen Kryptographie umfasst keine Schlüsselverteilung. Die misstrauische Quantenkryptographie untersucht den Einsatz von Quantensystemen im Bereich der misstrauischen Kryptographie.
Im Gegensatz zur Quantenschlüsselverteilung, bei der bedingungslose Sicherheit allein durch die Gesetze der Quantenphysik erreicht werden kann, gibt es No-Go-Theoreme, die belegen, dass bedingungslos sichere Protokolle nicht allein durch die Gesetze der Quantenphysik bei verschiedenen Aufgaben in misstrauischen Kryptographie. Einige dieser Aufgaben können jedoch mit absoluter Sicherheit ausgeführt werden, wenn die Protokolle sowohl Quantenphysik als auch spezielle Relativitätstheorie verwenden. Mayers und Lo und Chau haben beispielsweise gezeigt, dass eine absolut sichere Quantenbitbindung unmöglich ist. Lo und Chau demonstrierten, dass bedingungslos sicheres, perfektes Quantenmünzenwerfen unmöglich ist. Darüber hinaus zeigte Lo, dass die Sicherheit von Quantenprotokollen für die eins-aus-zwei-oblivious-Übertragung und andere sichere Zwei-Parteien-Berechnungen nicht garantiert werden kann. Kent hingegen hat bedingungslos sichere relativistische Protokolle für Münzwurf und Bit-Commitment demonstriert.
Quantenmünzen werfen
Quantum Coin Flipping ist im Gegensatz zur Quantenschlüsselverteilung ein Mechanismus, der zwischen zwei Parteien verwendet wird, die sich nicht vertrauen. Die Teilnehmer kommunizieren über einen Quantenkanal und tauschen Daten per Qubit-Übertragung aus. Da Alice und Bob jedoch misstrauisch sind, erwarten sie beide, dass der andere betrügt. Infolgedessen muss mehr Arbeit aufgewendet werden, um sicherzustellen, dass weder Alice noch Bob einen erheblichen Vorteil gegenüber dem anderen haben, um das gewünschte Ergebnis zu erzielen. Eine Voreingenommenheit ist die Fähigkeit, ein bestimmtes Ergebnis zu beeinflussen, und es werden große Anstrengungen unternommen, um Protokolle zu entwickeln, um die Voreingenommenheit eines unehrlichen Spielers, auch bekannt als Betrug, zu beseitigen. Es hat sich gezeigt, dass Quantenkommunikationsprotokolle, wie beispielsweise das Quantencoin-Flipping, erhebliche Sicherheitsvorteile gegenüber der herkömmlichen Kommunikation bieten, obwohl sie in der Praxis möglicherweise nur schwer umzusetzen sind.
Das Folgende ist ein typisches Münzwurfprotokoll:
- Alice wählt eine Basis (geradlinig oder diagonal) aus und erzeugt eine Reihe von Photonen in dieser Basis, um sie an Bob zu liefern.
- Bob wählt eine geradlinige oder diagonale Basis, um jedes Photon zufällig zu messen, und notiert, welche Basis er verwendet und welchen Wert er aufgezeichnet hat.
- Bob macht eine öffentliche Vermutung über die Grundlage, auf der Alice ihre Qubits gesendet hat.
- Alice verrät ihre Wahl der Basis und schickt Bob ihren Originalstring.
- Bob bestätigt Alices String, indem er sie mit seiner Tabelle vergleicht. Es sollte perfekt mit Bobs Messungen verbunden sein, die auf Alices Basis gemacht wurden, und völlig unkorreliert mit dem Gegenteil.
Wenn ein Spieler versucht, die Wahrscheinlichkeit eines bestimmten Ergebnisses zu beeinflussen oder zu verbessern, wird dies als Betrug bezeichnet. Von einigen Formen des Betrugs wird durch das Protokoll abgeraten; Alice könnte beispielsweise behaupten, dass Bob ihre anfängliche Basis falsch erraten hat, als er in Schritt 4 richtig geraten hat, aber Alice müsste dann eine neue Folge von Qubits generieren, die perfekt mit dem korreliert, was Bob in der gegenüberliegenden Tabelle gemessen hat. Mit der Anzahl der übertragenen Qubits sinken ihre Chancen, eine übereinstimmende Qubit-Reihe zu generieren, exponentiell, und wenn Bob eine Nichtübereinstimmung bemerkt, weiß er, dass sie lügt. Alice könnte auf ähnliche Weise eine Reihe von Photonen konstruieren, indem sie Zustände kombiniert, aber Bob würde schnell sehen, dass ihre Reihe etwas (aber nicht vollständig) mit beiden Seiten der Tabelle übereinstimmt, was darauf hindeutet, dass sie betrogen hat. Es gibt auch eine inhärente Schwäche bei zeitgenössischen Quantengeräten. Bobs Messungen werden von Fehlern und verlorenen Qubits beeinflusst, was zu Löchern in seiner Messtabelle führt. Bobs Fähigkeit, Alices Qubit-Sequenz in Schritt 5 zu verifizieren, wird durch erhebliche Messfehler behindert.
Das Einstein-Podolsky-Rosen (EPR)-Paradoxon ist ein theoretisch sicherer Weg für Alice, zu betrügen. Zwei Photonen in einem EPR-Paar sind antikorreliert, was bedeutet, dass sie bei Messung auf derselben Basis immer entgegengesetzte Polarisationen aufweisen. Alice kann eine Reihe von EPR-Paaren erstellen, eines an Bob senden und das andere für sich behalten. Sie konnte ihre EPR-Paarphotonen auf der entgegengesetzten Basis messen und eine perfekte Korrelation zu Bobs gegenüberliegender Tabelle erhalten, wenn Bob seine Vermutung angibt. Bob hätte keine Ahnung, dass sie betrogen hatte. Dies erfordert jedoch Fähigkeiten, die der Quantentechnologie derzeit fehlen und die in der Praxis nicht zu erreichen sind. Um dies herauszuholen, müsste Alice in der Lage sein, alle Photonen über einen längeren Zeitraum zu speichern und mit nahezu perfekter Genauigkeit zu messen. Dies liegt daran, dass jedes Photon, das während der Lagerung oder Messung verloren geht, ein Loch in ihrer Schnur hinterlassen würde, das sie mit Vermutungen füllen müsste. Je mehr Vermutungen sie anstellen muss, desto wahrscheinlicher ist es, dass sie von Bob beim Schummeln erwischt wird.
Quanten-Verpflichtung
Wenn misstrauische Parteien involviert sind, werden zusätzlich zum Quantencoin-Flipping Quanten-Commitment-Methoden verwendet. Ein Commitment-Schema ermöglicht es einer Partei Alice, einen Wert so festzulegen (zu „committieren“), dass Alice ihn nicht ändern kann und der Empfänger Bob nichts darüber erfahren kann, bis Alice ihn preisgibt. Kryptografische Protokolle verwenden häufig solche Commitment-Mechanismen (zB Quantum Coin Flipping, Zero-Knowledge-Beweis, sichere Zwei-Parteien-Berechnung und Oblivious Transfer).
Sie wären in einer Quantenumgebung besonders nützlich: Crépeau und Kilian zeigten, dass aus einer Verpflichtung und einem Quantenkanal ein bedingungslos sicheres Protokoll für die Durchführung des sogenannten oblivious transfers aufgebaut werden kann. Auf der anderen Seite hat Kilian gezeigt, dass mit Hilfe von Oblivive Transfer praktisch jede verteilte Berechnung auf sichere Weise aufgebaut werden kann (sogenannte sichere Mehrparteienberechnung). (Beachten Sie, dass wir hier ein wenig schlampig sind: Die Ergebnisse von Crépeau und Kilian deuten nicht direkt darauf hin, dass man mit einem Commitment und einem Quantenkanal sichere Mehrparteienberechnungen durchführen kann. Dies liegt daran, dass die Ergebnisse keine „Zusammensetzbarkeit“ gewährleisten, die bedeutet, dass Sie beim Kombinieren riskieren, die Sicherheit zu verlieren.
Leider haben sich die frühen Mechanismen der Quantenverpflichtung als fehlerhaft erwiesen. Mayers zeigte, dass (bedingungslos sicheres) Quanten-Commitment unmöglich ist: Jedes Quanten-Commitment-Protokoll kann von einem rechnerisch unbegrenzten Angreifer gebrochen werden.
Die Entdeckung von Mayers schließt jedoch nicht die Möglichkeit aus, Quanten-Commitment-Protokolle (und damit sichere Multi-Party-Computing-Protokolle) zu erstellen, die deutlich schwächere Annahmen verwenden als die, die für Commitment-Protokolle erforderlich sind, die keine Quantenkommunikation verwenden. Eine Situation, in der Quantenkommunikation verwendet werden kann, um Verpflichtungsprotokolle zu entwickeln, ist das unten beschriebene begrenzte Quantenspeichermodell. Eine Entdeckung im November 2013 sorgt für „bedingungslose“ Informationssicherheit durch die Kombination von Quantentheorie und Relativitätstheorie, die erstmals weltweit wirksam bewiesen wurde. Wanget al. hat ein neues Verpflichtungssystem vorgestellt, in dem „bedingungsloses Verstecken“ ideal ist.
Kryptografische Verpflichtungen können auch mithilfe von physikalisch nicht klonbaren Funktionen erstellt werden.
Begrenztes und verrauschtes Quantenspeichermodell
Das eingeschränkte Quantenspeichermodell kann verwendet werden, um bedingungslos sichere Quantenverpflichtungs- und Quantenoblivious-Transfer (OT)-Protokolle (BQSM) zu erstellen. In diesem Szenario wird davon ausgegangen, dass die Quantendatenspeicherkapazität eines Gegners durch eine bekannte Konstante Q begrenzt ist. Es gibt jedoch keine Begrenzung dafür, wie viele klassische (nicht Quanten-) Daten der Gegner speichern kann.
Im BQSM können Commitment- und Oblivious-Transfer-Verfahren aufgebaut werden. Das Grundkonzept lautet: Es werden mehr als Q Quantenbits zwischen Protokollparteien (Qubits) ausgetauscht. Da selbst ein unehrlicher Gegner nicht alle diese Daten speichern kann (der Quantenspeicher des Gegners ist auf Q Qubits beschränkt), muss ein beträchtlicher Teil der Daten gemessen oder vernichtet werden. Indem unehrliche Parteien gezwungen werden, einen beträchtlichen Teil der Daten zu messen, kann das Protokoll das Ergebnis der Unmöglichkeit vermeiden und die Verwendung von Verpflichtungs- und Vergesslichkeitsübertragungsprotokollen ermöglichen.
Die Protokolle von Damgrd, Fehr, Salvail und Schaffner im BQSM gehen nicht davon aus, dass ehrliche Protokollteilnehmer Quanteninformationen speichern; die technischen Anforderungen sind mit denen der Quantenschlüsselverteilungsprotokolle identisch. Diese Protokolle sind somit zumindest theoretisch mit heutiger Technik realisierbar. Die Kommunikationskomplexität im Quantenspeicher des Gegners ist nur um einen konstanten Faktor höher als das gebundene Q.
Das BQSM hat den Vorteil, dass es realistisch ist in seiner Prämisse, dass der Quantenspeicher des Gegners endlich ist. Selbst die zuverlässige Speicherung eines einzelnen Qubits über einen längeren Zeitraum ist mit der heutigen Technologie schwierig. (Die Definition von „ausreichend lang“ wird durch die Besonderheiten des Protokolls bestimmt.) Die Zeit, die der Gegner benötigt, um Quantendaten aufzubewahren, kann durch Hinzufügen einer künstlichen Lücke im Protokoll beliebig lang gemacht werden.)
Das von Wehner, Schaffner und Terhal vorgeschlagene Noisy-Storage-Modell ist eine Erweiterung des BQSM. Ein Gegner darf defekte Quantenspeicher beliebiger Größe verwenden, anstatt die physikalische Größe des Quantenspeichers des Gegners nach oben zu begrenzen. Verrauschte Quantenkanäle werden verwendet, um den Grad der Unvollkommenheit zu modellieren. Die gleichen Grundelemente wie im BQSM können bei ausreichend hohen Rauschpegeln erzeugt werden, daher ist das BQSM ein spezieller Fall des verrauschten Speichermodells.
Ähnliche Ergebnisse können in der klassischen Situation erzielt werden, indem die Menge der klassischen (nicht-quantenartigen) Daten, die der Gegner speichern kann, begrenzt wird. Es hat sich jedoch gezeigt, dass in diesem Modell die ehrlichen Parteien ebenfalls sehr viel Speicher verbrauchen müssen (die Quadratwurzel der Speichergrenze des Gegners). Als Ergebnis sind diese Methoden für reale Speicherbeschränkungen nicht praktikabel. (Es ist erwähnenswert, dass ein Gegner mit der heutigen Technologie, wie beispielsweise Festplatten, enorme Mengen herkömmlicher Daten zu einem niedrigen Preis speichern kann.)
Quantenkryptographie basierend auf Position
Der Zweck der positionsbasierten Quantenkryptographie besteht darin, die (einzigen) Berechtigungsnachweise eines Spielers zu verwenden: seinen geografischen Standort. Angenommen, Sie möchten einem Spieler an einem bestimmten Ort eine Nachricht mit der Gewissheit senden, dass sie nur gelesen werden kann, wenn sich auch der Empfänger an diesem Ort befindet. Das Hauptziel der Positionsverifizierung besteht darin, dass eine Spielerin, Alice, die (ehrlichen) Verifizierer davon überzeugt, dass sie sich an einem bestimmten Ort befindet. Chandranet al. demonstrierten, dass eine Positionsüberprüfung mit herkömmlichen Protokollen in Anwesenheit von kollaborierenden Gegnern (die alle Positionen außer der vom Prüfer angegebenen Position kontrollieren) unmöglich ist. Schemata sind unter verschiedenen Einschränkungen der Gegner möglich.
Kent untersuchte 2002 die ersten positionsbasierten Quantensysteme unter dem Spitznamen „Quantum Tagging“. Im Jahr 2006 wurde ein US-Patent erhalten. Im Jahr 2010 wurde die Idee, Quanteneffekte zur Standortverifizierung auszunutzen, erstmals in Fachzeitschriften veröffentlicht. Nachdem 2010 mehrere andere Quantenprotokolle zur Positionsverifikation vorgeschlagen wurden, haben Buhrman et al. behaupteten ein allgemeines Unmöglichkeitsergebnis: Kolluierende Gegner können den Verifizierern immer den Anschein erwecken, dass sie sich an der behaupteten Position befinden, indem sie eine enorme Menge an Quantenverschränkung verwenden (sie verwenden eine doppelt exponentielle Anzahl von EPR-Paaren in der Anzahl der Qubits, die der ehrliche Spieler betreibt). an). Im Bounded- oder Noisy-Quantum-Storage-Paradigma schließt dieses Ergebnis jedoch die Möglichkeit praktikabler Ansätze nicht aus (siehe oben). Beigi und König erhöhten später die Anzahl der EPR-Paare, die für den breiten Angriff gegen Positionsüberprüfungsmethoden erforderlich waren, auf ein exponentielles Niveau. Sie zeigten auch, dass ein Protokoll gegen Gegner sicher ist, die nur eine lineare Anzahl von EPR-Paaren kontrollieren. Die Aussicht auf eine formale bedingungslose Standortverifizierung mit Quanteneffekten bleibt aufgrund der Zeit-Energie-Kopplung ein ungelöstes Thema, wird in vorgeschlagen. Es ist erwähnenswert, dass die Erforschung der positionsbasierten Quantenkryptographie Verbindungen zum Protokoll der portbasierten Quantenteleportation hat, das ist eine fortschrittlichere Variante der Quantenteleportation, bei der mehrere EPR-Paare gleichzeitig als Ports verwendet werden.
Geräteunabhängige Quantenkryptographie
Wenn die Sicherheit eines Quantenkryptografieprotokolls nicht von der Wahrhaftigkeit der verwendeten Quantengeräte abhängt, wird es als geräteunabhängig bezeichnet. Daher müssen Situationen fehlerhafter oder sogar feindlicher Geräte in die Sicherheitsanalyse eines solchen Protokolls einbezogen werden. Mayers und Yao schlugen vor, Quantenprotokolle mit „selbsttestenden“ Quantengeräten zu entwerfen, deren interne Operationen durch ihre Eingabe-Ausgabe-Statistiken eindeutig identifiziert werden können. Danach plädierte Roger Colbeck in seiner Diplomarbeit dafür, Bell-Tests zu verwenden, um die Ehrlichkeit der Geräte zu beurteilen. Seitdem hat sich eine Reihe von Problemen gezeigt, die bedingungslos sichere und geräteunabhängige Protokolle zulassen, selbst wenn die tatsächlichen Geräte, die den Bell-Test durchführen, erheblich „verrauscht“, dh alles andere als ideal sind. Quantenschlüsselverteilung, Zufallserweiterung und Zufallsverstärkung sind Beispiele für diese Probleme.
Theoretische Untersuchungen von Arnon-Friedman et al. im Jahr 2018 zeigen, dass die Nutzung einer Entropieeigenschaft, bekannt als „Entropy Accumulation Theorem (EAT)“, die eine Erweiterung der Asymptotic Equipartition Property ist, die Sicherheit eines geräteunabhängigen Protokolls garantieren kann.
Postquantenkryptographie
Quantencomputer können zu einer technologischen Realität werden, daher ist es wichtig, kryptografische Algorithmen zu erforschen, die gegen Feinde eingesetzt werden können, die Zugang zu einem haben. Post-Quanten-Kryptographie ist der Begriff, der verwendet wird, um das Studium solcher Methoden zu beschreiben. Viele gängige Verschlüsselungs- und Signaturtechniken (basierend auf ECC und RSA) können mit dem Shor-Algorithmus zum Faktorisieren und Berechnen diskreter Logarithmen auf einem Quantencomputer gebrochen werden, was eine Post-Quanten-Kryptographie erfordert. McEliece- und gitterbasierte Schemata sowie die meisten Algorithmen mit symmetrischen Schlüsseln sind Beispiele für Schemata, die nach heutigem Kenntnisstand gegen Quantengegner sicher sind. Post-Quanten-Kryptographie-Umfragen sind verfügbar.
Bestehende Verschlüsselungsalgorithmen werden ebenfalls untersucht, um zu sehen, wie sie aktualisiert werden können, um mit Quantengegnern umzugehen. Wenn es beispielsweise darum geht, Zero-Knowledge-Proof-Systeme zu entwickeln, die gegen Quantenangreifer sicher sind, sind neue Strategien gefragt: In einer traditionellen Umgebung erfordert die Analyse eines Zero-Knowledge-Proof-Systems in der Regel das „Zurückspulen“, eine Technik, die das Kopieren des Gegners erfordert internen Zustand. Da das Kopieren eines Zustands in einem Quantenkontext nicht immer möglich ist (No-Cloning-Theorem), muss ein Rückspulansatz angewendet werden.
Postquantenalgorithmen werden manchmal als „quantenresistent“ bezeichnet, da im Gegensatz zur Quantenschlüsselverteilung unbekannt oder beweisbar ist, dass zukünftige Quantenangriffe nicht erfolgreich sein werden. Die NSA erklärt die Absicht, auf quantenresistente Algorithmen umzusteigen, obwohl sie nicht dem Algorithmus von Shor unterliegen. Das National Institute of Standards and Technology (NIST) ist der Ansicht, dass quantensichere Primitive in Betracht gezogen werden sollten.
Quantenkryptographie jenseits der Quantenschlüsselverteilung
Bisher wurde die Quantenkryptographie mit der Entwicklung von Quantenschlüsselverteilungsprotokollen in Verbindung gebracht. Leider werden symmetrische Kryptosysteme mit Schlüsseln, die über die Quantenschlüsselverteilung verbreitet werden, aufgrund der Notwendigkeit der Einrichtung und Manipulation mehrerer geheimer Schlüsselpaare für große Netzwerke (viele Benutzer) ineffizient (das sogenannte „Schlüsselmanagementproblem“). Darüber hinaus beherrscht diese Distribution eine Vielzahl zusätzlicher kryptografischer Verfahren und Dienste, die im Alltag kritisch sind, nicht. Im Gegensatz zur Quantenschlüsselverteilung, die klassische Algorithmen für die kryptografische Transformation beinhaltet, wurde das dreistufige Protokoll von Kak als Weg für eine sichere, vollständig quantenbasierte Kommunikation vorgestellt.
Über die Schlüsselverteilung hinaus umfasst die Quantenkryptographie-Forschung die Quantennachrichten-Authentifizierung, Quanten-Digitalsignaturen, Quanten-Einwegfunktionen und Public-Key-Verschlüsselung, Quanten-Fingerabdruck und Entitätsauthentifizierung (siehe zum Beispiel Quantenauslesen von PUFs) und so weiter.
Praktische Umsetzungen
Die Quantenkryptographie scheint zumindest im Prinzip ein erfolgreicher Wendepunkt im Bereich der Informationssicherheit zu sein. Keine kryptographische Methode kann jedoch jemals vollständig sicher sein. Quantenkryptographie ist in der Praxis nur bedingt sicher und beruht auf einer Reihe von Schlüsselannahmen.
Annahme einer Einzelphotonenquelle
Bei der theoretischen Untermauerung der Quantenschlüsselverteilung wird eine Einphotonenquelle angenommen. Andererseits sind Einzelphotonenquellen schwierig zu bauen, und die meisten realen Quantenverschlüsselungssysteme verlassen sich auf schwache Laserquellen, um Daten zu übertragen. Lauscherangriffe, insbesondere Photonenspaltungsangriffe, können diese Multiphotonenquellen nutzen. Eve, eine Lauscherin, kann die Multiphotonenquelle in zwei Kopien aufteilen und eine für sich behalten. Die restlichen Photonen werden anschließend an Bob gesendet, ohne dass darauf hingewiesen wird, dass Eve eine Kopie der Daten gesammelt hat. Wissenschaftler behaupten, dass die Verwendung von Köderzuständen, um das Vorhandensein eines Lauschers zu testen, eine Multiphotonenquelle sicher halten kann. Wissenschaftler haben jedoch 2016 eine nahezu perfekte Einzelphotonenquelle hergestellt, und sie glauben, dass in naher Zukunft eine entwickelt werden wird.
Annahme identischer Detektoreffizienz
In der Praxis verwenden Quantenschlüsselverteilungssysteme zwei Einzelphotonendetektoren, einen für Alice und einen für Bob. Diese Fotodetektoren sind kalibriert, um ein eintreffendes Photon innerhalb eines Millisekundenintervalls zu erkennen. Die Detektionsfenster der beiden Detektoren werden aufgrund von Herstellungsunterschieden zwischen ihnen um einen endlichen Betrag verschoben. Indem sie Alices Qubit misst und Bob einen „falschen Zustand“ liefert, kann eine Lauscherin namens Eve die Ineffizienz des Detektors ausnutzen. Eve sammelt das Photon ein, das Alice gesendet hat, bevor sie ein neues Photon erzeugt, das es an Bob liefert. Eve manipuliert die Phase und das Timing des „gefälschten“ Photons so, dass Bob keinen Lauscher erkennen kann. Das einzige Verfahren, um diese Schwachstelle zu beseitigen, besteht darin, Diskrepanzen der Photodetektoreffizienz zu beseitigen, was aufgrund endlicher Herstellungstoleranzen, die optische Weglängenunterschiede, Drahtlängenunterschiede und andere Probleme erzeugen, eine Herausforderung darstellt.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/IS/QCF Quantum Cryptography Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITCA/WD Web Development Academy
Die EITCA/WD Web Development Academy ist ein in der EU ansässiger, international anerkannter Standard für die Bescheinigung von Fachwissen, der Kenntnisse und praktische Fähigkeiten im Bereich der Front-End- und Back-End-Webentwicklung umfasst.
Der Lehrplan der EITCA/WD Web Development Academy umfasst Fachkompetenzen in den Bereichen Front-End und Back-End, dh Full-Stack-Webentwicklung, einschließlich Webdesign, Content-Management-Systemen und Grundlagen der Webprogrammierung, mit besonderem Schwerpunkt auf HTML und CSS, JavaScript, PHP und MySQL, visueller Webflow-Webdesigner (einschließlich Webflow CMS-Content-Management-System und Webflow eCommerce), WordPress CMS (einschließlich Elementor Builder, WooCommerce WordPress eCommerce-Plattform und LearnDash LMS-Lernmanagementsystem) sowie Google Web Designer als Grundlagen der Google Cloud Platform.
Durch die Erlangung der Zertifizierung der EITCA/WD-Webentwicklungsakademie wird der Erwerb von Fähigkeiten und das Bestehen der Abschlussprüfungen aller europäischen EITC-Programme (Substituent European IT Certification) bestätigt, die den vollständigen Lehrplan der EITCA/WD-Webentwicklungsakademie bilden (auch separat als einzelne EITC-Zertifizierungen erhältlich).
Die Webentwicklung gilt derzeit als eines der wichtigsten Gebiete digitaler Technologien mit einer enormen Marktnachfrage (die die Nachfrage nach Arbeitsplätzen im gesamten IT-Sektor erheblich steigert), die mit einem dynamischen Wachstum des World Wide Web verbunden ist. Unternehmen, Institutionen und Organisationen auf der ganzen Welt aktualisieren und erweitern ständig ihre Webdienste, Webportale und Webseiten. Die Webpräsenz und die webbasierte Kommunikation ersetzen derzeit andere traditionelle Geschäfts- und Kommunikationskanäle. Die Expertise im Bereich Webdesign (einschließlich visueller Technologien und Programmierung) sowie in der Verwaltung von Content-Management-Systemen garantiert hochbezahlte Jobs und schnelle Karriereentwicklungsoptionen aufgrund von Mängeln bei Webentwicklungsfachleuten und Lücken in der Webentwicklungskompetenz. Webdesign- und Webbuilding-Techniken haben sich in den letzten Jahren erheblich zugunsten visueller Webbuilder wie Webflow, Google Web Designer oder Elementor (ein Webbuilder-Plugin, das mit WordPress CMS arbeitet) weiterentwickelt. Auf der anderen Seite ermöglichen professionelle Kompetenzen in Grundlagen von Webprogrammiersprachen wie (HTML, CSS und JavaScript) für die sogenannte Front-End-Webentwicklung sowie die Programmierung von PHP- und MySQL-Datenbankverwaltungssystemen für die sogenannte Back-End-Webentwicklung Experten, um die mit einfach zu verwendenden visuellen Werkzeugen erzielten Ergebnisse einfach anzupassen, zu erweitern und zu verfeinern. Statische Websites werden heutzutage fast vollständig durch fortschrittliche CMS-Content-Management-Systeme ersetzt, die eine einfache Skalierung und kontinuierliche Entwicklung nach der Bereitstellung von Webportalen ermöglichen (mit umfangreichen Konfigurationsoptionen, einem hohen Automatisierungsgrad und einer Vielzahl von Plugins oder Modulen, die die Standardfunktionen erweitern). Eines der derzeit dominierenden CMS ist ein Open-Source-WordPress-System, mit dem nicht nur erweiterte Webportale erstellt, sondern auch Domänen des E-Commerce (Online-Verkaufssysteme für Internet-Shops oder andere kommerzielle Plattformen) oder Learning Management-Systeme (LMS) integriert werden können. Alle diese Bereiche werden von der EITCA/WD-Webentwicklung abgedeckt, die Fachwissen sowohl in der Front-End- als auch in der Back-End-Webentwicklung integriert.
Unter Webprofis bezieht sich die Webentwicklung normalerweise auf die wichtigsten nicht-designbezogenen Aspekte beim Erstellen von Websites: das Schreiben von Markups und das Codieren. Bei der Webentwicklung werden möglicherweise Content-Management-Systeme (CMS) verwendet, um Änderungen an Inhalten zu vereinfachen und mit grundlegenden technischen Fähigkeiten verfügbar zu machen (und insbesondere diese Änderungen zu rationalisieren und die Einbeziehung von mehr Personen, z. B. Verwaltungspersonal, zu ermöglichen).
Für größere Organisationen und Unternehmen können Webentwicklungsteams aus Hunderten von Personen (Webentwicklern) bestehen und Standardmethoden wie agile Methoden befolgen, während komplette Websites, Webportale oder Webdienste entwickelt werden. Kleinere Organisationen benötigen möglicherweise nur einen einzigen ständigen oder Vertragsentwickler oder eine sekundäre Zuordnung zu verwandten Stellen wie einem Grafikdesigner oder einem Techniker für Informationssysteme. Webentwicklung im Allgemeinen kann eine Zusammenarbeit zwischen Abteilungen sein und nicht die Domäne einer bestimmten Abteilung. In der Regel werden fortgeschrittene Webprojekte von spezialisierten Vertragsunternehmen implementiert, die ihr Fachwissen nur auf die Entwicklung, Bereitstellung und Verwaltung von Websites oder Webdiensten (Webentwicklungsunternehmen) konzentrieren.
Es gibt drei Arten von Webentwickler-Spezialisierungen: Front-End-Entwickler, Back-End-Entwickler und Full-Stack-Entwickler. Front-End-Entwickler sind für das Verhalten und die Grafiken verantwortlich, die im Benutzerbrowser ausgeführt werden (mit Schwerpunkt auf clientseitig ausgeführtem HTML/CSS- und JavaScript-Code), während Back-End-Entwickler sich mit den Servern befassen (einschließlich der dynamischen Inhaltsgenerierung durch z. B. PHP-Scripting und Relationales MySQL-Datenbankverwaltungssystem (ein RDBMS). Full-Stack-Webentwickler ergänzen die Fähigkeiten dieser beiden Fachbereiche.
Die Webentwicklung ist auch ein kritisches Entwicklungsfeld für Internet-Technologien und allgemein für digitale Anwendungen. Das Programm der EITCA/WD Web Development Academy positioniert zertifizierte Personen als beglaubigte Experten für hochmoderne Webentwicklung, einschließlich der neuesten und bewährten Technologien und Tools für die Front-End- und Back-End-Entwicklung. Das EITCA/WD-Zertifikat bestätigt die beruflichen Kompetenzen im Bereich des Entwerfens, Erstellens und Verwaltens einfacher bis komplexer Webdienste (einschließlich E-Commerce).
Die EITCA/WD Web Development Academy ist ein Fortbildungs- und Zertifizierungsprogramm mit den referenzierten hochwertigen Open-Access-Inhalten, die in einem schrittweisen didaktischen Prozess organisiert sind und ausgewählt wurden, um den definierten Lehrplan angemessen zu adressieren. Graduiertenkolleg kombiniert mit digitalem Training auf Branchenebene und übertraf standardisierte Trainingsangebote in verschiedenen Bereichen der anwendbaren Webentwicklung, die auf dem Markt verfügbar sind. Der Inhalt des Zertifizierungsprogramms der EITCA Academy wird vom Europäischen Zertifizierungsinstitut für Informationstechnologien EITCI in Brüssel festgelegt und standardisiert. Dieses Programm wird aufgrund von Fortschritten in der Webentwicklung gemäß den Richtlinien des EITCI-Instituts fortlaufend aktualisiert und unterliegt regelmäßigen Akkreditierungen.
Das Programm der EITCA/WD Web Development Academy umfasst relevante EITC-Programme zur europäischen IT-Zertifizierung. Die Liste der EITC-Zertifizierungen, die im vollständigen Programm der EITCA/WD Web Development Academy gemäß den Spezifikationen des European Information Technologies Certification Institute EITCI enthalten sind, ist nachstehend aufgeführt. Sie können auf die entsprechenden EITC-Programme klicken, die in einer empfohlenen Reihenfolge aufgeführt sind, um sich einzeln für jedes EITC-Programm anzumelden (alternativ zur Anmeldung für das gesamte Programm der EITCA/WD Web Development Academy oben), um mit den einzelnen Lehrplänen fortzufahren und sich auf die entsprechenden EITC-Prüfungen vorzubereiten. Das Bestehen aller Prüfungen für alle EITC-Programme der Substituenten führt zum Abschluss des Programms der EITCA/WD Web Development Academy und zur Erteilung der entsprechenden EITCA Academy-Zertifizierung (ergänzt durch alle EITC-Zertifizierungen der Substituenten). Nach bestandener EITC-Prüfung erhalten Sie auch das entsprechende EITC-Zertifikat, bevor Sie die gesamte EITCA-Akademie abschließen.
EITCA/WD Web Development Academy Bestandteile der EITC-Programme
EITC/WD/WPF WordPress-Grundlagen
EITC/WD/WPF WordPress Fundamentals ist das europäische IT-Zertifizierungsprogramm für die Webentwicklung, das sich auf die Erstellung und Verwaltung von Websites in einem der beliebtesten und vielseitigsten Content-Management-Systeme - WordPress - konzentriert.
Der Lehrplan der EITC/WD/WPF-WordPress-Grundlagen konzentriert sich auf das Erstellen und Verwalten fortgeschrittener Websites mit dem Open-Source-Content-Management-System WordPress (das derzeit die Mehrheit der dynamischen Websites im Internet unterstützt), das in der folgenden Struktur organisiert ist und eine umfassende Videodidaktik umfasst Inhalt als Referenz für diese EITC-Zertifizierung.
WordPress ist ein kostenloses Open-Source-Content-Management-System (CMS), das in PHP geschrieben und mit einer MySQL- oder MariaDB-Datenbank gekoppelt ist. Zu den Funktionen gehören eine Plugin-Architektur und ein Vorlagensystem, das in WordPress als Themes bezeichnet wird. WordPress wurde ursprünglich als Blog-Publishing-System entwickelt, hat sich jedoch weiterentwickelt, um andere Webinhaltstypen zu unterstützen, darunter traditionellere Mailinglisten und Foren, Mediengalerien, Mitgliederseiten, Learning Management-Systeme (LMS) und Online-Shops. WordPress wird ab 40.5 von mehr als 10% der Top-2021-Millionen-Websites verwendet und ist eine der beliebtesten verwendeten Content-Management-Systemlösungen (dies entspricht der bestätigten Verwendung durch 64.5% aller Websites, deren Content-Management-System bekannt ist). .
WordPress wurde am 27. Mai 2003 von seinen Gründern, dem amerikanischen Entwickler Matt Mullenweg und dem englischen Entwickler Mike Little, als Gabel von b2/cafelog veröffentlicht. Die Software wird unter der GPLv2-Lizenz (oder höher) veröffentlicht.
Um zu funktionieren, muss WordPress auf einem Webserver installiert sein, entweder Teil eines Internet-Hosting-Dienstes wie WordPress.com oder auf einem Computer, auf dem das Softwarepaket WordPress.org ausgeführt wird, um als eigenständiger Netzwerk-Host zu dienen. Ein lokaler Computer kann für Einzelbenutzertests und Lernzwecke verwendet werden.
"WordPress ist eine Fabrik, die Webseiten erstellt" ist eine Kernanalogie zur Verdeutlichung der Funktionen von WordPress: Sie speichert Inhalte und ermöglicht es einem Benutzer, Webseiten zu erstellen und zu veröffentlichen, ohne dass eine Domain und ein Hosting-Service erforderlich sind.
WordPress verfügt über ein Web-Template-System, das einen Template-Prozessor verwendet. Die Architektur ist ein Front-Controller, der alle Anforderungen für nicht statische URIs an eine einzelne PHP-Datei weiterleitet, die den URI analysiert und die Zielseite identifiziert. Dies ermöglicht die Unterstützung von besser lesbaren Permalinks.
Zu den WordPress-Funktionen gehören:
- Themen: WordPress-Benutzer können verschiedene Themen installieren und zwischen diesen wechseln. Mithilfe von Designs können Benutzer das Aussehen und die Funktionalität einer WordPress-Website ändern, ohne den Kerncode oder den Inhalt der Website zu ändern. Für jede WordPress-Website muss mindestens ein Thema vorhanden sein, und jedes Thema sollte unter Verwendung von WordPress-Standards mit strukturiertem PHP, gültigem HTML (HyperText Markup Language) und Cascading Style Sheets (CSS) erstellt werden. Themen können direkt mit dem WordPress-Verwaltungstool "Darstellung" im Dashboard installiert werden, oder Themenordner können direkt über FTP in das Themenverzeichnis kopiert werden. PHP, HTML und CSS in Themen können direkt geändert werden, um das Verhalten von Themen zu ändern, oder ein Thema kann ein untergeordnetes Thema sein, das Einstellungen von einem anderen Thema erbt und Funktionen selektiv überschreibt. WordPress-Themes werden im Allgemeinen in zwei Kategorien eingeteilt: kostenlos und Premium. Viele kostenlose Themes sind im WordPress-Theme-Verzeichnis (auch als Repository bekannt) aufgeführt, und Premium-Themes können auf Marktplätzen und bei einzelnen WordPress-Entwicklern erworben werden. WordPress-Benutzer können auch ihre eigenen benutzerdefinierten Themen erstellen und entwickeln. Die von den WordPress-Entwicklern erstellten kostenlosen Unterstriche für Themen sind zu einer beliebten Grundlage für neue Themen geworden.
- Plugins: Mit der Plugin-Architektur von WordPress können Benutzer die Features und Funktionen einer Website oder eines Blogs erweitern. Ab Januar 2021 stehen auf WordPress.org 58,164 Plugins zur Verfügung, von denen jedes benutzerdefinierte Funktionen und Features bietet, mit denen Benutzer ihre Websites an ihre spezifischen Bedürfnisse anpassen können. Dies schließt jedoch nicht die verfügbaren Premium-Plugins ein (ca. 1,500+), die möglicherweise nicht im WordPress.org-Repository aufgeführt sind. Diese Anpassungen reichen von Suchmaschinenoptimierung (SEO) über Client-Portale zur Anzeige privater Informationen für angemeldete Benutzer, Content-Management-Systeme bis hin zu Funktionen zur Anzeige von Inhalten wie dem Hinzufügen von Widgets und Navigationsleisten. Nicht alle verfügbaren Plugins sind immer auf dem neuesten Stand der Upgrades und funktionieren daher möglicherweise nicht richtig oder überhaupt nicht. Die meisten Plugins sind über WordPress selbst verfügbar, entweder durch Herunterladen und manuelles Installieren der Dateien über FTP oder über das WordPress-Dashboard. Viele Drittanbieter bieten Plugins jedoch über ihre eigenen Websites an, von denen viele kostenpflichtige Pakete sind. Webentwickler, die Plugins entwickeln möchten, müssen das Hook-System von WordPress kennenlernen, das aus über 300 Hooks besteht, die in zwei Kategorien unterteilt sind: Action-Hooks und Filter-Hooks.
- Mobile Anwendungen: Telefon-Apps für WordPress gibt es für WebOS, Android, iOS (iPhone, iPod Touch, iPad), Windows Phone und BlackBerry. Diese von Automattic entwickelten Anwendungen bieten Optionen wie das Hinzufügen neuer Blog-Beiträge und -Seiten, das Kommentieren, Moderieren von Kommentaren und das Beantworten von Kommentaren sowie die Möglichkeit, die Statistiken anzuzeigen.
- Barrierefreiheit: Das WordPress Accessibility Team hat daran gearbeitet, die Barrierefreiheit für WordPress zu verbessern und eine eindeutige Identifizierung der barrierefreien Themen zu unterstützen. Das WordPress Accessibility Team bietet kontinuierliche Unterstützung in Bezug auf Barrierefreiheit im Internet und integratives Design. In den WordPress Accessibility Coding Standards heißt es: „Alle neuen oder aktualisierten Codes, die in WordPress veröffentlicht werden, müssen den Richtlinien für die Barrierefreiheit von Webinhalten 2.0 auf Stufe AA entsprechen.“
- Weitere Funktionen: WordPress bietet auch eine integrierte Linkverwaltung. eine suchmaschinenfreundliche, saubere Permalink-Struktur; die Fähigkeit, Posts mehrere Kategorien zuzuweisen; und Unterstützung für das Markieren von Posts. Es sind auch automatische Filter enthalten, die eine standardisierte Formatierung und Gestaltung von Text in Posts ermöglichen (z. B. Konvertieren von regulären Anführungszeichen in intelligente Anführungszeichen). WordPress unterstützt auch die Trackback- und Pingback-Standards für die Anzeige von Links zu anderen Websites, die selbst mit einem Beitrag oder Artikel verknüpft sind. WordPress-Beiträge können in HTML, mit dem visuellen Editor oder mit einem von mehreren Plugins bearbeitet werden, die eine Vielzahl von benutzerdefinierten Bearbeitungsfunktionen ermöglichen.
Vor Version 3 unterstützte WordPress ein Blog pro Installation, obwohl mehrere gleichzeitige Kopien aus verschiedenen Verzeichnissen ausgeführt werden können, wenn die Verwendung separater Datenbanktabellen konfiguriert ist. WordPress Multisites (früher als WordPress Multi-User, WordPress MU oder WPMU bezeichnet) war eine Abzweigung von WordPress, die erstellt wurde, um die Existenz mehrerer Blogs innerhalb einer Installation zu ermöglichen, die jedoch von einem zentralen Betreuer verwaltet werden kann. WordPress MU ermöglicht es denjenigen mit Websites, ihre eigenen Blogging-Communities zu hosten sowie alle Blogs über ein einziges Dashboard zu steuern und zu moderieren. WordPress MS fügt acht neue Datentabellen für jedes Blog hinzu. Seit der Veröffentlichung von WordPress 3 hat sich WordPress MU mit WordPress zusammengeschlossen.
Aus historischer Sicht war b2/cafelog, besser bekannt als b2 oder cafelog, der Vorläufer von WordPress. Es wurde geschätzt, dass der b2/cafelog im Mai 2,000 in ungefähr 2003 Blogs installiert wurde. Er wurde in PHP für die Verwendung mit MySQL von Michel Valdrighi geschrieben, der jetzt ein Entwickler von WordPress ist. Obwohl WordPress der offizielle Nachfolger ist, befindet sich ein weiteres Projekt, b2evolution, ebenfalls in der aktiven Entwicklung. WordPress erschien erstmals 2003 als gemeinsame Anstrengung von Matt Mullenweg und Mike Little, um eine Gabelung von b2 zu erstellen. Christine Selleck Tremoulet, eine Freundin von Mullenweg, schlug den Namen WordPress vor. Im Jahr 2004 wurden die Lizenzbedingungen für das konkurrierende Movable Type-Paket von Six Apart geändert, was dazu führte, dass viele der einflussreichsten Benutzer auf WordPress migrierten. Im Oktober 2009 kam der Open Source CMS MarketShare-Bericht zu dem Schluss, dass WordPress die größte Markenstärke aller Open Source-Content-Management-Systeme aufweist. Ab März 2021 wird WordPress von 64.5% aller Websites verwendet, deren Content-Management-System bekannt ist. Dies sind 40.5% der Top 10 Millionen Websites.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/WD/WPF WordPress Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/WD/EWP Elementor für WordPress
EITC/WD/EWP Elementor für WordPress ist das europäische IT-Zertifizierungsprogramm für Front-End-Webdesign im WordPress Content Management System, das auf Elementor, einem visuellen Webbuilder-Plugin, basiert.
Der Lehrplan des EITC/WD/EWP Elementor für WordPress konzentriert sich auf Kenntnisse und praktische Fähigkeiten in visuellen Webdesign-Techniken aus der Front-End-Perspektive, basierend auf dem WordPress CMS Elementor-Plugin, das in der folgenden Struktur organisiert ist und umfassende didaktische Videoinhalte als Referenz für WordPress enthält diese EITC-Zertifizierung.
Mit dem Elementor-Website-Builder können WordPress-Benutzer Websites mithilfe visueller Drag & Drop-Techniken mit integriertem Reaktionsmodus erstellen und bearbeiten. Neben einer Freemium-Version bietet Elementor auch eine Premium-Version seines WordPress-Website-Builders - Elementor Pro - an, die zusätzliche Funktionen und über 6 Add-Ons enthält. Ab 2021 ist Elementor ein führender visueller WordPress-Webbuilder, der in über 57 Sprachen verfügbar ist und mit über 5 Millionen aktiven Installationen weltweit das fünftbeliebteste WordPress-Plugin insgesamt ist. Es handelt sich um eine Open-Source-Plattform mit GPLv5-Lizenz, die schätzungsweise 3% der weltweit führenden 2.24M-Websites unterstützt.
Elementor ist ein visueller Web-Editor per Drag & Drop. Es gilt als einer der intuitivsten Editoren in WordPress. Einfach ziehen, ablegen und anpassen. Benutzer können aus über 300 individuell gestalteten Vorlagen auswählen, die für jede Branche und jeden Bedarf geeignet sind. Es bietet Dutzende von Widgets zum Erstellen von Inhalten auf Websites: Schaltflächen, Überschriften, Formulare usw. Es bietet auch eine integrierte reaktionsschnelle Bearbeitung, mit der Benutzer zur mobilen Ansicht wechseln und jedes Element optimieren können, damit es auf jedem Gerät perfekt aussieht. Es verfügt über einen Popup-Generator, mit dem Sie pixelgenaue Popups erstellen können, einschließlich erweiterter Targeting-Optionen. Ein Theme-Generator ist eine visuelle Anleitung für die Website-Erstellung und bietet sofortigen Zugriff auf jeden Site-Teil direkt im Editor. Es enthält auch den WooCommerce Builder, mit dem Sie die Kontrolle über den WooCommerce-Onlineshop übernehmen können, indem Sie die Leistung von Elementor nutzen.
Der Workflow des Elementor umfasst folgende Funktionen:
- Keine Codierung: Erreichen Sie High-End-Designs ohne Codierung. Der resultierende Seitencode ist kompakt und für jedes Gerät optimiert.
- Navigator: Navigieren Sie zwischen allen Seitenelementen oder Ebenen, sehen Sie sich schnell benutzerdefinierte Änderungen an und greifen Sie über Indikatoren einfach darauf zu
- Vollständiger Site-Editor: Entwerfen Sie Ihre gesamte Site von einem Ort aus, einschließlich Kopf- und Fußzeile sowie Inhalt.
- Finder: Eine Suchleiste, die eine einfache Navigation zwischen verschiedenen Seiten und Dashboard-Einstellungen bietet.
- Hotkeys: Hotkeys sind Tastaturkürzel, mit denen Sie Zeit sparen, wenn Sie verschiedene Aktionen ausführen.
- Shortcut Cheatsheet: Ein Fenster, das sich öffnet und Ihnen die vollständige Liste der Shortcuts anzeigt.
- Wiederherstellen rückgängig machen: Machen Sie Fehler mit einem einfachen STRG/CMD Z schnell rückgängig.
- Automatisch speichern: Sie müssen nicht mehr auf Speichern klicken. Ihre Arbeit wird kontinuierlich gespeichert und automatisch gesichert.
- Revisionsverlauf: Mit dem Revisionsverlauf wird Ihr gesamter Seitenerstellungsprozess gespeichert und kann einfach zurückverfolgt werden.
- Entwurfsmodus: Sie haben eine Seite veröffentlicht und möchten weiter daran arbeiten? Kein Problem, speichern Sie es einfach als Entwurf.
- Kopieren Einfügen: Kopieren Sie jedes Element schnell und fügen Sie es an einer anderen Stelle auf der Seite oder auf einer ganz anderen Seite Ihrer Site ein.
- Stil kopieren: Kopieren Sie den gesamten Stil aus einem Widget, einer Spalte oder einem Abschnitt und fügen Sie ihn mit einem Klick in ein anderes Element ein.
- Inline-Bearbeitung: Verwenden Sie die Inline-Bearbeitungsfunktion, um direkt auf dem Bildschirm zu tippen und das Schreiben von Blogposts und Inhalten zu einem einfachen und intuitiven Vorgang zu machen.
- Globales Widget: Speichern Sie Ihre bevorzugten Widget-Einstellungen und verwenden Sie das Widget auf jeder Seite mit einem einfachen Drag & Drop.
- Dunkler Modus: Mit der Elementor Dark Mode-Funktion können Sie in dunkleren Umgebungen entwerfen, sparen Strom und sind hervorragend für die Umgebung geeignet.
- Site-Einstellungen: Steuern Sie alle globalen Elemente Ihrer Site von einem praktischen Ort aus - einschließlich Site-Identität, Lightbox-Einstellungen, Layout und Themenstilen.
Die Designmerkmale des Elementor umfassen:
- Globale Schriftarten: Legen Sie Ihre Auswahl für alle Schriftarten auf Ihrer Site fest - von Titeln, Absätzen bis hin zu Schaltflächentext. Greifen Sie mit nur einem Klick auf sie zu und wenden Sie sie an, wo immer Sie möchten.
- Globale Farben: Definieren Sie das Designsystem Ihrer Site mit globalen Farben. Speichern Sie sie einmal und wenden Sie sie auf ein beliebiges Element auf Ihrer Site an.
- Globales benutzerdefiniertes CSS: Fügen Sie benutzerdefiniertes CSS global hinzu und wenden Sie es auf Ihrer gesamten Site an.
- Hintergrundverläufe: Mit Elementor können Sie jeder WordPress-Seite oder jedem WordPress-Beitrag ganz einfach Hintergrundverlaufsfarben hinzufügen.
- Hintergrundvideos: Erwecken Sie Ihren Hintergrund zum Leben, indem Sie Ihren Abschnitten interessante Hintergrundvideos hinzufügen.
- Hintergrundüberlagerung: Fügen Sie über Ihrem Hintergrund eine weitere Farb-, Farbverlaufs- oder Bildebene hinzu.
- Verbesserte Hintergrundbilder: Passen Sie reaktionsschnelle Hintergrundbilder pro Gerät an und legen Sie die benutzerdefinierte Position und Größe fest.
- Hintergrund-Diashow: Erstellen Sie eine Diashow und verwenden Sie sie als Hintergrund für jeden Abschnitt oder jede Spalte auf Ihrer Site.
- Elementor Canvas: Wechseln Sie zur Elementor Canvas-Vorlage und entwerfen Sie Ihre gesamte Zielseite in Elementor, ohne sich mit der Kopf- oder Fußzeile befassen zu müssen.
- Mischmodi: Mischen Sie Hintergründe und Hintergrundüberlagerungen, um spektakuläre Mischmodus-Effekte zu erzielen.
- CSS-Filter: Mithilfe von CSS-Filtern können Sie mit den Bildeinstellungen herumspielen und erstaunliche Effekte hinzufügen.
- Formteiler: Fügen Sie markante Formen hinzu, um die Abschnitte Ihrer Seite zu trennen. Heben Sie sie mit einer Vielzahl von SVG, Symbolen und Texten im Formteiler hervor.
- Box Shadow: Legen Sie benutzerdefinierte Box Shadows visuell fest, ohne sich mit CSS befassen zu müssen.
- Absolute Position: Verwenden Sie die absolute Position, um ein Widget unabhängig vom Raster an eine beliebige Stelle auf der Seite zu ziehen.
- Einseitige Websites: Erstellen Sie eine einseitige Website, die eine Navigation durch Klicken zum Scrollen sowie alle erforderlichen Abschnitte einer Website enthält.
- Bewegungseffekte: Fügen Sie Ihrer Site mithilfe von Bildlaufeffekten und Mauseffekten Interaktionen und Animationen hinzu.
- Symbolbibliothek: Laden Sie Tausende erstaunlicher Symbole hoch und durchsuchen Sie sie
- SVG-Symbole: Erstellen Sie intelligente, flexible und leichte Symbole in jeder Größe. Das Verhalten von SVG-Symbolen ermöglicht es ihnen, sehr anpassbar zu sein.
- Themenstil: Übernehmen Sie Ihr Design, einschließlich Überschrift, Schaltfläche, Formularfeld, Hintergrund und Bildstilen.
Die Anwendungsfälle von Elementor enthalten auch spezielle Marketingelemente wie:
- Landing Pages: Das Erstellen und Verwalten von Landing Pages war auf Ihrer aktuellen WordPress-Website noch nie so einfach.
- Formular-Widget: Auf Wiedersehen Backend! Erstellen Sie alle Ihre Formulare live direkt im Elementor-Editor.
- Popup Builder: Mit Popup Builder können Sie pixelgenaue Popups erstellen, einschließlich erweiterter Targeting-Optionen
- Testimonial-Karussell-Widget: Steigern Sie den sozialen Beweis Ihres Unternehmens, indem Sie ein rotierendes Testimonial-Karussell Ihrer unterstützendsten Kunden hinzufügen.
- Countdown-Widget: Erhöhen Sie das Gefühl der Dringlichkeit, indem Sie Ihrem Angebot einen Countdown-Timer hinzufügen.
- Rating Star Widget: Fügen Sie Ihrer Website einen sozialen Beweis hinzu, indem Sie eine Sternebewertung hinzufügen und nach Ihren Wünschen gestalten.
- Mehrschrittformular: Mit der Mehrschrittfunktion können Sie Ihr Formular in Schritte aufteilen, um eine bessere Benutzererfahrung und höhere Conversion-Raten zu erzielen.
- Aktionslinks: Stellen Sie über WhatsApp, Waze, Google Kalender und weitere Apps ganz einfach eine Verbindung zu Ihrem Publikum her
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/WD/EWP Elementor for WordPress Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITCA/AI Akademie für künstliche Intelligenz
Die EITCA/AI Artificial Intelligence Academy ist ein in der EU ansässiger, international anerkannter Standard für die Bescheinigung von Fachwissen, der theoretisches Wissen und praktische Fähigkeiten auf dem Gebiet der KI umfasst.
Der Lehrplan der EITCA/AI Artificial Intelligence Academy umfasst Fachkompetenzen in den Bereichen Google Cloud Machine Learning, Google Vision API, TensorFlow-Grundlagen, Maschinelles Lernen mit Python, Deep Learning mit TensorFlow, Python, Keras und PyTorch, Advanced und Reinforced Deep Learning , Quantum Artificial Intelligence und Quantum TensorFlow zusammen mit Cirq sowie Grundlagen der Google Cloud Platform- und Python-Programmierung.
Durch die Erlangung der Zertifizierung der EITCA/AI Artificial Intelligence Academy wird der Erwerb von Kenntnissen und das Bestehen der Abschlussprüfungen aller EITC-Programme (Substituent European IT Certification) bestätigt, die den vollständigen Lehrplan der EITCA/AI Artificial Intelligence Academy bilden (auch separat als einzelne EITC-Zertifizierungen erhältlich).
KI ist eine der wichtigsten, befähigenden und prospektivsten Anwendungen von Informationstechnologien, die erhebliche Auswirkungen auf die moderne Wirtschaft und Gesellschaft haben, die zunehmend digitalisiert werden. Die KI hat sich erst in den letzten Jahren weiterentwickelt. Die meisten Bereiche sozialer und wirtschaftlicher Aktivitäten sind bereits stark betroffen, angefangen von der intelligenten Suche nach Informationen über die Übersetzung, Optimierung komplexer Prozesse und das Angebot verschiedener unterstützender Technologien (z. B. autonomes Fahren, Cybersicherheit usw.) bis hin zu intelligenten Geräten im Fortschritt Internet der Dinge und Robotik. Es ist mit Sicherheit eine der prospektivsten und befähigendsten Richtungen in der gesamten technologischen Entwicklung.
Künstliche Intelligenz ist auch in vielen Bereichen digitaler Anwendungen ein kritisches Forschungsfeld für Informationstechnologien für die Zukunft. Das Programm der EITCA/AI Artificial Intelligence Academy positioniert zertifizierte Personen als attestierte Experten für hochmoderne KI, einschließlich der neuesten und nachgewiesenen erfolgreichen Bereiche des maschinellen Lernens. Das EITCA/AI-Zertifikat bestätigt die beruflichen Kompetenzen im Bereich der technischen Entwicklung und Anwendung von AI-Systemen auf reale Probleme und Szenarien.
Die EITCA/AI Artificial Intelligence Academy ist ein Fortbildungs- und Zertifizierungsprogramm mit den referenzierten hochwertigen Open-Access-umfangreichen didaktischen Inhalten, die in einem schrittweisen didaktischen Prozess organisiert werden und ausgewählt werden, um den definierten Lehrplan angemessen zu adressieren. Graduiertenkolleg kombiniert mit digitalem Training auf Branchenebene und übertraf standardisierte Trainingsangebote in verschiedenen auf dem Markt verfügbaren Bereichen der anwendbaren künstlichen Intelligenz. Der Inhalt des Zertifizierungsprogramms der EITCA Academy wird vom European Information Technologies Certification Institute EITCI in Brüssel festgelegt und standardisiert. Dieses Programm wird aufgrund der Weiterentwicklung der KI gemäß den Richtlinien des EITCI-Instituts fortlaufend aktualisiert und unterliegt regelmäßigen Akkreditierungen.
Das Programm der EITCA/AI Artificial Intelligence Academy umfasst relevante EITC-Programme zur europäischen IT-Zertifizierung. Die Liste der EITC-Zertifizierungen, die im vollständigen Programm der EITCA/AI Artificial Intelligence Academy gemäß den Spezifikationen des European Information Technologies Certification Institute EITCI enthalten sind, ist nachstehend aufgeführt. Sie können auf die entsprechenden EITC-Programme klicken, die in einer empfohlenen Reihenfolge aufgeführt sind, um sich für jedes EITC-Programm einzeln anzumelden (alternativ zur Anmeldung für das gesamte oben genannte Programm der EITCA/AI Artificial Intelligence Academy), um mit den einzelnen Lehrplänen fortzufahren und sich auf die entsprechenden EITC-Prüfungen vorzubereiten. Das Bestehen aller Prüfungen für alle EITC-Programme der Substituenten führt zum Abschluss des Programms der EITCA/AI Artificial Intelligence Academy und zur Erteilung der entsprechenden EITCA Academy-Zertifizierung (ergänzt durch alle EITC-Zertifizierungen der Substituenten). Nach bestandener EITC-Prüfung erhalten Sie auch das entsprechende EITC-Zertifikat, bevor Sie die gesamte EITCA-Akademie abschließen.
EITCA/AI Artificial Intelligence Academy Bestandteile der EITC-Programme
EITC/AI/ARL Advanced Reinforced Learning
EITC/AI/ARL Advanced Reinforced Learning ist das europäische IT-Zertifizierungsprogramm zum DeepMind-Ansatz für verstärktes Lernen in künstlicher Intelligenz.
Der Lehrplan des EITC/AI/ARL Advanced Reinforced Learning konzentriert sich auf theoretische Aspekte und praktische Fähigkeiten in verstärkten Lerntechniken aus der Sicht von DeepMind, die in der folgenden Struktur organisiert sind und umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfassen.
Reinforcement Learning (RL) ist ein Bereich des maschinellen Lernens, in dem es darum geht, wie intelligente Agenten in einer Umgebung Maßnahmen ergreifen sollten, um den Begriff der kumulativen Belohnung zu maximieren. Reinforcement Learning ist neben überwachtem und unbeaufsichtigtem Lernen eines von drei grundlegenden Paradigmen des maschinellen Lernens.
Das Reinforcement-Lernen unterscheidet sich vom überwachten Lernen darin, dass keine gekennzeichneten Eingabe/Ausgabe-Paare präsentiert werden müssen und keine suboptimalen Aktionen explizit korrigiert werden müssen. Stattdessen liegt der Schwerpunkt auf der Suche nach einem Gleichgewicht zwischen Exploration (Neuland) und Ausbeutung (nach aktuellem Kenntnisstand).
Die Umgebung wird typischerweise in Form eines Markov-Entscheidungsprozesses (MDP) angegeben, da viele Verstärkungslernalgorithmen für diesen Kontext dynamische Programmiertechniken verwenden. Der Hauptunterschied zwischen den klassischen dynamischen Programmiermethoden und den Verstärkungslernalgorithmen besteht darin, dass letztere keine Kenntnis eines genauen mathematischen Modells des MDP voraussetzen und auf große MDPs abzielen, bei denen genaue Methoden nicht mehr durchführbar sind.
Aufgrund seiner Allgemeinheit wird das verstärkte Lernen in vielen Disziplinen untersucht, wie z. B. Spieltheorie, Steuerungstheorie, Operationsforschung, Informationstheorie, simulationsbasierte Optimierung, Multiagentensysteme, Schwarmintelligenz und Statistik. In der Literatur zu Operations Research und Control wird das verstärkte Lernen als ungefähre dynamische Programmierung oder neurodynamische Programmierung bezeichnet. Die Probleme, die für das verstärkte Lernen von Interesse sind, wurden auch in der Theorie der optimalen Steuerung untersucht, die sich hauptsächlich mit der Existenz und Charakterisierung optimaler Lösungen und Algorithmen für ihre genaue Berechnung befasst, und weniger mit dem Lernen oder der Annäherung, insbesondere in Abwesenheit von ein mathematisches Modell der Umwelt. In der Wirtschafts- und Spieltheorie kann das verstärkte Lernen verwendet werden, um zu erklären, wie unter begrenzter Rationalität ein Gleichgewicht entstehen kann.
Die grundlegende Verstärkung wird als Markov-Entscheidungsprozess (MDP) modelliert. In der Mathematik ist ein Markov-Entscheidungsprozess (MDP) ein zeitdiskreter stochastischer Steuerungsprozess. Es bietet einen mathematischen Rahmen für die Modellierung der Entscheidungsfindung in Situationen, in denen die Ergebnisse teilweise zufällig sind und teilweise von einem Entscheidungsträger kontrolliert werden. MDPs sind nützlich, um Optimierungsprobleme zu untersuchen, die durch dynamische Programmierung gelöst werden. MDPs waren mindestens bereits in den 1950er Jahren bekannt. Ein Kern der Forschung zu Markov-Entscheidungsprozessen ergab sich aus Ronald Howards 1960er Buch Dynamic Programming and Markov Processes. Sie werden in vielen Disziplinen eingesetzt, darunter Robotik, automatische Steuerung, Wirtschaftlichkeit und Fertigung. Der Name MDPs stammt vom russischen Mathematiker Andrey Markov, da sie eine Erweiterung der Markov-Ketten sind.
Zu jedem Zeitschritt befindet sich der Prozess in einem Zustand S, und der Entscheidungsträger kann eine beliebige Aktion a auswählen, die in Zustand S verfügbar ist. Der Prozess reagiert beim nächsten Zeitschritt, indem er zufällig in einen neuen Zustand S 'übergeht und die gibt Entscheider eine entsprechende Belohnung Ra (S, S ').
Die Wahrscheinlichkeit, dass der Prozess in seinen neuen Zustand S 'übergeht, wird durch die gewählte Aktion a beeinflusst. Insbesondere ist es durch die Zustandsübergangsfunktion Pa (S, S ') gegeben. Somit hängt der nächste Zustand S 'vom aktuellen Zustand S und der Aktion des Entscheidungsträgers a ab. Bei gegebenem S und a ist es jedoch bedingt unabhängig von allen vorherigen Zuständen und Handlungen. Mit anderen Worten, die Zustandsübergänge eines MDP erfüllen die Markov-Eigenschaft.
Markov-Entscheidungsprozesse sind eine Erweiterung der Markov-Ketten. Der Unterschied besteht in der Hinzufügung von Aktionen (Auswahlmöglichkeiten) und Belohnungen (Motivation). Wenn umgekehrt für jeden Zustand nur eine Aktion vorhanden ist (z. B. „Warten“) und alle Belohnungen gleich sind (z. B. „Null“), wird ein Markov-Entscheidungsprozess auf eine Markov-Kette reduziert.
Ein Verstärkungslernmittel interagiert in diskreten Zeitschritten mit seiner Umgebung. Zu jedem Zeitpunkt t erhält der Agent den aktuellen Zustand S (t) und die Belohnung r (t). Anschließend wählt es aus den verfügbaren Aktionen eine Aktion a (t) aus, die anschließend an die Umgebung gesendet wird. Die Umgebung bewegt sich in einen neuen Zustand S (t + 1) und die mit dem Übergang verbundene Belohnung r (t + 1) wird bestimmt. Das Ziel eines Verstärkungslernagenten ist es, eine Richtlinie zu lernen, die die erwartete kumulative Belohnung maximiert.
Bei der Formulierung des Problems als MDP wird davon ausgegangen, dass der Agent den aktuellen Umgebungszustand direkt beobachtet. In diesem Fall soll das Problem vollständig beobachtbar sein. Wenn der Agent nur Zugriff auf eine Teilmenge von Zuständen hat oder wenn die beobachteten Zustände durch Rauschen verfälscht sind, wird der Agent als teilweise beobachtbar bezeichnet, und formal muss das Problem als teilweise beobachtbarer Markov-Entscheidungsprozess formuliert werden. In beiden Fällen kann der dem Agenten zur Verfügung stehende Aktionssatz eingeschränkt werden. Beispielsweise könnte der Status eines Kontostands auf positiv beschränkt werden. Wenn der aktuelle Wert des Zustands 3 ist und der Zustandsübergang versucht, den Wert um 4 zu verringern, ist der Übergang nicht zulässig.
Wenn die Leistung des Agenten mit der eines Agenten verglichen wird, der optimal handelt, führt der Leistungsunterschied zu dem Gedanken des Bedauerns. Um nahezu optimal zu handeln, muss der Agent über die langfristigen Konsequenzen seiner Handlungen nachdenken (dh das zukünftige Einkommen maximieren), obwohl die damit verbundene unmittelbare Belohnung negativ sein kann.
Daher ist das verstärkte Lernen besonders gut für Probleme geeignet, die einen langfristigen oder einen kurzfristigen Kompromiss zwischen Belohnungen beinhalten. Es wurde erfolgreich auf verschiedene Probleme angewendet, einschließlich Robotersteuerung, Aufzugsplanung, Telekommunikation, Backgammon, Kontrolleure und Go (AlphaGo).
Zwei Elemente machen das Lernen zur Verstärkung leistungsfähig: die Verwendung von Stichproben zur Optimierung der Leistung und die Verwendung der Funktionsnäherung zur Bewältigung großer Umgebungen. Dank dieser beiden Schlüsselkomponenten kann das verstärkte Lernen in großen Umgebungen in den folgenden Situationen eingesetzt werden:
- Ein Modell der Umgebung ist bekannt, eine analytische Lösung ist jedoch nicht verfügbar.
- Es wird nur ein Simulationsmodell der Umgebung angegeben (Gegenstand der simulationsbasierten Optimierung).
- Die einzige Möglichkeit, Informationen über die Umgebung zu sammeln, besteht darin, mit ihr zu interagieren.
Die ersten beiden dieser Probleme könnten als Planungsprobleme angesehen werden (da irgendeine Form von Modell verfügbar ist), während das letzte als echtes Lernproblem angesehen werden könnte. Durch das verstärkte Lernen werden jedoch beide Planungsprobleme in Probleme des maschinellen Lernens umgewandelt.
Der Kompromiss zwischen Exploration und Exploitation wurde am gründlichsten anhand des Problems der mehrarmigen Banditen und für MDPs im endlichen Staatsraum in Burnetas und Katehakis (1997) untersucht.
Verstärkungslernen erfordert clevere Erkundungsmechanismen. Die zufällige Auswahl von Aktionen ohne Bezugnahme auf eine geschätzte Wahrscheinlichkeitsverteilung zeigt eine schlechte Leistung. Der Fall von (kleinen) endlichen Markov-Entscheidungsprozessen ist relativ gut verstanden. Aufgrund des Fehlens von Algorithmen, die sich gut mit der Anzahl der Zustände skalieren lassen (oder auf Probleme mit unendlichen Zustandsräumen skalieren lassen), sind einfache Erkundungsmethoden am praktischsten.
Selbst wenn das Thema Exploration nicht berücksichtigt wird und selbst wenn der Staat beobachtbar war, bleibt das Problem, die Erfahrungen der Vergangenheit zu nutzen, um herauszufinden, welche Maßnahmen zu höheren kumulativen Belohnungen führen.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/AI/ARL Advanced Reinforced Learning Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/AI/ADL Advanced Deep Learning
EITC/AI/ADL Advanced Deep Learning ist das europäische IT-Zertifizierungsprogramm für den Ansatz von Google DeepMind zum fortgeschrittenen Deep Learning für künstliche Intelligenz.
Der Lehrplan des EITC/AI/ADL Advanced Deep Learning konzentriert sich auf theoretische Aspekte und praktische Fähigkeiten in fortgeschrittenen Deep Learning-Techniken aus der Sicht von Google DeepMind, die in der folgenden Struktur organisiert sind und umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfassen.
Deep Learning (auch als Deep Structured Learning bezeichnet) gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit Repräsentationslernen basieren. Das Lernen kann überwacht, halbüberwacht oder unbeaufsichtigt sein. Deep-Learning-Architekturen wie tiefe neuronale Netze, tiefe Glaubensnetzwerke, wiederkehrende neuronale Netze und Faltungs-neuronale Netze wurden auf Bereiche wie Computer Vision, Machine Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Audioerkennung, Filterung sozialer Netzwerke, maschinelle Übersetzung und Bioinformatik angewendet , Medikamentendesign, medizinische Bildanalyse, Materialinspektion und Brettspielprogramme, bei denen Ergebnisse erzielt wurden, die mit der Leistung von Experten vergleichbar sind und diese in einigen Fällen sogar übertreffen.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/AI/ADL Advanced Deep Learning Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
EITC/AI/TFF TensorFlow-Grundlagen
EITC/AI/TFF TensorFlow Fundamentals ist das europäische IT-Zertifizierungsprogramm in der Google TensorFlow-Bibliothek für maschinelles Lernen, das die Programmierung künstlicher Intelligenz ermöglicht.
Der Lehrplan der EITC/AI/TFF TensorFlow Fundamentals konzentriert sich auf die theoretischen Aspekte und praktischen Fähigkeiten bei der Verwendung der TensorFlow-Bibliothek, die in der folgenden Struktur organisiert sind, und umfasst umfassende didaktische Videoinhalte als Referenz für diese EITC-Zertifizierung.
TensorFlow ist eine kostenlose Open-Source-Softwarebibliothek für maschinelles Lernen. Es kann für eine Reihe von Aufgaben verwendet werden, hat jedoch einen besonderen Schwerpunkt auf dem Training und der Schlussfolgerung tiefer neuronaler Netze. Es ist eine symbolische Mathematikbibliothek, die auf Datenfluss und differenzierbarer Programmierung basiert. Es wird sowohl für Forschung als auch für Produktion bei Google verwendet.
Ab 2011 hat Google Brain DistBelief als proprietäres maschinelles Lernsystem entwickelt, das auf Deep-Learning-Neuronalen Netzen basiert. Seine Verwendung nahm in verschiedenen Alphabet-Unternehmen sowohl in der Forschung als auch in kommerziellen Anwendungen rasch zu. Google beauftragte mehrere Informatiker, darunter Jeff Dean, die Codebasis von DistBelief zu vereinfachen und in eine schnellere, robustere Bibliothek für Anwendungen umzuwandeln, aus der TensorFlow wurde. Im Jahr 2009 hatte das Team unter der Leitung von Geoffrey Hinton eine allgemeine Backpropagation und andere Verbesserungen implementiert, die die Erzeugung neuronaler Netze mit wesentlich höherer Genauigkeit ermöglichten, beispielsweise eine Reduzierung der Spracherkennungsfehler um 25%.
TensorFlow ist das System der zweiten Generation von Google Brain. Die Version 1.0.0 wurde am 11. Februar 2017 veröffentlicht. Während die Referenzimplementierung auf einzelnen Geräten ausgeführt wird, kann TensorFlow auf mehreren CPUs und GPUs ausgeführt werden (mit optionalen CUDA- und SYCL-Erweiterungen für Allzweck-Computing auf Grafikprozessoren). TensorFlow ist auf 64-Bit-Linux-, MacOS-, Windows- und Mobile-Computing-Plattformen einschließlich Android und iOS verfügbar. Die flexible Architektur ermöglicht die einfache Bereitstellung von Berechnungen auf einer Vielzahl von Plattformen (CPUs, GPUs, TPUs) und von Desktops über Cluster von Servern bis hin zu Mobil- und Edge-Geräten. TensorFlow-Berechnungen werden als zustandsbehaftete Datenflussdiagramme ausgedrückt. Der Name TensorFlow leitet sich von den Operationen ab, die solche neuronalen Netze an mehrdimensionalen Datenarrays ausführen, die als Tensoren bezeichnet werden. Während der Google I/O-Konferenz im Juni 2016 gab Jeff Dean an, dass 1,500 Repositories auf GitHub TensorFlow erwähnten, von denen nur 5 von Google stammten. Im Dezember 2017 stellten Entwickler von Google, Cisco, RedHat, CoreOS und CaiCloud Kubeflow auf einer Konferenz vor. Kubeflow ermöglicht den Betrieb und die Bereitstellung von TensorFlow auf Kubernetes. Im März 2018 kündigte Google TensorFlow.js Version 1.0 für maschinelles Lernen in JavaScript an. Im Januar 2019 kündigte Google TensorFlow 2.0 an. Es wurde im September 2019 offiziell verfügbar. Im Mai 2019 kündigte Google TensorFlow Graphics für tiefes Lernen in Computergrafik an.
Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.
Das EITC/AI/TFF TensorFlow Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.
- 1
- 2