×
1 Wählen Sie EITC/EITCA-Zertifikate
2 Online-Prüfungen lernen und ablegen
3 Lassen Sie sich Ihre IT-Kenntnisse zertifizieren

Bestätigen Sie Ihre IT-Fähigkeiten und -Kompetenzen im Rahmen des europäischen IT-Zertifizierungsrahmens von überall auf der Welt vollständig online.

EITCA-Akademie

Zertifizierungsstandard für digitale Fähigkeiten des European IT Certification Institute mit dem Ziel, die Entwicklung der digitalen Gesellschaft zu unterstützen

Melden Sie sich entweder mit Ihrem Benutzernamen oder Ihrer E-Mail-Adresse bei Ihrem Konto an

EIN KONTO ERSTELLEN PASSWORT VERGESSEN?

VERGESSEN SIE IHRE DETAILS?

AAH, warten, ich erinnere mich jetzt!

EIN KONTO ERSTELLEN

HAST DU SCHON EIN KONTO?
EUROPÄISCHE ZERTIFIZIERUNGSAKADEMIE FÜR IT - BESCHEINIGUNG IHRER PROFESSIONELLEN DIGITALEN FÄHIGKEITEN
  • ANMELDEN
  • ANMELDEN
  • INFOS

EITCA-Akademie

EITCA-Akademie

Das European Information Technologies Certification Institute - EITCI ASBL

Zertifizierungsstelle

EITCI Institut

Brüssel, Europäische Union

Anwendung des europäischen Standards für die IT-Zertifizierung (EITC) zur Unterstützung der IT-Professionalität und der Digital Society

  • ZERTIFIKATE
    • EITCA-AKADEMIEN
      • EITCA ACADEMIES KATALOG<
      • EITCA/CG COMPUTERGRAFIKEN
      • EITCA/IST INFORMATIONSSICHERHEIT
      • EITCA/BI-GESCHÄFTSINFORMATIONEN
      • EITCA/KC-SCHLÜSSELKOMPETENZEN
      • EITCA/EG E-REGIERUNG
      • EITCA/WD-WEBENTWICKLUNG
      • EITCA/AI KÜNSTLICHE INTELLIGENZ
    • EITC-ZERTIFIKATE
      • EITC-ZERTIFIKATSKATALOG<
      • COMPUTERGRAFIK-ZERTIFIKATE
      • WEBDESIGN-ZERTIFIKATE
      • 3D-DESIGN-ZERTIFIKATE
      • BÜRO IT-ZERTIFIKATE
      • BITCOIN BLOCKCHAIN-ZERTIFIKAT
      • WORDPRESS-ZERTIFIKAT
      • CLOUD-PLATTFORM-ZERTIFIKATNEUES
    • EITC-ZERTIFIKATE
      • INTERNET-ZERTIFIKATE
      • CRYPTOGRAPHY-ZERTIFIKATE
      • BUSINESS IT-ZERTIFIKATE
      • TELEWORK-ZERTIFIKATE
      • PROGRAMMIERZERTIFIKATE
      • DIGITAL PORTRAIT ZERTIFIKAT
      • ZERTIFIKATE FÜR DIE WEBENTWICKLUNG
      • TIEFE LERNZERTIFIKATENEUES
    • ZERTIFIKATE FÜR
      • ÖFFENTLICHE VERWALTUNG DER EU
      • LEHRER UND BILDER
      • IT-SICHERHEITSPROFIS
      • GRAFIKDESIGNER & KÜNSTLER
      • GESCHÄFTSFÜHRER UND MANAGER
      • BLOCKCHAIN ​​ENTWICKLER
      • WEB-ENTWICKLER
      • CLOUD AI EXPERTENNEUES
  • EMPFOHLEN
  • SUBVENTION
  • WIE FUNKTIONIERT ES?
  •   IT ID
  • ABOUT
  • KONTAKT
  • MEINE BESTELLUNGEN
    Ihre aktuelle Bestellung ist leer.
EITCIINSTITUTE
CERTIFIED

EITC/AI/ARL Advanced Reinforced Learning

Sonntag, 07 Februar 2021 by Administrator

EITC/AI/ARL Advanced Reinforced Learning ist das europäische IT-Zertifizierungsprogramm zum DeepMind-Ansatz für verstärktes Lernen in künstlicher Intelligenz.

Der Lehrplan des EITC/AI/ARL Advanced Reinforced Learning konzentriert sich auf theoretische Aspekte und praktische Fähigkeiten in verstärkten Lerntechniken aus der Sicht von DeepMind, die in der folgenden Struktur organisiert sind und umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfassen.

Reinforcement Learning (RL) ist ein Bereich des maschinellen Lernens, in dem es darum geht, wie intelligente Agenten in einer Umgebung Maßnahmen ergreifen sollten, um den Begriff der kumulativen Belohnung zu maximieren. Reinforcement Learning ist neben überwachtem und unbeaufsichtigtem Lernen eines von drei grundlegenden Paradigmen des maschinellen Lernens.

Das Reinforcement-Lernen unterscheidet sich vom überwachten Lernen darin, dass keine gekennzeichneten Eingabe/Ausgabe-Paare präsentiert werden müssen und keine suboptimalen Aktionen explizit korrigiert werden müssen. Stattdessen liegt der Schwerpunkt auf der Suche nach einem Gleichgewicht zwischen Exploration (Neuland) und Ausbeutung (nach aktuellem Kenntnisstand).

Die Umgebung wird typischerweise in Form eines Markov-Entscheidungsprozesses (MDP) angegeben, da viele Verstärkungslernalgorithmen für diesen Kontext dynamische Programmiertechniken verwenden. Der Hauptunterschied zwischen den klassischen dynamischen Programmiermethoden und den Verstärkungslernalgorithmen besteht darin, dass letztere keine Kenntnis eines genauen mathematischen Modells des MDP voraussetzen und auf große MDPs abzielen, bei denen genaue Methoden nicht mehr durchführbar sind.

Aufgrund seiner Allgemeinheit wird das verstärkte Lernen in vielen Disziplinen untersucht, wie z. B. Spieltheorie, Steuerungstheorie, Operationsforschung, Informationstheorie, simulationsbasierte Optimierung, Multiagentensysteme, Schwarmintelligenz und Statistik. In der Literatur zu Operations Research und Control wird das verstärkte Lernen als ungefähre dynamische Programmierung oder neurodynamische Programmierung bezeichnet. Die Probleme, die für das verstärkte Lernen von Interesse sind, wurden auch in der Theorie der optimalen Steuerung untersucht, die sich hauptsächlich mit der Existenz und Charakterisierung optimaler Lösungen und Algorithmen für ihre genaue Berechnung befasst, und weniger mit dem Lernen oder der Annäherung, insbesondere in Abwesenheit von ein mathematisches Modell der Umwelt. In der Wirtschafts- und Spieltheorie kann das verstärkte Lernen verwendet werden, um zu erklären, wie unter begrenzter Rationalität ein Gleichgewicht entstehen kann.

Die grundlegende Verstärkung wird als Markov-Entscheidungsprozess (MDP) modelliert. In der Mathematik ist ein Markov-Entscheidungsprozess (MDP) ein zeitdiskreter stochastischer Steuerungsprozess. Es bietet einen mathematischen Rahmen für die Modellierung der Entscheidungsfindung in Situationen, in denen die Ergebnisse teilweise zufällig sind und teilweise von einem Entscheidungsträger kontrolliert werden. MDPs sind nützlich, um Optimierungsprobleme zu untersuchen, die durch dynamische Programmierung gelöst werden. MDPs waren mindestens bereits in den 1950er Jahren bekannt. Ein Kern der Forschung zu Markov-Entscheidungsprozessen ergab sich aus Ronald Howards 1960er Buch Dynamic Programming and Markov Processes. Sie werden in vielen Disziplinen eingesetzt, darunter Robotik, automatische Steuerung, Wirtschaftlichkeit und Fertigung. Der Name MDPs stammt vom russischen Mathematiker Andrey Markov, da sie eine Erweiterung der Markov-Ketten sind.

Zu jedem Zeitschritt befindet sich der Prozess in einem Zustand S, und der Entscheidungsträger kann eine beliebige Aktion a auswählen, die in Zustand S verfügbar ist. Der Prozess reagiert beim nächsten Zeitschritt, indem er zufällig in einen neuen Zustand S 'übergeht und die gibt Entscheider eine entsprechende Belohnung Ra (S, S ').

Die Wahrscheinlichkeit, dass der Prozess in seinen neuen Zustand S 'übergeht, wird durch die gewählte Aktion a beeinflusst. Insbesondere ist es durch die Zustandsübergangsfunktion Pa (S, S ') gegeben. Somit hängt der nächste Zustand S 'vom aktuellen Zustand S und der Aktion des Entscheidungsträgers a ab. Bei gegebenem S und a ist es jedoch bedingt unabhängig von allen vorherigen Zuständen und Handlungen. Mit anderen Worten, die Zustandsübergänge eines MDP erfüllen die Markov-Eigenschaft.

Markov-Entscheidungsprozesse sind eine Erweiterung der Markov-Ketten. Der Unterschied besteht in der Hinzufügung von Aktionen (Auswahlmöglichkeiten) und Belohnungen (Motivation). Wenn umgekehrt für jeden Zustand nur eine Aktion vorhanden ist (z. B. „Warten“) und alle Belohnungen gleich sind (z. B. „Null“), wird ein Markov-Entscheidungsprozess auf eine Markov-Kette reduziert.

Ein Verstärkungslernmittel interagiert in diskreten Zeitschritten mit seiner Umgebung. Zu jedem Zeitpunkt t erhält der Agent den aktuellen Zustand S (t) und die Belohnung r (t). Anschließend wählt es aus den verfügbaren Aktionen eine Aktion a (t) aus, die anschließend an die Umgebung gesendet wird. Die Umgebung bewegt sich in einen neuen Zustand S (t + 1) und die mit dem Übergang verbundene Belohnung r (t + 1) wird bestimmt. Das Ziel eines Verstärkungslernagenten ist es, eine Richtlinie zu lernen, die die erwartete kumulative Belohnung maximiert.

Bei der Formulierung des Problems als MDP wird davon ausgegangen, dass der Agent den aktuellen Umgebungszustand direkt beobachtet. In diesem Fall soll das Problem vollständig beobachtbar sein. Wenn der Agent nur Zugriff auf eine Teilmenge von Zuständen hat oder wenn die beobachteten Zustände durch Rauschen verfälscht sind, wird der Agent als teilweise beobachtbar bezeichnet, und formal muss das Problem als teilweise beobachtbarer Markov-Entscheidungsprozess formuliert werden. In beiden Fällen kann der dem Agenten zur Verfügung stehende Aktionssatz eingeschränkt werden. Beispielsweise könnte der Status eines Kontostands auf positiv beschränkt werden. Wenn der aktuelle Wert des Zustands 3 ist und der Zustandsübergang versucht, den Wert um 4 zu verringern, ist der Übergang nicht zulässig.

Wenn die Leistung des Agenten mit der eines Agenten verglichen wird, der optimal handelt, führt der Leistungsunterschied zu dem Gedanken des Bedauerns. Um nahezu optimal zu handeln, muss der Agent über die langfristigen Konsequenzen seiner Handlungen nachdenken (dh das zukünftige Einkommen maximieren), obwohl die damit verbundene unmittelbare Belohnung negativ sein kann.

Daher ist das verstärkte Lernen besonders gut für Probleme geeignet, die einen langfristigen oder einen kurzfristigen Kompromiss zwischen Belohnungen beinhalten. Es wurde erfolgreich auf verschiedene Probleme angewendet, einschließlich Robotersteuerung, Aufzugsplanung, Telekommunikation, Backgammon, Kontrolleure und Go (AlphaGo).

Zwei Elemente machen das Lernen zur Verstärkung leistungsfähig: die Verwendung von Stichproben zur Optimierung der Leistung und die Verwendung der Funktionsnäherung zur Bewältigung großer Umgebungen. Dank dieser beiden Schlüsselkomponenten kann das verstärkte Lernen in großen Umgebungen in den folgenden Situationen eingesetzt werden:

  • Ein Modell der Umgebung ist bekannt, eine analytische Lösung ist jedoch nicht verfügbar.
  • Es wird nur ein Simulationsmodell der Umgebung angegeben (Gegenstand der simulationsbasierten Optimierung).
  • Die einzige Möglichkeit, Informationen über die Umgebung zu sammeln, besteht darin, mit ihr zu interagieren.

Die ersten beiden dieser Probleme könnten als Planungsprobleme angesehen werden (da irgendeine Form von Modell verfügbar ist), während das letzte als echtes Lernproblem angesehen werden könnte. Durch das verstärkte Lernen werden jedoch beide Planungsprobleme in Probleme des maschinellen Lernens umgewandelt.

Der Kompromiss zwischen Exploration und Exploitation wurde am gründlichsten anhand des Problems der mehrarmigen Banditen und für MDPs im endlichen Staatsraum in Burnetas und Katehakis (1997) untersucht.

Verstärkungslernen erfordert clevere Erkundungsmechanismen. Die zufällige Auswahl von Aktionen ohne Bezugnahme auf eine geschätzte Wahrscheinlichkeitsverteilung zeigt eine schlechte Leistung. Der Fall von (kleinen) endlichen Markov-Entscheidungsprozessen ist relativ gut verstanden. Aufgrund des Fehlens von Algorithmen, die sich gut mit der Anzahl der Zustände skalieren lassen (oder auf Probleme mit unendlichen Zustandsräumen skalieren lassen), sind einfache Erkundungsmethoden am praktischsten.

Selbst wenn das Thema Exploration nicht berücksichtigt wird und selbst wenn der Staat beobachtbar war, bleibt das Problem, die Erfahrungen der Vergangenheit zu nutzen, um herauszufinden, welche Maßnahmen zu höheren kumulativen Belohnungen führen.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/ARL Advanced Reinforced Learning Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/ADL Advanced Deep Learning

Sonntag, 07 Februar 2021 by Administrator

EITC/AI/ADL Advanced Deep Learning ist das europäische IT-Zertifizierungsprogramm für den Ansatz von Google DeepMind zum fortgeschrittenen Deep Learning für künstliche Intelligenz.

Der Lehrplan des EITC/AI/ADL Advanced Deep Learning konzentriert sich auf theoretische Aspekte und praktische Fähigkeiten in fortgeschrittenen Deep Learning-Techniken aus der Sicht von Google DeepMind, die in der folgenden Struktur organisiert sind und umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfassen.

Deep Learning (auch als Deep Structured Learning bezeichnet) gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit Repräsentationslernen basieren. Das Lernen kann überwacht, halbüberwacht oder unbeaufsichtigt sein. Deep-Learning-Architekturen wie tiefe neuronale Netze, tiefe Glaubensnetzwerke, wiederkehrende neuronale Netze und Faltungs-neuronale Netze wurden auf Bereiche wie Computer Vision, Machine Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Audioerkennung, Filterung sozialer Netzwerke, maschinelle Übersetzung und Bioinformatik angewendet , Medikamentendesign, medizinische Bildanalyse, Materialinspektion und Brettspielprogramme, bei denen Ergebnisse erzielt wurden, die mit der Leistung von Experten vergleichbar sind und diese in einigen Fällen sogar übertreffen.

Künstliche neuronale Netze (ANNs) wurden von der Informationsverarbeitung und verteilten Kommunikationsknoten in biologischen Systemen inspiriert. Das Adjektiv „tief“ im tiefen Lernen bezieht sich auf die Verwendung mehrerer Schichten im Netzwerk. Frühe Arbeiten zeigten, dass ein lineares Perzeptron kein universeller Klassifikator sein kann, und dass dies auch ein Netzwerk mit einer nichtpolynomiellen Aktivierungsfunktion mit einer verborgenen Schicht unbegrenzter Breite sein kann. Deep Learning ist eine moderne Variante, die sich mit einer unbegrenzten Anzahl von Schichten begrenzter Größe befasst, die eine praktische Anwendung und eine optimierte Implementierung ermöglicht und gleichzeitig die theoretische Universalität unter milden Bedingungen beibehält. Beim Deep Learning dürfen die Schichten auch heterogen sein und aus Gründen der Effizienz, Trainingsfähigkeit und Verständlichkeit stark von biologisch informierten verbindungsorientierten Modellen abweichen, woher der „strukturierte“ Teil stammt.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/ADL Advanced Deep Learning Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/TFF TensorFlow-Grundlagen

Samstag, 06 Februar 2021 by Administrator

EITC/AI/TFF TensorFlow Fundamentals ist das europäische IT-Zertifizierungsprogramm in der Google TensorFlow-Bibliothek für maschinelles Lernen, das die Programmierung künstlicher Intelligenz ermöglicht.

Der Lehrplan der EITC/AI/TFF TensorFlow Fundamentals konzentriert sich auf die theoretischen Aspekte und praktischen Fähigkeiten bei der Verwendung der TensorFlow-Bibliothek, die in der folgenden Struktur organisiert sind, und umfasst umfassende didaktische Videoinhalte als Referenz für diese EITC-Zertifizierung.

TensorFlow ist eine kostenlose Open-Source-Softwarebibliothek für maschinelles Lernen. Es kann für eine Reihe von Aufgaben verwendet werden, hat jedoch einen besonderen Schwerpunkt auf dem Training und der Schlussfolgerung tiefer neuronaler Netze. Es ist eine symbolische Mathematikbibliothek, die auf Datenfluss und differenzierbarer Programmierung basiert. Es wird sowohl für Forschung als auch für Produktion bei Google verwendet.

TensorFlow wurde vom Google Brain-Team für den internen Google-Gebrauch entwickelt. Es wurde unter der Apache License 2.0 im Jahr 2015 veröffentlicht.

Ab 2011 hat Google Brain DistBelief als proprietäres maschinelles Lernsystem entwickelt, das auf Deep-Learning-Neuronalen Netzen basiert. Seine Verwendung nahm in verschiedenen Alphabet-Unternehmen sowohl in der Forschung als auch in kommerziellen Anwendungen rasch zu. Google beauftragte mehrere Informatiker, darunter Jeff Dean, die Codebasis von DistBelief zu vereinfachen und in eine schnellere, robustere Bibliothek für Anwendungen umzuwandeln, aus der TensorFlow wurde. Im Jahr 2009 hatte das Team unter der Leitung von Geoffrey Hinton eine allgemeine Backpropagation und andere Verbesserungen implementiert, die die Erzeugung neuronaler Netze mit wesentlich höherer Genauigkeit ermöglichten, beispielsweise eine Reduzierung der Spracherkennungsfehler um 25%.

TensorFlow ist das System der zweiten Generation von Google Brain. Die Version 1.0.0 wurde am 11. Februar 2017 veröffentlicht. Während die Referenzimplementierung auf einzelnen Geräten ausgeführt wird, kann TensorFlow auf mehreren CPUs und GPUs ausgeführt werden (mit optionalen CUDA- und SYCL-Erweiterungen für Allzweck-Computing auf Grafikprozessoren). TensorFlow ist auf 64-Bit-Linux-, MacOS-, Windows- und Mobile-Computing-Plattformen einschließlich Android und iOS verfügbar. Die flexible Architektur ermöglicht die einfache Bereitstellung von Berechnungen auf einer Vielzahl von Plattformen (CPUs, GPUs, TPUs) und von Desktops über Cluster von Servern bis hin zu Mobil- und Edge-Geräten. TensorFlow-Berechnungen werden als zustandsbehaftete Datenflussdiagramme ausgedrückt. Der Name TensorFlow leitet sich von den Operationen ab, die solche neuronalen Netze an mehrdimensionalen Datenarrays ausführen, die als Tensoren bezeichnet werden. Während der Google I/O-Konferenz im Juni 2016 gab Jeff Dean an, dass 1,500 Repositories auf GitHub TensorFlow erwähnten, von denen nur 5 von Google stammten. Im Dezember 2017 stellten Entwickler von Google, Cisco, RedHat, CoreOS und CaiCloud Kubeflow auf einer Konferenz vor. Kubeflow ermöglicht den Betrieb und die Bereitstellung von TensorFlow auf Kubernetes. Im März 2018 kündigte Google TensorFlow.js Version 1.0 für maschinelles Lernen in JavaScript an. Im Januar 2019 kündigte Google TensorFlow 2.0 an. Es wurde im September 2019 offiziell verfügbar. Im Mai 2019 kündigte Google TensorFlow Graphics für tiefes Lernen in Computergrafik an.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/TFF TensorFlow Fundamentals Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/TFQML TensorFlow Quantum Machine Learning

Freitag, 05 Februar 2021 by Administrator

EITC/AI/TFQML TensorFlow Quantum Machine Learning ist das europäische IT-Zertifizierungsprogramm zur Verwendung der Google TensorFlow Quantum-Bibliothek zur Implementierung von maschinellem Lernen in der Google Quantum Processor Sycamore-Architektur.

Das Curriculum des TensorFlow Quantum Machine Learning von EITC/AI/TFQML konzentriert sich auf theoretisches Wissen und praktische Fähigkeiten bei der Verwendung der TensorFlow Quantum-Bibliothek von Google für fortgeschrittenes quantenberechnungsmodellbasiertes maschinelles Lernen auf der Google Quantum Processor Sycamore-Architektur, die in der folgenden Struktur organisiert ist und ein umfassendes Video umfasst didaktischer Inhalt als Referenz für diese EITC-Zertifizierung.

TensorFlow Quantum (TFQ) ist eine Bibliothek für maschinelles Quantenlernen zum schnellen Prototyping von hybriden quantenklassischen ML-Modellen. Die Erforschung von Quantenalgorithmen und -anwendungen kann die Quantencomputer-Frameworks von Google nutzen, die alle aus TensorFlow stammen.

TensorFlow Quantum konzentriert sich auf Quantendaten und den Aufbau hybrider quantenklassischer Modelle. Es integriert Quantencomputeralgorithmen und -logik, die in Cirq (Quantenprogrammierungsframework basierend auf dem Quantenschaltungsmodell) entwickelt wurden, und bietet Quantencomputerprimitive, die mit vorhandenen TensorFlow-APIs kompatibel sind, sowie leistungsstarke Quantenschaltungssimulatoren. Lesen Sie mehr im TensorFlow Quantum Whitepaper.

Quantencomputer sind die Verwendung von Quantenphänomenen wie Überlagerung und Verschränkung zur Durchführung von Berechnungen. Computer, die Quantenberechnungen durchführen, werden als Quantencomputer bezeichnet. Es wird angenommen, dass Quantencomputer bestimmte Rechenprobleme wie die Ganzzahlfaktorisierung (die der RSA-Verschlüsselung zugrunde liegt) wesentlich schneller lösen können als klassische Computer. Das Studium des Quantencomputers ist ein Teilgebiet der Quanteninformationswissenschaft.

Das Quantencomputing begann in den frühen 1980er Jahren, als der Physiker Paul Benioff ein quantenmechanisches Modell der Turing-Maschine vorschlug. Richard Feynman und Yuri Manin schlugen später vor, dass ein Quantencomputer das Potenzial habe, Dinge zu simulieren, die ein klassischer Computer nicht könnte. 1994 entwickelte Peter Shor einen Quantenalgorithmus zum Faktorisieren von ganzen Zahlen, der das Potenzial hatte, RSA-verschlüsselte Kommunikation zu entschlüsseln. Trotz des anhaltenden experimentellen Fortschritts seit Ende der neunziger Jahre glauben die meisten Forscher, dass "fehlertolerantes Quantencomputing immer noch ein weit entfernter Traum ist". In den letzten Jahren haben die Investitionen in die Quantencomputerforschung sowohl im öffentlichen als auch im privaten Sektor zugenommen. Am 1990. Oktober 23 gab Google AI in Zusammenarbeit mit der US-amerikanischen National Aeronautics and Space Administration (NASA) an, eine Quantenberechnung durchgeführt zu haben, die auf keinem klassischen Computer möglich ist (sogenanntes Quantenüberlegenheitsergebnis).

Es gibt verschiedene Modelle von Quantencomputern (oder vielmehr Quantencomputersystemen), einschließlich des Quantenschaltungsmodells, der Quanten-Turing-Maschine, des adiabatischen Quantencomputers, des Einweg-Quantencomputers und verschiedener quantenzellulärer Automaten. Das am weitesten verbreitete Modell ist die Quantenschaltung. Quantenschaltungen basieren auf dem Quantenbit oder "Qubit", das dem Bit in der klassischen Berechnung etwas analog ist. Qubits können sich in einem 1- oder 0-Quantenzustand befinden oder sie können sich in einer Überlagerung der 1- und 0-Zustände befinden. Wenn jedoch Qubits gemessen werden, ist das Ergebnis der Messung immer entweder eine 0 oder eine 1; Die Wahrscheinlichkeiten dieser beiden Ergebnisse hängen vom Quantenzustand ab, in dem sich die Qubits unmittelbar vor der Messung befanden.

Die Fortschritte beim Aufbau eines physikalischen Quantencomputers konzentrieren sich auf Technologien wie Transmons, Ionenfallen und topologische Quantencomputer, die darauf abzielen, qualitativ hochwertige Qubits zu erzeugen. Diese Qubits können abhängig vom Rechenmodell des vollständigen Quantencomputers unterschiedlich ausgelegt sein, unabhängig davon, ob es sich um Quantenlogikgatter, Quantenglühen oder adiabatische Quantenberechnung handelt. Derzeit gibt es eine Reihe bedeutender Hindernisse beim Aufbau nützlicher Quantencomputer. Insbesondere ist es schwierig, die Quantenzustände von Qubits aufrechtzuerhalten, da sie unter Quantendekohärenz und Zustandstreue leiden. Quantencomputer erfordern daher eine Fehlerkorrektur. Jedes Rechenproblem, das mit einem klassischen Computer gelöst werden kann, kann auch mit einem Quantencomputer gelöst werden. Umgekehrt kann jedes Problem, das von einem Quantencomputer gelöst werden kann, auch von einem klassischen Computer gelöst werden, zumindest im Prinzip, wenn genügend Zeit zur Verfügung steht. Mit anderen Worten, Quantencomputer gehorchen der Church-Turing-These. Während dies bedeutet, dass Quantencomputer keine zusätzlichen Vorteile gegenüber klassischen Computern hinsichtlich der Berechenbarkeit bieten, weisen Quantenalgorithmen für bestimmte Probleme eine erheblich geringere Zeitkomplexität auf als entsprechende bekannte klassische Algorithmen. Insbesondere wird angenommen, dass Quantencomputer in der Lage sind, bestimmte Probleme, die kein klassischer Computer in einer realisierbaren Zeitspanne lösen kann, schnell zu lösen - eine Leistung, die als „Quantenüberlegenheit“ bekannt ist. Die Untersuchung der rechnerischen Komplexität von Problemen in Bezug auf Quantencomputer ist als Quantenkomplexitätstheorie bekannt.

Google Sycamore ist ein Quantenprozessor, der von der Abteilung für künstliche Intelligenz von Google Inc. entwickelt wurde. Es umfasst 53 Qubits.

Im Jahr 2019 erledigte Sycamore eine Aufgabe in 200 Sekunden, von der Google in einem Nature-Artikel behauptete, dass die Fertigstellung eines hochmodernen Supercomputers 10,000 Jahre dauern würde. So behauptete Google, die Quantenüberlegenheit erreicht zu haben. Um die Zeit abzuschätzen, die ein klassischer Supercomputer benötigen würde, hat Google Teile der Quantenschaltungssimulation auf dem Summit, dem leistungsstärksten klassischen Computer der Welt, ausgeführt. Später machte IBM ein Gegenargument und behauptete, dass die Aufgabe auf einem klassischen System wie Summit nur 2.5 Tage dauern würde. Wenn die Behauptungen von Google bestätigt werden, würde dies einen exponentiellen Sprung in der Rechenleistung bedeuten.

Im August 2020 berichteten Quanteningenieure, die für Google arbeiteten, über die größte chemische Simulation auf einem Quantencomputer - eine Hartree-Fock-Näherung mit Sycamore in Kombination mit einem klassischen Computer, der die Ergebnisse analysierte, um neue Parameter für das 12-Qubit-System bereitzustellen.

Im Dezember 2020 erreichte der von USTC entwickelte chinesische photonenbasierte Jiuzhang-Prozessor eine Verarbeitungsleistung von 76 Qubits und war 10 Milliarden Mal schneller als Sycamore. Damit war er der zweite Computer, der die Quantenüberlegenheit erlangte.

Das Quantum Artificial Intelligence Lab (auch Quantum AI Lab oder QuAIL genannt) ist eine gemeinsame Initiative der NASA, der Universities Space Research Association und von Google (insbesondere Google Research), deren Ziel es ist, Pionierarbeit zu leisten, wie Quantencomputer beim maschinellen Lernen helfen können und andere schwierige Informatikprobleme. Das Labor befindet sich im Ames Research Center der NASA.

Das Quantum AI Lab wurde von Google Research am 16. Mai 2013 in einem Blogbeitrag angekündigt. Zum Zeitpunkt des Starts verwendete das Lab den fortschrittlichsten kommerziell erhältlichen Quantencomputer, D-Wave Two von D-Wave Systems.

Am 20. Mai 2013 wurde bekannt gegeben, dass sich Personen für die Nutzung der Zeit auf der D-Wave Two im Labor bewerben können. Am 10. Oktober 2013 veröffentlichte Google einen Kurzfilm, der den aktuellen Stand des Quantum AI Lab beschreibt. Am 18. Oktober 2013 gab Google bekannt, dass es die Quantenphysik in Minecraft integriert hat.

Im Januar 2014 berichtete Google über Ergebnisse, in denen die Leistung des D-Wave Two im Labor mit der von klassischen Computern verglichen wurde. Die Ergebnisse waren nicht eindeutig und lösten im Internet heftige Diskussionen aus. Am 2. September 2014 wurde bekannt gegeben, dass das Quantum AI Lab in Zusammenarbeit mit der UC Santa Barbara eine Initiative zur Schaffung von Quanteninformationsprozessoren auf der Basis supraleitender Elektronik starten wird.

Am 23. Oktober 2019 gab das Quantum AI Lab in einem Papier bekannt, dass es die Quantenüberlegenheit erreicht hat.

Google AI Quantum treibt das Quantencomputing voran, indem es Quantenprozessoren und neuartige Quantenalgorithmen entwickelt, mit denen Forscher und Entwickler kurzfristige Probleme sowohl theoretisch als auch praktisch lösen können.

Quantum Computing soll bei der Entwicklung der Innovationen von morgen, einschließlich der KI, helfen. Aus diesem Grund setzt Google erhebliche Ressourcen für den Aufbau dedizierter Quantenhardware und -software ein.

Quantum Computing ist ein neues Paradigma, das eine große Rolle bei der Beschleunigung von Aufgaben für die KI spielen wird. Google möchte Forschern und Entwicklern Zugriff auf Open Source-Frameworks und Rechenleistung bieten, die über die klassischen Rechenfunktionen hinausgehen können.

Die Hauptschwerpunkte von Google AI Quantum sind

  • Supraleitende Qubit-Prozessoren: Supraleitende Qubits mit chipbasierter skalierbarer Architektur für einen Zwei-Qubit-Gate-Fehler <0.5%.
  • Qubit-Metrologie: Die Reduzierung des Zwei-Qubit-Verlusts unter 0.2% ist für die Fehlerkorrektur von entscheidender Bedeutung. Wir arbeiten an einem Quantenüberlegenheitsexperiment, um eine Quantenschaltung zu testen, die über die Fähigkeiten moderner klassischer Computer und Algorithmen hinausgeht.
  • Quantensimulation: Die Simulation physikalischer Systeme gehört zu den am meisten erwarteten Anwendungen des Quantencomputers. Wir konzentrieren uns insbesondere auf Quantenalgorithmen zur Modellierung von Systemen wechselwirkender Elektronen mit Anwendungen in Chemie und Materialwissenschaften.
  • Quantenunterstützte Optimierung: Wir entwickeln hybride quantenklassische Löser für die ungefähre Optimierung. Thermische Sprünge in klassischen Algorithmen zur Überwindung von Energiebarrieren könnten durch Aufrufen von Quantenaktualisierungen verbessert werden. Wir sind insbesondere an einem kohärenten Bevölkerungsaustausch interessiert.
  • Quantenneurale Netze: Wir entwickeln ein Framework zur Implementierung eines quantenneuralen Netzes auf Kurzzeitprozessoren. Wir sind daran interessiert zu verstehen, welche Vorteile sich aus der Erzeugung massiver Überlagerungszustände während des Betriebs des Netzwerks ergeben können.

Die wichtigsten von Google AI Quantum entwickelten Tools sind Open-Source-Frameworks, die speziell für die Entwicklung neuartiger Quantenalgorithmen entwickelt wurden, um kurzfristige Anwendungen für praktische Probleme zu lösen. Diese schließen ein:

  • Cirq: Ein Open-Source-Quanten-Framework zum Erstellen und Experimentieren mit verrauschten NISQ-Algorithmen (Intermediate Scale Quantum) auf kurzfristigen Quantenprozessoren
  • OpenFermion: Eine Open-Source-Plattform zur Übersetzung von Problemen in Chemie und Materialwissenschaften in Quantenschaltungen, die auf vorhandenen Plattformen ausgeführt werden können

Zu den kurzfristigen Anwendungen von Google AI Quantum gehören:

Quantensimulation

Das Design neuer Materialien und die Aufklärung komplexer Physik durch genaue Simulationen von Chemie- und Kondensationsmodellen gehören zu den vielversprechendsten Anwendungen des Quantencomputers.

Techniken zur Fehlerminderung

Wir arbeiten an der Entwicklung von Methoden auf dem Weg zur vollständigen Quantenfehlerkorrektur, mit denen das Rauschen in aktuellen Geräten drastisch reduziert werden kann. Während fehlertolerantes Quantencomputing in vollem Umfang erhebliche Entwicklungen erfordern kann, haben wir die Quantum-Subraum-Expansionstechnik entwickelt, um Techniken aus der Quantenfehlerkorrektur zu nutzen und die Leistung von Anwendungen auf kurzfristigen Geräten zu verbessern. Darüber hinaus erleichtern diese Techniken das Testen komplexer Quantencodes auf kurzfristigen Geräten. Wir treiben diese Techniken aktiv in neue Bereiche und nutzen sie als Grundlage für die Gestaltung kurzfristiger Experimente.

Quantenmaschinelles Lernen

Wir entwickeln hybride quantenklassische Techniken des maschinellen Lernens auf kurzfristigen Quantengeräten. Wir untersuchen das universelle Lernen von Quantenschaltungen zur Klassifizierung und Clusterbildung von Quanten- und klassischen Daten. Wir sind auch an generativen und diskriminativen quantenneuralen Netzen interessiert, die als Quantenwiederholer und Zustandsreinigungseinheiten innerhalb von Quantenkommunikationsnetzen oder zur Verifizierung anderer Quantenschaltungen verwendet werden könnten.

Quantenoptimierung

Diskrete Optimierungen in der Luft- und Raumfahrt, in der Automobilindustrie und in anderen Branchen können von einer hybriden quantenklassischen Optimierung profitieren, z. B. simuliertes Tempern, quantenunterstützter Optimierungsalgorithmus (QAOA) und quantenverstärkter Populationstransfer können bei heutigen Prozessoren von Nutzen sein.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/TFQML TensorFlow Quantum Machine Learning Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

Grundlagen der EITC/CP/PPF-Python-Programmierung

Freitag, 05 Februar 2021 by Administrator

EITC/CP/PPF Python Programming Fundamentals ist das europäische IT-Zertifizierungsprogramm zu den Grundlagen der Programmierung in Python-Sprache.

Das Curriculum der EITC/CP/PPF-Grundlagen der Python-Programmierung konzentriert sich auf praktische Fähigkeiten. Die Python-Programmierung ist in der folgenden Struktur organisiert und umfasst umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung.

Python ist eine interpretierte Programmiersprache auf hoher Ebene und für allgemeine Zwecke. Die Designphilosophie von Python betont die Lesbarkeit von Code durch die bemerkenswerte Verwendung von signifikanten Leerzeichen. Seine Sprachkonstrukte und sein objektorientierter Ansatz sollen Programmierern helfen, klaren, logischen Code für kleine und große Projekte zu schreiben. Python wird aufgrund seiner umfassenden Standardbibliothek häufig als "Batterie enthalten" -Sprache bezeichnet. Python wird häufig in Projekten mit künstlicher Intelligenz und Projekten für maschinelles Lernen mit Hilfe von Bibliotheken wie TensorFlow, Keras, Pytorch und Scikit-learn verwendet.

Python ist dynamisch typisiert (zur Laufzeit werden viele gängige Programmierverhaltensweisen ausgeführt, die statische Programmiersprachen während der Kompilierung ausführen) und müllsammelt (mit automatischer Speicherverwaltung). Es unterstützt mehrere Programmierparadigmen, einschließlich strukturierter (insbesondere prozeduraler), objektorientierter und funktionaler Programmierung. Es wurde Ende der 1980er Jahre erstellt und 1991 von Guido van Rossum als Nachfolger der Programmiersprache ABC erstmals veröffentlicht. Python 2.0, das im Jahr 2000 veröffentlicht wurde, führte neue Funktionen wie Listenverständnis und ein Garbage Collection-System mit Referenzzählung ein und wurde mit Version 2.7 im Jahr 2020 eingestellt. Python 3.0, das im Jahr 2008 veröffentlicht wurde, war eine wichtige Überarbeitung der jeweiligen Sprache Nicht vollständig abwärtskompatibel und viel Python 2-Code wird unter Python 3 nicht unverändert ausgeführt. Mit dem Ende der Lebensdauer von Python 2 (und Pip, das die Unterstützung im Jahr 2021 eingestellt hat) wird nur Python 3.6.x und höher unterstützt, wobei ältere Versionen noch vorhanden sind Unterstützung zB Windows 7 (und alte Installationsprogramme, die nicht auf 64-Bit-Windows beschränkt sind).

Python-Interpreter werden für Mainstream-Betriebssysteme unterstützt und sind für einige weitere verfügbar (und haben in der Vergangenheit viele weitere unterstützt). Eine globale Community von Programmierern entwickelt und pflegt CPython, eine kostenlose Open-Source-Referenzimplementierung. Die Python Software Foundation, eine gemeinnützige Organisation, verwaltet und leitet Ressourcen für die Python- und CPython-Entwicklung.

Ab Januar 2021 belegt Python nach T und BE den dritten Platz im TIOBE-Index der beliebtesten Programmiersprachen, nachdem es zuvor den zweiten Platz und die Auszeichnung für den beliebtesten Gewinn für 2020 erhalten hatte. 2007 und 2010 wurde es zur Programmiersprache des Jahres gewählt und 2018.

Eine empirische Studie ergab, dass Skriptsprachen wie Python für Programmierprobleme bei der Manipulation von Zeichenfolgen und der Suche in einem Wörterbuch produktiver sind als herkömmliche Sprachen wie C und Java, und stellte fest, dass der Speicherverbrauch häufig „besser als Java und nicht“ ist viel schlimmer als C oder C ++ ”. Zu den großen Organisationen, die Python verwenden, gehören ua Wikipedia, Google, Yahoo! CERN, NASA, Facebook, Amazon, Instagram.

Neben seinen Anwendungen für künstliche Intelligenz wird Python als Skriptsprache mit modularer Architektur, einfacher Syntax und Rich-Text-Verarbeitungswerkzeugen häufig für die Verarbeitung natürlicher Sprache verwendet.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/CP/PPF-Zertifizierungsprogramm für Grundlagen der Python-Programmierung verweist auf frei zugängliche didaktische Materialien in Videoform von Harrison Kinsley. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/GVAPI Google Vision API

Freitag, 05 Februar 2021 by Administrator

EITC/AI/GVAPI Google Vision API ist das europäische IT-Zertifizierungsprogramm zur Verwendung der Vision-API für künstliche Intelligenz von Google Cloud für vorab geschultes Bildverständnis.

Das Curriculum der EITC/AI/GVAPI-Google Vision-API konzentriert sich auf praktische Fähigkeiten bei der Verwendung von Google Vision API-Diensten (Application Programming Interface) zur automatischen Bildanalyse mit maschinellem Lernen, die in der folgenden Struktur organisiert sind und umfassende didaktische Videoinhalte als Referenz für diese EITC-Zertifizierung umfassen .

Die Google Vision API ist ein Bildanalysedienst der Google Cloud Platform, der auf vorab geschultem und kontinuierlich weiterentwickeltem maschinellem Lernen mit anspruchsvollen Implementierungen von Deep Learning basiert. Es ist einer der branchenführenden Standards für Genauigkeit beim Verständnis von Bildern mit künstlicher Intelligenz. Das auf die EITC/AI/GVAPI-Google Vision-API bezogene Curriculum konzentriert sich auf die Arbeit mit Vision AI in Python über die Vision API von Google Cloud, einen leistungsstarken AI Cloud-Dienst, der vorab geschulte und ständig weiterentwickelte Modelle für maschinelles Lernen bietet. Mit der Vision AI können Aufgaben zum Verständnis visueller Daten ausgeführt werden, z. B. das Zuweisen von Beschriftungen zu Bildern, um große Bilddatenbanken zu organisieren, empfohlene Scheitelpunkte zu beschneiden, berühmte Landschaften oder Orte zu erkennen, Texte zu extrahieren und viele andere Dinge.

Google Cloud bietet zwei Computer Vision-Dienste (gemeinsam als Vision AI bezeichnet) an, die maschinelles Lernen verwenden, um Bilder und Videos mit hoher Vorhersagegenauigkeit zu verstehen, z. B. AutoML Vision und die Vision-API. Die AutoML Vision automatisiert das Training der benutzerdefinierten Modelle für maschinelles Lernen. Es ermöglicht das Hochladen von Bildern und das Trainieren von benutzerdefinierten Bildmodellen mit einer benutzerfreundlichen grafischen Oberfläche. Optimieren Sie die Modelle hinsichtlich Genauigkeit, Latenz und Größe und exportieren Sie sie in eine beliebige Anwendung in der Cloud oder in eine Reihe von Geräten am Rande. Auf der anderen Seite bietet die Vision-API von Google Cloud leistungsstarke vorgefertigte Modelle für maschinelles Lernen über REST-APIs (Representational State Transfer) und RPC-APIs (Remote Procedure Call), mit denen Bilder beschriftet und schnell in Millionen vordefinierter Kategorien eingeteilt werden. Erkennen von Objekten und Gesichtern, Lesen von gedrucktem und handgeschriebenem Text und Erstellen wertvoller Metadaten in Bildkatalogen. Sie können daher AutoML Vision verwenden, um Erkenntnisse aus Bildern in der Cloud oder am Rand abzuleiten, oder die vorgefertigten Vision API-Modelle verwenden, um Emotionen zu erkennen, Text aus visuellen Daten zu verstehen und vieles mehr.

Mit der Vision API von Google Cloud ist Folgendes möglich:

  • Objekte erkennen: Erkennen Sie Objekte, wo sie sich befinden und wie viele.
  • Vision-Produktsuche aktivieren: Vergleichen Sie Fotos mit Bildern in Ihrem Produktkatalog und geben Sie eine Rangliste ähnlicher Artikel zurück.
  • Erkennen von gedrucktem und handgeschriebenem Text: Verwenden Sie OCR und identifizieren Sie die Sprache automatisch.
  • Gesichter erkennen: Gesichter und Gesichtsattribute erkennen. (Gesichtserkennung wird nicht unterstützt.)
  • Beliebte Orte und Produktlogos identifizieren: Identifizieren Sie automatisch bekannte Sehenswürdigkeiten und Produktlogos.
  • Allgemeine Bildattribute zuweisen: Ermitteln Sie allgemeine Attribute und entsprechende Zuschnitthinweise.
  • Web-Entitäten und -Seiten erkennen: Suchen Sie nach Nachrichtenereignissen, Logos und ähnlichen Bildern im Web.
  • Moderater Inhalt: Erkennen Sie explizite Inhalte (Erwachsene, Gewalttätige usw.) in Bildern.
  • Promi-Erkennung: Identifizieren Sie Promi-Gesichter in Bildern (eingeschränkter Zugriff, siehe Dokumentation).
  • Klassifizieren von Bildern mithilfe vordefinierter Beschriftungen: Vorab trainierte Modelle nutzen umfangreiche Bibliotheken vordefinierter Beschriftungen.
  • Verwenden Sie den Datenbeschriftungsdienst von Google: Google kann Sie beim Kommentieren von Bildern, Videos und Text unterstützen.
  • APIs verwenden: Verwenden Sie REST- und RPC-APIs.

Die möglichen Anwendungsfälle für Vision API sind unzählig.

Mithilfe der Vision-API können Sie beispielsweise die Vision-Produktsuche implementieren, mit der Ihre Kunden Produkte von Interesse in Bildern finden und Produktkataloge visuell durchsuchen können (Bildsuche, automatisch bestimmte ähnliche Produkte usw.).

Das obige Video erklärt, wie Googles Cloud AutoML Vision KI zur Analyse von Bildern verwendet.

Ein Doppel-KI-System, das eng mit der vorab geschulten und ständig aktualisierten Google Vision-API verbunden ist, ist Google AutoML Vision, mit dem Unternehmen ihre eigenen Modelle für maschinelles Lernen und benutzerdefinierte Schulungen für die Unterstützung der künstlichen Intelligenz bei der Analyse und dem Verständnis von Visionen verwenden können. Es ist Teil der maschinellen Lernsuite von Google Cloud und soll Entwicklern mit begrenzter Erfahrung im Bereich maschinelles Lernen dabei helfen, benutzerdefinierte Bildverarbeitungsmodelle für ihre spezifischen Anwendungsfälle zu trainieren. AI-Entwickler, die On-Demand-Zugriff auf das allgemeine vorab geschulte Modell benötigen, sollten die Google Vision-API verwenden.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/GVAPI Google Vision API Certification Curriculum verweist auf Open-Access-Lehrmaterialien in Videoform. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/DLTF Deep Learning mit TensorFlow

Mittwoch, 03 Februar 2021 by Administrator

EITC/AI/DLTF Deep Learning mit TensorFlow ist das europäische IT-Zertifizierungsprogramm zu den Grundlagen der Programmierung von Deep Learning in Python mit der Google TensorFlow-Bibliothek für maschinelles Lernen.

Der Lehrplan des EITC/AI/DLTF-Deep-Learning mit TensorFlow konzentriert sich auf praktische Fähigkeiten im Deep-Learning-Python-Programmieren mit der Google TensorFlow-Bibliothek, die in der folgenden Struktur organisiert ist und umfassende didaktische Videoinhalte als Referenz für diese EITC-Zertifizierung umfasst.

Deep Learning (auch als Deep Structured Learning bezeichnet) gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit Repräsentationslernen basieren. Das Lernen kann überwacht, halbüberwacht oder unbeaufsichtigt sein. Deep-Learning-Architekturen wie tiefe neuronale Netze, tiefe Glaubensnetzwerke, wiederkehrende neuronale Netze und Faltungs-neuronale Netze wurden auf Bereiche wie Computer Vision, Machine Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Audioerkennung, Filterung sozialer Netzwerke, maschinelle Übersetzung und Bioinformatik angewendet , Medikamentendesign, medizinische Bildanalyse, Materialinspektion und Brettspielprogramme, bei denen Ergebnisse erzielt wurden, die mit der Leistung von Experten vergleichbar sind und diese in einigen Fällen sogar übertreffen.

Künstliche neuronale Netze (ANNs) wurden von der Informationsverarbeitung und verteilten Kommunikationsknoten in biologischen Systemen inspiriert. Das Adjektiv „tief“ im tiefen Lernen bezieht sich auf die Verwendung mehrerer Schichten im Netzwerk. Frühe Arbeiten zeigten, dass ein lineares Perzeptron kein universeller Klassifikator sein kann, und dass dies auch ein Netzwerk mit einer nichtpolynomiellen Aktivierungsfunktion mit einer verborgenen Schicht unbegrenzter Breite sein kann. Deep Learning ist eine moderne Variante, die sich mit einer unbegrenzten Anzahl von Schichten begrenzter Größe befasst, die eine praktische Anwendung und eine optimierte Implementierung ermöglicht und gleichzeitig die theoretische Universalität unter milden Bedingungen beibehält. Beim Deep Learning dürfen die Schichten auch heterogen sein und aus Gründen der Effizienz, Trainingsfähigkeit und Verständlichkeit stark von biologisch informierten verbindungsorientierten Modellen abweichen, woher der „strukturierte“ Teil stammt.

Python ist eine interpretierte Programmiersprache auf hoher Ebene und für allgemeine Zwecke. Die Designphilosophie von Python betont die Lesbarkeit von Code durch die bemerkenswerte Verwendung von signifikanten Leerzeichen. Seine Sprachkonstrukte und sein objektorientierter Ansatz sollen Programmierern helfen, klaren, logischen Code für kleine und große Projekte zu schreiben. Python wird aufgrund seiner umfassenden Standardbibliothek häufig als "Batterie enthalten" -Sprache bezeichnet. Python wird häufig in Projekten mit künstlicher Intelligenz und Projekten für maschinelles Lernen mit Hilfe von Bibliotheken wie TensorFlow, Keras, Pytorch und Scikit-learn verwendet.

Python ist dynamisch typisiert (zur Laufzeit werden viele gängige Programmierverhaltensweisen ausgeführt, die statische Programmiersprachen während der Kompilierung ausführen) und müllsammelt (mit automatischer Speicherverwaltung). Es unterstützt mehrere Programmierparadigmen, einschließlich strukturierter (insbesondere prozeduraler), objektorientierter und funktionaler Programmierung. Es wurde Ende der 1980er Jahre erstellt und 1991 von Guido van Rossum als Nachfolger der Programmiersprache ABC erstmals veröffentlicht. Python 2.0, das im Jahr 2000 veröffentlicht wurde, führte neue Funktionen wie Listenverständnis und ein Garbage Collection-System mit Referenzzählung ein und wurde mit Version 2.7 im Jahr 2020 eingestellt. Python 3.0, das im Jahr 2008 veröffentlicht wurde, war eine wichtige Überarbeitung der jeweiligen Sprache Nicht vollständig abwärtskompatibel und viel Python 2-Code wird unter Python 3 nicht unverändert ausgeführt. Mit dem Ende der Lebensdauer von Python 2 (und Pip, das die Unterstützung im Jahr 2021 eingestellt hat) wird nur Python 3.6.x und höher unterstützt, wobei ältere Versionen noch vorhanden sind Unterstützung zB Windows 7 (und alte Installationsprogramme, die nicht auf 64-Bit-Windows beschränkt sind).

Python-Interpreter werden für Mainstream-Betriebssysteme unterstützt und sind für einige weitere verfügbar (und haben in der Vergangenheit viele weitere unterstützt). Eine globale Community von Programmierern entwickelt und pflegt CPython, eine kostenlose Open-Source-Referenzimplementierung. Die Python Software Foundation, eine gemeinnützige Organisation, verwaltet und leitet Ressourcen für die Python- und CPython-Entwicklung.

Ab Januar 2021 belegt Python nach T und BE den dritten Platz im TIOBE-Index der beliebtesten Programmiersprachen, nachdem es zuvor den zweiten Platz und die Auszeichnung für den beliebtesten Gewinn für 2020 erhalten hatte. 2007 und 2010 wurde es zur Programmiersprache des Jahres gewählt und 2018.

Eine empirische Studie ergab, dass Skriptsprachen wie Python für Programmierprobleme bei der Manipulation von Zeichenfolgen und der Suche in einem Wörterbuch produktiver sind als herkömmliche Sprachen wie C und Java, und stellte fest, dass der Speicherverbrauch häufig „besser als Java und nicht“ ist viel schlimmer als C oder C ++ ”. Zu den großen Organisationen, die Python verwenden, gehören ua Wikipedia, Google, Yahoo! CERN, NASA, Facebook, Amazon, Instagram.

Neben seinen Anwendungen für künstliche Intelligenz wird Python als Skriptsprache mit modularer Architektur, einfacher Syntax und Rich-Text-Verarbeitungswerkzeugen häufig für die Verarbeitung natürlicher Sprache verwendet.

TensorFlow ist eine kostenlose Open-Source-Softwarebibliothek für maschinelles Lernen. Es kann für eine Reihe von Aufgaben verwendet werden, hat jedoch einen besonderen Schwerpunkt auf dem Training und der Schlussfolgerung tiefer neuronaler Netze. Es ist eine symbolische Mathematikbibliothek, die auf Datenfluss und differenzierbarer Programmierung basiert. Es wird sowohl für Forschung als auch für Produktion bei Google verwendet.

TensorFlow wurde vom Google Brain-Team für den internen Google-Gebrauch entwickelt. Es wurde unter der Apache License 2.0 im Jahr 2015 veröffentlicht.

Ab 2011 hat Google Brain DistBelief als proprietäres maschinelles Lernsystem entwickelt, das auf Deep-Learning-Neuronalen Netzen basiert. Seine Verwendung nahm in verschiedenen Alphabet-Unternehmen sowohl in der Forschung als auch in kommerziellen Anwendungen rasch zu. Google beauftragte mehrere Informatiker, darunter Jeff Dean, die Codebasis von DistBelief zu vereinfachen und in eine schnellere, robustere Bibliothek für Anwendungen umzuwandeln, aus der TensorFlow wurde. Im Jahr 2009 hatte das Team unter der Leitung von Geoffrey Hinton eine allgemeine Backpropagation und andere Verbesserungen implementiert, die die Erzeugung neuronaler Netze mit wesentlich höherer Genauigkeit ermöglichten, beispielsweise eine Reduzierung der Spracherkennungsfehler um 25%.

TensorFlow ist das System der zweiten Generation von Google Brain. Die Version 1.0.0 wurde am 11. Februar 2017 veröffentlicht. Während die Referenzimplementierung auf einzelnen Geräten ausgeführt wird, kann TensorFlow auf mehreren CPUs und GPUs ausgeführt werden (mit optionalen CUDA- und SYCL-Erweiterungen für Allzweck-Computing auf Grafikprozessoren). TensorFlow ist auf 64-Bit-Linux-, MacOS-, Windows- und Mobile-Computing-Plattformen einschließlich Android und iOS verfügbar. Die flexible Architektur ermöglicht die einfache Bereitstellung von Berechnungen auf einer Vielzahl von Plattformen (CPUs, GPUs, TPUs) und von Desktops über Cluster von Servern bis hin zu Mobil- und Edge-Geräten. TensorFlow-Berechnungen werden als zustandsbehaftete Datenflussdiagramme ausgedrückt. Der Name TensorFlow leitet sich von den Operationen ab, die solche neuronalen Netze an mehrdimensionalen Datenarrays ausführen, die als Tensoren bezeichnet werden. Während der Google I/O-Konferenz im Juni 2016 gab Jeff Dean an, dass 1,500 Repositories auf GitHub TensorFlow erwähnten, von denen nur 5 von Google stammten. Im Dezember 2017 stellten Entwickler von Google, Cisco, RedHat, CoreOS und CaiCloud Kubeflow auf einer Konferenz vor. Kubeflow ermöglicht den Betrieb und die Bereitstellung von TensorFlow auf Kubernetes. Im März 2018 kündigte Google TensorFlow.js Version 1.0 für maschinelles Lernen in JavaScript an. Im Januar 2019 kündigte Google TensorFlow 2.0 an. Es wurde im September 2019 offiziell verfügbar. Im Mai 2019 kündigte Google TensorFlow Graphics für tiefes Lernen in Computergrafik an.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/DLTF Deep Learning with TensorFlow Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform von Harrison Kinsley. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/DLPP Deep Learning mit Python und PyTorch

Mittwoch, 03 Februar 2021 by Administrator

EITC/AI/DLPP Deep Learning mit Python und PyTorch ist das europäische IT-Zertifizierungsprogramm zu den Grundlagen der Programmierung von Deep Learning in Python mit der PyTorch-Bibliothek für maschinelles Lernen.

Der Lehrplan des EITC/AI/DLPP-Deep-Learning mit Python und PyTorch konzentriert sich auf praktische Fertigkeiten im Deep-Learning-Python-Programmieren mit der PyTorch-Bibliothek, die in der folgenden Struktur organisiert sind und umfassende didaktische Videoinhalte als Referenz für diese EITC-Zertifizierung umfassen.

Deep Learning (auch als Deep Structured Learning bezeichnet) gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit Repräsentationslernen basieren. Das Lernen kann überwacht, halbüberwacht oder unbeaufsichtigt sein. Deep-Learning-Architekturen wie tiefe neuronale Netze, tiefe Glaubensnetzwerke, wiederkehrende neuronale Netze und Faltungs-neuronale Netze wurden auf Bereiche wie Computer Vision, Machine Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Audioerkennung, Filterung sozialer Netzwerke, maschinelle Übersetzung und Bioinformatik angewendet , Medikamentendesign, medizinische Bildanalyse, Materialinspektion und Brettspielprogramme, bei denen Ergebnisse erzielt wurden, die mit der Leistung von Experten vergleichbar sind und diese in einigen Fällen sogar übertreffen.

Künstliche neuronale Netze (ANNs) wurden von der Informationsverarbeitung und verteilten Kommunikationsknoten in biologischen Systemen inspiriert. Das Adjektiv „tief“ im tiefen Lernen bezieht sich auf die Verwendung mehrerer Schichten im Netzwerk. Frühe Arbeiten zeigten, dass ein lineares Perzeptron kein universeller Klassifikator sein kann, und dass dies auch ein Netzwerk mit einer nichtpolynomiellen Aktivierungsfunktion mit einer verborgenen Schicht unbegrenzter Breite sein kann. Deep Learning ist eine moderne Variante, die sich mit einer unbegrenzten Anzahl von Schichten begrenzter Größe befasst, die eine praktische Anwendung und eine optimierte Implementierung ermöglicht und gleichzeitig die theoretische Universalität unter milden Bedingungen beibehält. Beim Deep Learning dürfen die Schichten auch heterogen sein und aus Gründen der Effizienz, Trainingsfähigkeit und Verständlichkeit stark von biologisch informierten verbindungsorientierten Modellen abweichen, woher der „strukturierte“ Teil stammt.

Python ist eine interpretierte Programmiersprache auf hoher Ebene und für allgemeine Zwecke. Die Designphilosophie von Python betont die Lesbarkeit von Code durch die bemerkenswerte Verwendung von signifikanten Leerzeichen. Seine Sprachkonstrukte und sein objektorientierter Ansatz sollen Programmierern helfen, klaren, logischen Code für kleine und große Projekte zu schreiben. Python wird aufgrund seiner umfassenden Standardbibliothek häufig als "Batterie enthalten" -Sprache bezeichnet. Python wird häufig in Projekten mit künstlicher Intelligenz und Projekten für maschinelles Lernen mit Hilfe von Bibliotheken wie TensorFlow, Keras, Pytorch und Scikit-learn verwendet.

Python ist dynamisch typisiert (zur Laufzeit werden viele gängige Programmierverhaltensweisen ausgeführt, die statische Programmiersprachen während der Kompilierung ausführen) und müllsammelt (mit automatischer Speicherverwaltung). Es unterstützt mehrere Programmierparadigmen, einschließlich strukturierter (insbesondere prozeduraler), objektorientierter und funktionaler Programmierung. Es wurde Ende der 1980er Jahre erstellt und 1991 von Guido van Rossum als Nachfolger der Programmiersprache ABC erstmals veröffentlicht. Python 2.0, das im Jahr 2000 veröffentlicht wurde, führte neue Funktionen wie Listenverständnis und ein Garbage Collection-System mit Referenzzählung ein und wurde mit Version 2.7 im Jahr 2020 eingestellt. Python 3.0, das im Jahr 2008 veröffentlicht wurde, war eine wichtige Überarbeitung der jeweiligen Sprache Nicht vollständig abwärtskompatibel und viel Python 2-Code wird unter Python 3 nicht unverändert ausgeführt. Mit dem Ende der Lebensdauer von Python 2 (und Pip, das die Unterstützung im Jahr 2021 eingestellt hat) wird nur Python 3.6.x und höher unterstützt, wobei ältere Versionen noch vorhanden sind Unterstützung zB Windows 7 (und alte Installationsprogramme, die nicht auf 64-Bit-Windows beschränkt sind).

Python-Interpreter werden für Mainstream-Betriebssysteme unterstützt und sind für einige weitere verfügbar (und haben in der Vergangenheit viele weitere unterstützt). Eine globale Community von Programmierern entwickelt und pflegt CPython, eine kostenlose Open-Source-Referenzimplementierung. Die Python Software Foundation, eine gemeinnützige Organisation, verwaltet und leitet Ressourcen für die Python- und CPython-Entwicklung.

Ab Januar 2021 belegt Python nach T und BE den dritten Platz im TIOBE-Index der beliebtesten Programmiersprachen, nachdem es zuvor den zweiten Platz und die Auszeichnung für den beliebtesten Gewinn für 2020 erhalten hatte. 2007 und 2010 wurde es zur Programmiersprache des Jahres gewählt und 2018.

Eine empirische Studie ergab, dass Skriptsprachen wie Python für Programmierprobleme bei der Manipulation von Zeichenfolgen und der Suche in einem Wörterbuch produktiver sind als herkömmliche Sprachen wie C und Java, und stellte fest, dass der Speicherverbrauch häufig „besser als Java und nicht“ ist viel schlimmer als C oder C ++ ”. Zu den großen Organisationen, die Python verwenden, gehören ua Wikipedia, Google, Yahoo! CERN, NASA, Facebook, Amazon, Instagram.

Neben seinen Anwendungen für künstliche Intelligenz wird Python als Skriptsprache mit modularer Architektur, einfacher Syntax und Rich-Text-Verarbeitungswerkzeugen häufig für die Verarbeitung natürlicher Sprache verwendet.

PyTorch ist eine Open-Source-Bibliothek für maschinelles Lernen, die auf der Torch-Bibliothek basiert und für Anwendungen wie Computer Vision und Verarbeitung natürlicher Sprache verwendet wird. Sie wurde hauptsächlich vom AI Research Lab (FAIR) von Facebook entwickelt. Es handelt sich um kostenlose Open-Source-Software, die unter der Modified BSD-Lizenz veröffentlicht wird. Obwohl die Python-Oberfläche ausgefeilter ist und im Mittelpunkt der Entwicklung steht, verfügt PyTorch auch über eine C ++ - Oberfläche. Auf PyTorch basieren eine Reihe von Deep Learning-Programmen, darunter Tesla Autopilot, Ubers Pyro, HuggingFace-Transformatoren, PyTorch Lightning und Catalyst.

PyTorch bietet zwei allgemeine Funktionen:

  • Tensor Computing (wie NumPy) mit starker Beschleunigung über Grafikprozessoren (GPU)
  • Tiefe neuronale Netze, die auf einem bandbasierten automatischen (rechnerischen) Differenzierungssystem basieren

Facebook betreibt sowohl PyTorch als auch Convolutional Architecture für Fast Feature Embedding (Caffe2), aber die von den beiden Frameworks definierten Modelle waren nicht miteinander kompatibel. Das Open Neural Network Exchange (ONNX) -Projekt wurde im September 2017 von Facebook und Microsoft erstellt, um Modelle zwischen Frameworks zu konvertieren. Caffe2 wurde Ende März 2018 in PyTorch fusioniert.

PyTorch definiert eine Klasse namens Tensor (torch.Tensor) zum Speichern und Bearbeiten homogener mehrdimensionaler rechteckiger Zahlenfelder. PyTorch-Tensoren ähneln NumPy-Arrays, können jedoch auch auf einer CUDA-fähigen Nvidia-GPU betrieben werden. PyTorch unterstützt verschiedene Untertypen von Tensoren.

Es gibt nur wenige wichtige Module für Pytorch. Diese schließen ein:

  • Autograd-Modul: PyTorch verwendet eine Methode namens automatische Differenzierung. Ein Rekorder zeichnet auf, welche Operationen ausgeführt wurden, und spielt sie dann rückwärts ab, um die Verläufe zu berechnen. Diese Methode ist besonders leistungsfähig, wenn neuronale Netze aufgebaut werden, um Zeit in einer Epoche zu sparen, indem die Differenzierung der Parameter beim Vorwärtsdurchlauf berechnet wird.
  • Optimierungsmodul: torch.optim ist ein Modul, das verschiedene Optimierungsalgorithmen implementiert, die zum Aufbau neuronaler Netze verwendet werden. Die meisten häufig verwendeten Methoden werden bereits unterstützt, sodass sie nicht von Grund auf neu erstellt werden müssen.
  • nn-Modul: PyTorch Autograd erleichtert das Definieren von Berechnungsgraphen und das Aufnehmen von Gradienten, aber das rohe Autograd kann für die Definition komplexer neuronaler Netze etwas zu niedrig sein. Hier kann das nn-Modul helfen.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/DLPP Deep Learning with Python and PyTorch Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform von Harrison Kinsley. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/DLPTFK Deep Learning mit Python, TensorFlow und Keras

Dienstag, 02 Februar 2021 by Administrator

EITC/AI/DLPTFK Deep Learning mit Python, TensorFlow und Keras ist das europäische IT-Zertifizierungsprogramm zu den Grundlagen der Programmierung von Deep Learning in Python mit TensorFlow- und Keras-Bibliotheken für maschinelles Lernen.

Der Lehrplan des EITC/AI/DLPTFK-Deep-Learning mit Python, TensorFlow und Keras konzentriert sich auf praktische Fähigkeiten im Deep-Learning-Python-Programmieren mit TensorFlow- und Keras-Bibliotheken, die in der folgenden Struktur organisiert sind und umfassende video-didaktische Inhalte als Referenz für diese EITC-Zertifizierung umfassen.

Deep Learning (auch als Deep Structured Learning bezeichnet) gehört zu einer breiteren Familie von Methoden des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit Repräsentationslernen basieren. Das Lernen kann überwacht, halbüberwacht oder unbeaufsichtigt sein. Deep-Learning-Architekturen wie tiefe neuronale Netze, tiefe Glaubensnetzwerke, wiederkehrende neuronale Netze und Faltungs-neuronale Netze wurden auf Bereiche wie Computer Vision, Machine Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Audioerkennung, Filterung sozialer Netzwerke, maschinelle Übersetzung und Bioinformatik angewendet , Medikamentendesign, medizinische Bildanalyse, Materialinspektion und Brettspielprogramme, bei denen Ergebnisse erzielt wurden, die mit der Leistung von Experten vergleichbar sind und diese in einigen Fällen sogar übertreffen.

Künstliche neuronale Netze (ANNs) wurden von der Informationsverarbeitung und verteilten Kommunikationsknoten in biologischen Systemen inspiriert. Das Adjektiv „tief“ im tiefen Lernen bezieht sich auf die Verwendung mehrerer Schichten im Netzwerk. Frühe Arbeiten zeigten, dass ein lineares Perzeptron kein universeller Klassifikator sein kann, und dass dies auch ein Netzwerk mit einer nichtpolynomiellen Aktivierungsfunktion mit einer verborgenen Schicht unbegrenzter Breite sein kann. Deep Learning ist eine moderne Variante, die sich mit einer unbegrenzten Anzahl von Schichten begrenzter Größe befasst, die eine praktische Anwendung und eine optimierte Implementierung ermöglicht und gleichzeitig die theoretische Universalität unter milden Bedingungen beibehält. Beim Deep Learning dürfen die Schichten auch heterogen sein und aus Gründen der Effizienz, Trainingsfähigkeit und Verständlichkeit stark von biologisch informierten verbindungsorientierten Modellen abweichen, woher der „strukturierte“ Teil stammt.

Python ist eine interpretierte Programmiersprache auf hoher Ebene und für allgemeine Zwecke. Die Designphilosophie von Python betont die Lesbarkeit von Code durch die bemerkenswerte Verwendung von signifikanten Leerzeichen. Seine Sprachkonstrukte und sein objektorientierter Ansatz sollen Programmierern helfen, klaren, logischen Code für kleine und große Projekte zu schreiben. Python wird aufgrund seiner umfassenden Standardbibliothek häufig als "Batterie enthalten" -Sprache bezeichnet. Python wird häufig in Projekten mit künstlicher Intelligenz und Projekten für maschinelles Lernen mit Hilfe von Bibliotheken wie TensorFlow, Keras, Pytorch und Scikit-learn verwendet.

Python ist dynamisch typisiert (zur Laufzeit werden viele gängige Programmierverhaltensweisen ausgeführt, die statische Programmiersprachen während der Kompilierung ausführen) und müllsammelt (mit automatischer Speicherverwaltung). Es unterstützt mehrere Programmierparadigmen, einschließlich strukturierter (insbesondere prozeduraler), objektorientierter und funktionaler Programmierung. Es wurde Ende der 1980er Jahre erstellt und 1991 von Guido van Rossum als Nachfolger der Programmiersprache ABC erstmals veröffentlicht. Python 2.0, das im Jahr 2000 veröffentlicht wurde, führte neue Funktionen wie Listenverständnis und ein Garbage Collection-System mit Referenzzählung ein und wurde mit Version 2.7 im Jahr 2020 eingestellt. Python 3.0, das im Jahr 2008 veröffentlicht wurde, war eine wichtige Überarbeitung der jeweiligen Sprache Nicht vollständig abwärtskompatibel und viel Python 2-Code wird unter Python 3 nicht unverändert ausgeführt. Mit dem Ende der Lebensdauer von Python 2 (und Pip, das die Unterstützung im Jahr 2021 eingestellt hat) wird nur Python 3.6.x und höher unterstützt, wobei ältere Versionen noch vorhanden sind Unterstützung zB Windows 7 (und alte Installationsprogramme, die nicht auf 64-Bit-Windows beschränkt sind).

Python-Interpreter werden für Mainstream-Betriebssysteme unterstützt und sind für einige weitere verfügbar (und haben in der Vergangenheit viele weitere unterstützt). Eine globale Community von Programmierern entwickelt und pflegt CPython, eine kostenlose Open-Source-Referenzimplementierung. Die Python Software Foundation, eine gemeinnützige Organisation, verwaltet und leitet Ressourcen für die Python- und CPython-Entwicklung.

Ab Januar 2021 belegt Python nach T und BE den dritten Platz im TIOBE-Index der beliebtesten Programmiersprachen, nachdem es zuvor den zweiten Platz und die Auszeichnung für den beliebtesten Gewinn für 2020 erhalten hatte. 2007 und 2010 wurde es zur Programmiersprache des Jahres gewählt und 2018.

Eine empirische Studie ergab, dass Skriptsprachen wie Python für Programmierprobleme bei der Manipulation von Zeichenfolgen und der Suche in einem Wörterbuch produktiver sind als herkömmliche Sprachen wie C und Java, und stellte fest, dass der Speicherverbrauch häufig „besser als Java und nicht“ ist viel schlimmer als C oder C ++ ”. Zu den großen Organisationen, die Python verwenden, gehören ua Wikipedia, Google, Yahoo! CERN, NASA, Facebook, Amazon, Instagram.

Neben seinen Anwendungen für künstliche Intelligenz wird Python als Skriptsprache mit modularer Architektur, einfacher Syntax und Rich-Text-Verarbeitungswerkzeugen häufig für die Verarbeitung natürlicher Sprache verwendet.

TensorFlow ist eine kostenlose Open-Source-Softwarebibliothek für maschinelles Lernen. Es kann für eine Reihe von Aufgaben verwendet werden, hat jedoch einen besonderen Schwerpunkt auf dem Training und der Schlussfolgerung tiefer neuronaler Netze. Es ist eine symbolische Mathematikbibliothek, die auf Datenfluss und differenzierbarer Programmierung basiert. Es wird sowohl für Forschung als auch für Produktion bei Google verwendet.

TensorFlow wurde vom Google Brain-Team für den internen Google-Gebrauch entwickelt. Es wurde unter der Apache License 2.0 im Jahr 2015 veröffentlicht.

Ab 2011 hat Google Brain DistBelief als proprietäres maschinelles Lernsystem entwickelt, das auf Deep-Learning-Neuronalen Netzen basiert. Seine Verwendung nahm in verschiedenen Alphabet-Unternehmen sowohl in der Forschung als auch in kommerziellen Anwendungen rasch zu. Google beauftragte mehrere Informatiker, darunter Jeff Dean, die Codebasis von DistBelief zu vereinfachen und in eine schnellere, robustere Bibliothek für Anwendungen umzuwandeln, aus der TensorFlow wurde. Im Jahr 2009 hatte das Team unter der Leitung von Geoffrey Hinton eine allgemeine Backpropagation und andere Verbesserungen implementiert, die die Erzeugung neuronaler Netze mit wesentlich höherer Genauigkeit ermöglichten, beispielsweise eine Reduzierung der Spracherkennungsfehler um 25%.

TensorFlow ist das System der zweiten Generation von Google Brain. Die Version 1.0.0 wurde am 11. Februar 2017 veröffentlicht. Während die Referenzimplementierung auf einzelnen Geräten ausgeführt wird, kann TensorFlow auf mehreren CPUs und GPUs ausgeführt werden (mit optionalen CUDA- und SYCL-Erweiterungen für Allzweck-Computing auf Grafikprozessoren). TensorFlow ist auf 64-Bit-Linux-, MacOS-, Windows- und Mobile-Computing-Plattformen einschließlich Android und iOS verfügbar. Die flexible Architektur ermöglicht die einfache Bereitstellung von Berechnungen auf einer Vielzahl von Plattformen (CPUs, GPUs, TPUs) und von Desktops über Cluster von Servern bis hin zu Mobil- und Edge-Geräten. TensorFlow-Berechnungen werden als zustandsbehaftete Datenflussdiagramme ausgedrückt. Der Name TensorFlow leitet sich von den Operationen ab, die solche neuronalen Netze an mehrdimensionalen Datenarrays ausführen, die als Tensoren bezeichnet werden. Während der Google I/O-Konferenz im Juni 2016 gab Jeff Dean an, dass 1,500 Repositories auf GitHub TensorFlow erwähnten, von denen nur 5 von Google stammten. Im Dezember 2017 stellten Entwickler von Google, Cisco, RedHat, CoreOS und CaiCloud Kubeflow auf einer Konferenz vor. Kubeflow ermöglicht den Betrieb und die Bereitstellung von TensorFlow auf Kubernetes. Im März 2018 kündigte Google TensorFlow.js Version 1.0 für maschinelles Lernen in JavaScript an. Im Januar 2019 kündigte Google TensorFlow 2.0 an. Es wurde im September 2019 offiziell verfügbar. Im Mai 2019 kündigte Google TensorFlow Graphics für tiefes Lernen in Computergrafik an.

Keras ist eine Open-Source-Softwarebibliothek, die eine Python-Schnittstelle für künstliche neuronale Netze bietet. Keras fungiert als Schnittstelle für die TensorFlow-Bibliothek.

Bis Version 2.3 unterstützte Keras mehrere Backends, darunter TensorFlow, Microsoft Cognitive Toolkit, Theano und PlaidML. Ab Version 2.4 wird nur TensorFlow unterstützt. Entwickelt, um schnelles Experimentieren mit tiefen neuronalen Netzen zu ermöglichen, konzentriert es sich darauf, benutzerfreundlich, modular und erweiterbar zu sein. Es wurde im Rahmen der Forschungsanstrengungen des Projekts ONEIROS (offenes neuroelektronisches intelligentes Roboterbetriebssystem) entwickelt und sein Hauptautor und Betreuer ist François Chollet, ein Google-Ingenieur. Chollet ist auch der Autor des XCeption Deep Neural Network-Modells.

Keras enthält zahlreiche Implementierungen häufig verwendeter Bausteine ​​für neuronale Netze wie Ebenen, Ziele, Aktivierungsfunktionen, Optimierer und eine Vielzahl von Tools, die das Arbeiten mit Bild- und Textdaten vereinfachen und die Codierung vereinfachen, die zum Schreiben von tiefem neuronalen Netzwerkcode erforderlich ist. Der Code wird auf GitHub gehostet. Zu den Community-Support-Foren gehören die Seite mit GitHub-Problemen und ein Slack-Kanal.

Zusätzlich zu Standard-Neuronalen Netzen unterstützt Keras Faltungsnetzwerke und wiederkehrende Neuronale Netze. Es unterstützt andere gängige Dienstprogrammschichten wie Dropout, Batch-Normalisierung und Pooling. Mit Keras können Benutzer Deep-Modelle auf Smartphones (iOS und Android), im Web oder auf der Java Virtual Machine erstellen. Es ermöglicht auch die Verwendung des verteilten Trainings von Deep-Learning-Modellen auf Clustern von Grafikprozessoren (GPU) und Tensorprozessoren (TPU). Keras wurde aufgrund von Python (Programmiersprache) und seiner eigenen Benutzerfreundlichkeit und Installation für die wissenschaftliche Forschung übernommen. Keras war das zehnthäufigste Tool in der KDnuggets 10-Softwareumfrage und verzeichnete eine Auslastung von 2018%.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/DLPTFK Deep Learning with Python, TensorFlow and Keras Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform von Harrison Kinsley. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt.
Unbegrenzte Beratung mit Domain-Experten wird ebenfalls angeboten.

Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare

EITC/AI/MLP Maschinelles Lernen mit Python

Dienstag, 02 Februar 2021 by Administrator

EITC/AI/MLP Maschinelles Lernen mit Python ist das europäische IT-Zertifizierungsprogramm zu den Grundlagen des Programmierens von maschinellem Lernen mit Python-Sprache.

Der Lehrplan des EITC/AI/MLP-Maschinellen Lernens mit Python konzentriert sich auf theoretische und praktische Fähigkeiten in der Programmierung des maschinellen Lernens, die in der folgenden Struktur organisiert sind und umfassende videodidaktische Inhalte als Referenz für diese EITC-Zertifizierung umfassen.

Maschinelles Lernen (ML) ist das Studium von Computeralgorithmen, die sich durch Erfahrung automatisch verbessern. Es wird als Teil der künstlichen Intelligenz gesehen. Algorithmen für maschinelles Lernen erstellen ein Modell basierend auf Beispieldaten, die als Trainingsdaten bezeichnet werden, um Vorhersagen oder Entscheidungen zu treffen, ohne explizit dafür programmiert zu sein.

Algorithmen für maschinelles Lernen werden in einer Vielzahl von Anwendungen wie E-Mail-Filterung und Computer Vision verwendet, bei denen es schwierig oder nicht durchführbar ist, herkömmliche Algorithmen zur Ausführung der erforderlichen Aufgaben zu entwickeln. Maschinelles Lernen wurde 1959 von Arthur Samuel als „Studienbereich definiert, in dem Computer lernen können, ohne explizit programmiert zu werden“.

Eine Teilmenge des maschinellen Lernens ist eng mit der Computerstatistik verbunden, die sich auf Vorhersagen mithilfe von Computern konzentriert. Allerdings ist nicht alles maschinelle Lernen statistisches Lernen. Das Studium der mathematischen Optimierung liefert Methoden, Theorie und Anwendungsbereiche auf dem Gebiet des maschinellen Lernens. Data Mining ist ein verwandtes Forschungsgebiet, das sich auf die explorative Datenanalyse durch unbeaufsichtigtes Lernen konzentriert. In seiner Anwendung auf geschäftliche Probleme wird maschinelles Lernen auch als Predictive Analytics bezeichnet.

Ansätze des maschinellen Lernens werden traditionell in drei große Kategorien unterteilt, abhängig von der Art des „Signals“ oder „Feedbacks“, das dem Lernsystem zur Verfügung steht:

  • Überwachtes Lernen: Dem Computer werden Beispieleingaben und die gewünschten Ausgaben präsentiert, die von einem „Lehrer“ gegeben werden. Ziel ist es, eine allgemeine Regel zu lernen, die Eingaben auf Ausgaben abbildet.
  • Unüberwachtes Lernen: Dem Lernalgorithmus werden keine Bezeichnungen zugewiesen, sodass er selbstständig die Struktur in seiner Eingabe finden kann. Unbeaufsichtigtes Lernen kann ein Ziel an sich sein (verborgene Muster in Daten entdecken) oder ein Mittel zum Zweck (Feature-Lernen).
  • Verstärkungslernen: Ein Computerprogramm interagiert mit einer dynamischen Umgebung, in der es ein bestimmtes Ziel erreichen muss (z. B. ein Fahrzeug fahren oder ein Spiel gegen einen Gegner spielen). Während des Navigierens durch den Problembereich erhält das Programm ein Feedback, das den Belohnungen entspricht und das es zu maximieren versucht.

Es wurden andere Ansätze entwickelt, die nicht genau in diese dreifache Kategorisierung passen, und manchmal wird mehr als einer von demselben maschinellen Lernsystem verwendet. Zum Beispiel Themenmodellierung, Dimensionsreduktion oder Meta-Lernen.

Ab 2020 ist Deep Learning der dominierende Ansatz für viele laufende Arbeiten im Bereich des maschinellen Lernens.

Python ist eine interpretierte Programmiersprache auf hoher Ebene und für allgemeine Zwecke. Die Designphilosophie von Python betont die Lesbarkeit von Code durch die bemerkenswerte Verwendung von signifikanten Leerzeichen. Seine Sprachkonstrukte und sein objektorientierter Ansatz sollen Programmierern helfen, klaren, logischen Code für kleine und große Projekte zu schreiben. Python wird aufgrund seiner umfassenden Standardbibliothek häufig als "Batterie enthalten" -Sprache bezeichnet. Python wird häufig in Projekten mit künstlicher Intelligenz und Projekten für maschinelles Lernen mit Hilfe von Bibliotheken wie TensorFlow, Keras, Pytorch und Scikit-learn verwendet.

Python ist dynamisch typisiert (zur Laufzeit werden viele gängige Programmierverhaltensweisen ausgeführt, die statische Programmiersprachen während der Kompilierung ausführen) und müllsammelt (mit automatischer Speicherverwaltung). Es unterstützt mehrere Programmierparadigmen, einschließlich strukturierter (insbesondere prozeduraler), objektorientierter und funktionaler Programmierung. Es wurde Ende der 1980er Jahre erstellt und 1991 von Guido van Rossum als Nachfolger der Programmiersprache ABC erstmals veröffentlicht. Python 2.0, das im Jahr 2000 veröffentlicht wurde, führte neue Funktionen wie Listenverständnis und ein Garbage Collection-System mit Referenzzählung ein und wurde mit Version 2.7 im Jahr 2020 eingestellt. Python 3.0, das im Jahr 2008 veröffentlicht wurde, war eine wichtige Überarbeitung der jeweiligen Sprache Nicht vollständig abwärtskompatibel und viel Python 2-Code wird unter Python 3 nicht unverändert ausgeführt. Mit dem Ende der Lebensdauer von Python 2 (und Pip, das die Unterstützung im Jahr 2021 eingestellt hat) wird nur Python 3.6.x und höher unterstützt, wobei ältere Versionen noch vorhanden sind Unterstützung zB Windows 7 (und alte Installationsprogramme, die nicht auf 64-Bit-Windows beschränkt sind).

Python-Interpreter werden für Mainstream-Betriebssysteme unterstützt und sind für einige weitere verfügbar (und haben in der Vergangenheit viele weitere unterstützt). Eine globale Community von Programmierern entwickelt und pflegt CPython, eine kostenlose Open-Source-Referenzimplementierung. Die Python Software Foundation, eine gemeinnützige Organisation, verwaltet und leitet Ressourcen für die Python- und CPython-Entwicklung.

Ab Januar 2021 belegt Python nach T und BE den dritten Platz im TIOBE-Index der beliebtesten Programmiersprachen, nachdem es zuvor den zweiten Platz und die Auszeichnung für den beliebtesten Gewinn für 2020 erhalten hatte. 2007 und 2010 wurde es zur Programmiersprache des Jahres gewählt und 2018.

Eine empirische Studie ergab, dass Skriptsprachen wie Python für Programmierprobleme bei der Manipulation von Zeichenfolgen und der Suche in einem Wörterbuch produktiver sind als herkömmliche Sprachen wie C und Java, und stellte fest, dass der Speicherverbrauch häufig „besser als Java und nicht“ ist viel schlimmer als C oder C ++ ”. Zu den großen Organisationen, die Python verwenden, gehören ua Wikipedia, Google, Yahoo! CERN, NASA, Facebook, Amazon, Instagram.

Neben seinen Anwendungen für künstliche Intelligenz wird Python als Skriptsprache mit modularer Architektur, einfacher Syntax und Rich-Text-Verarbeitungswerkzeugen häufig für die Verarbeitung natürlicher Sprache verwendet.

Um sich im Detail mit dem Zertifizierungscurriculum vertraut zu machen, können Sie die folgende Tabelle erweitern und analysieren.

Das EITC/AI/MLP Machine Learning with Python Certification Curriculum verweist auf frei zugängliche didaktische Materialien in Videoform von Harrison Kinsley. Der Lernprozess ist in eine schrittweise Struktur (Programme -> Lektionen -> Themen) unterteilt, die relevante Lehrplanteile abdeckt. Unbegrenzte Beratung durch Domänenexperten wird ebenfalls angeboten.
Einzelheiten zum Zertifizierungsverfahren finden Sie unter So funktioniert es.

Weiterlesen
Keine Kommentare
  • 1
  • 2
Home » EITCA/AI

Zertifizierungszentrum

BENUTZERMENÜ

  • Meine Buchungen

ZERTIFIKATSKATEGORIE

  • EITC-Zertifizierung (105)
  • EITCA-Zertifizierung (9)

Wonach suchst du?

  • Einleitung
  • Wie funktioniert es?
  • EITCA-Akademien
  • EITCI DSJC-Subvention
  • Vollständiger EITC-Katalog
  • Ihre Bestellung
  • Ausgewählte Auktionen
  •   IT ID
  • Über Uns
  • Kontakt

    Verwaltungsbüro der EITCA Academy

    Europäisches IT-Zertifizierungsinstitut
    Brüssel, Belgien, Europäische Union

    Die EITC/EITCA-Zertifizierungsstelle
    Regelung des europäischen IT-Zertifizierungsstandards
    Starten Kontakt Formular oder rufen Sie an: +32 25887351

    Vor 17 TagenDieses #EITC/WD/WPF WordPress-Grundlagenzertifikat (Teil der #EITCA/WD) bescheinigt Sachkunde in #WordPress CMS, im … https://t.co/A2jjXPeKgj
    Folgen Sie @EITCI

    Automatisch in Ihre Sprache übersetzen

    Geschäftsbedingungen | Datenschutz
    Folgen Sie @EITCI
    EITCA-Akademie
    • EITCA Academy in sozialen Medien
    EITCA-Akademie


    © 2008-2023  Europäisches IT-Zertifizierungsinstitut
    Brüssel, Belgien, Europäische Union

    TOPS
    Chatten Sie mit dem Support
    Chatten Sie mit dem Support
    Fragen, Zweifel, Probleme? Wir sind hier, um dir zu helfen!
    Ende des Gesprächs
    Verbindung wird hergestellt ...
    :
    :
    :
    Absenden
    :
    :
    Chat beginnen
    Die Chat-Sitzung wurde beendet. Vielen Dank!
    Bitte bewerten Sie die Unterstützung, die Sie erhalten haben.
    Gut Badewanne