Quantenneurale Netze in Lern- und Kontrollprozessen

Quantenneurale Netze in Lern- und Kontrollprozessen

Meisterwerk

2.1 Architektur quanten-neuronaler Netze

Quanten-Neuronale Netzwerke sind ein aufstrebendes Feld und eine Kombination aus klassischen neuronalen Netzwerken und Quantencomputing.

Ein System kann als neuronal bezeichnet werden, wenn in ihm mindestens ein Neuron identifiziert werden kann. Ein neuronales System ist ein Quantenneuronales System, wenn es in der Lage ist, Quantencomputing zu implementieren.

Es gibt verschiedene Ansätze für sogenannte Quanten-Neuronale Netze. Verschiedene Forscher nutzen eigene Analogien, um den Zusammenhang zwischen Quantenmechanik und künstlichen neuronalen Netzen herzustellen. Einige grundlegende Konzepte dieser beiden Bereiche sind in der folgenden Tabelle 1 zusammengefasst:

Tabelle 1. Grundkonzepte der Quantenmechanik und der Theorie neuronaler Netze

Begriffspaare in derselben Zeile einer Tabelle sollten nicht als Analogien behandelt werden – tatsächlich ist die Herstellung einer solchen Analogie eine der Hauptaufgaben der Theorie der Quantenneuralen Netze. Bisher wurden Quantenkonzepte hauptsächlich zur Implementierung klassischer Berechnungen verwendet. Das Konzept des Quantencomputings wurde 1982 von Richard Feynman eingeführt, der die Rolle von Quanteneffekten in zukünftigen Prozessoren untersuchte, deren Elemente atomar groß sein könnten. 1985 formulierte David Deutsch das Konzept des Quantencomputings. Es ist wichtig zu beachten, dass die Wirksamkeit der Verwendung neuronaler Netze mit einer massiven parallelen verteilten Informationsverarbeitung und der Nichtlinearität der Transformation von Eingabevektoren durch Neuronen verbunden ist. Andererseits weisen Quantensysteme einen viel stärkeren Quantenparallelismus auf, der durch das Superpositionsprinzip ausgedrückt wird.

Bei der Entwicklung des Konzepts des klassischen und neuronalen Quantencomputings spielt unter anderem die gewählte Interpretation der Quantenmechanik eine wichtige Rolle

Kopenhagener Interpretation;

Feynman-Formalismus von Pfadintegralen;

Everetts Viele-Welten-Interpretation usw.

Die Wahl der Interpretation ist wichtig, wenn Analogien zwischen Quantenmechanik und Neuroinformatik hergestellt werden sollen. Insbesondere ist es wichtig für die Lösung des Problems, die lineare Theorie der Quantenmechanik mit der im Wesentlichen nichtlinearen Datenverarbeitung in Beziehung zu setzen, die die Leistungsfähigkeit der Neurotechnologie definiert.

Einführung in die Nanoelektronik

Quantenpunkttransistoren sind eine Art von heißen Elektronengeräten, die für die Mikrowellenelektronik sehr vielversprechend sind. Abbildung 14 zeigt den Aufbau eines moduliert dotierten Transistors mit Quantenpunkten...

Wellenresonanztheorie

In Abb. Abbildung 8 zeigt ein Diagramm des BPT-Netzwerks, dargestellt in Form von vier Funktionsmodulen. Es umfasst eine Steuereinheit, N Filter, N Ensembles von Neuronen und ein Befehlsmodul. Die Steuereinheit und das Befehlsmodul bieten Steuerfunktionen...

Computernetzwerke. Grundlegende Datenübertragungsmethoden

Ein Computernetzwerk ist ein Netzwerk zum Austausch und zur verteilten Informationsverarbeitung, das aus einer Vielzahl miteinander verbundener Teilnehmersysteme und Kommunikationsmittel besteht.

Diplom - Neuronales Netzwerksystem zur Steuerung und Diagnose einer Sauggestänge-Pumpeinheit

Ein neuronales Netzwerk ist eine Ansammlung von Elementen, die auf irgendeine Weise miteinander verbunden sind, sodass eine Interaktion zwischen ihnen gewährleistet ist. Diese Elemente, auch Neuronen oder Knoten genannt, sind einfache Prozessoren...

Damit sich die oben beschriebene Quantisierung des Energiespektrums in beobachtbaren Effekten niederschlägt, muss der Abstand zwischen den Energieniveaus En+1 – En ausreichend groß sein. Erstens...

Quantendimensionale Strukturen und nanoelektronische Geräte

Mit Verfahren der optischen Ionisation von Quantentöpfen können neuartige Infrarotstrahlungsdetektoren entstehen...

Quantenneurale Netze in Lern- und Kontrollprozessen

Die Klasse der Probleme, die mit einem CNN gelöst werden können, hängt davon ab, wie das Netzwerk funktioniert und wie es lernt. Während des Betriebs akzeptiert das CNS die Werte der Eingabevariablen und erzeugt die Werte der Ausgabevariablen. Auf diese Weise...

Routing in Multiservice-Netzwerken

Es gibt viele Möglichkeiten, ein Multiservice-Netzwerk aufzubauen. Eine davon beinhaltet den Aufbau einer homogenen Infrastruktur – dabei handelt es sich entweder um ein vollständig paketorientiertes, nicht verbindungsorientiertes Netzwerk (z. B. gemeinsam genutzte und geswitchte LANs...)

Quantentöpfe können prinzipiell zur Detektion von Licht in jedem Frequenzbereich eingesetzt werden, was auf ihre optischen Eigenschaften zurückzuführen ist...

Optoelektronische Geräte basierend auf Nanostrukturen

Quantentöpfe werden üblicherweise zur direkten Modulation von Lichtstrahlung verwendet, da die elektrooptischen Effekte in ihnen viel stärker sind als in herkömmlichen Massenhalbleitermaterialien (im Wesentlichen ...

Entwicklung und Erforschung eines Erkennungssystems für Multimediaanwendungen auf Basis neuronaler Netze

Vergleich von Daten aus Simulationen des Wasserstoffmoleküls mittels Quantencomputern mit experimentellen Werten. Die horizontale Achse ist der Abstand zwischen den Wasserstoffatomen im Molekül.

Ein britisch-amerikanisches Physikerteam, darunter Experten von Google und der University of California, hat das erste Experiment zur skalierbaren Quantenmodellierung des Wasserstoffmoleküls durchgeführt. In der Arbeit nutzten die Autoren einen Zwei-Qubit-Quantencomputer und verzichteten auf eine ressourcenintensive Vorabkompilierung von Algorithmen. Die Studie wurde in der Fachzeitschrift veröffentlicht Körperliche Untersuchung X, Googles Blog beschreibt es kurz.

Das Experiment basiert auf einem Variationsalgorithmus zur Suche nach Eigenlösungen mithilfe eines Quantencomputers (VQE), bei dem es sich laut Wissenschaftlern um ein neuronales Quantennetzwerk handelt. Wie jedes neuronale Netzwerk enthält es viele variable Parameter, die durch Training ausgewählt werden können, aber traditionelle neuronale Netzwerke modellieren klassische Systeme bzw. Quantensysteme.

Mit dieser Methode berechneten Wissenschaftler, wie sich die Energie eines Wasserstoffmoleküls (H 2) abhängig vom Abstand zwischen den darin enthaltenen Wasserstoffatomen ändert. Diese Berechnungen sind ein Sonderfall der Lösung des Problems der elektronischen Struktur von Molekülen. Wenn wir wissen, wie Elektronen im Grundzustand eines Moleküls angeordnet sind, können wir die Geschwindigkeit vorhersagen, mit der chemische Reaktionen ablaufen. Dies erfordert jedoch hochpräzise Energieberechnungen. Mit zunehmender Anzahl von Atomen in einem Molekül erhöht sich die Zeit, die für Berechnungen auf einem klassischen Computer benötigt wird, exponentiell. Wie im Google-Blog beschrieben, dauert die Berechnung der Grundzustandsenergie von Methan (CH 4) eine Sekunde, für Ethan (C 2 H 6) eine Minute und für Propan (C 3 H 8) einen ganzen Tag.

Das System verwendete supraleitende Qubits, die auf eine Temperatur von 20 Millikelvin gekühlt wurden. Jedes Qubit bestand aus einem supraleitenden Quanteninterferometer (bekannt als SQUID) und einem Kondensator.


Berechnungsschema. Auf der linken Seite sind Mikrofotografien von Qubits zu sehen, in den unteren Zeilen sind logische Operationen dargestellt, die an Qubits ausgeführt werden.

P. J. J. O'Malley et al. / Phys. Rev. X, 2016

Die Autoren verglichen die Ergebnisse von Berechnungen mit VQE mit experimentellen Daten und einem anderen Quantenalgorithmus. Den Physikern zufolge war es dank der Ausbildung möglich, systematische Fehler im Zusammenhang mit mangelhafter Ausrüstung zu beseitigen und Ergebnisse zu erzielen, die den experimentellen Daten nahe kommen. Wissenschaftler hoffen, dass die Widerstandsfähigkeit gegenüber solchen Fehlern dazu beitragen wird, eines der Probleme zu beseitigen, mit denen die Implementierung von Quantencomputern in der Zukunft konfrontiert sein wird.

Wie die Physiker antworten, wird es mit der Skalierung der Technologie und der Schaffung von Multiqubit-Systemen möglich sein, ähnliche Berechnungen für komplexere Moleküle durchzuführen. Beispielsweise reichen nur hundert Qubits aus, um den Prozess der Stickstofffixierung zu simulieren, der es Bakterien ermöglicht, Dünger buchstäblich aus der Luft zu produzieren. Möglicherweise werden dadurch bestehende Methoden zur Synthese von Stickstoffdüngern verbessert.

Obwohl es sich bei Quantencomputern mittlerweile um Systeme mit wenigen Qubits (-) handelt, nutzen Physiker sie bereits zur Simulation hochenergetischer Prozesse.

Wladimir Koroljow

Art der Arbeit: Masterarbeit Thema: Kommunikationstechnologien

Auszug aus der Arbeit

Ministerium Ausbildung Und Wissenschaften Russisch Föderation

Staatliche Bildungseinrichtung der Region Moskau

International Universität Natur, Gesellschaft und Person „Dubna“

MAgisterskDas ist der Job

Thema Quantenneurale Netze in Lern- und Kontrollprozessen

MITStudent Afanasjewa Olga Alexandrowna

Anmerkung

Diese Arbeit widmet sich der Analyse von Quanten-Neuronalen Netzen (QNNs) und ihren praktischen Anwendungen.

Die Lösung dieser Probleme steht in engem Zusammenhang mit der Entwicklung von Methoden der Quantenprogrammierung und ist von theoretischem und praktischem Interesse für die Entwurfsprozesse robuster intelligenter Steuerung unter Risikobedingungen und unvorhergesehenen Steuerungssituationen unter Berücksichtigung von Quanteneffekten bei der Informationsbildung Prozess der Selbstorganisation von Wissensdatenbanken.

Um die Ziele zu erreichen, wurde die Literatur ausländischer Autoren untersucht und Beispiele für den Einsatz von QNS in Managementprozessen betrachtet.

Das Ergebnis der Arbeit ist eine vergleichende Analyse zwischen klassischen und Quantenneuronen. Es werden neue Quantenoperatoren wie Superposition, Quantenkorrelation und Interferenz vorgeschlagen. Mit QNN können Sie den Such- und Trainingsraum sehen und die Genauigkeit und Robustheit des Lernsignal-Approximationsprozesses erhöhen.

Die Arbeit wurde unter der wissenschaftlichen Leitung von Dr. Phys.-Math. durchgeführt. Wissenschaften, Professor S.V. Uljanow am Institut für Systemanalyse und Management der Internationalen Universität für Natur, Gesellschaft und Mensch „Dubna“.

  • Einführung
  • 1 . Formulierung des Problems
    • 1.1 Zweck
    • 1.2 Ausgangsdaten
    • 1.3 Forschungskomponente
  • 2 . Wissenschaftliche Komponente
    • 2.1 Architektur quanten-neuronaler Netze
    • 2.2 Warum Quanten-Neuronale Netze interessant sind
    • 2.3 Quantenneuron
    • 2.4 Aufbau eines Quanten-Neuronalen Netzwerks
    • 2.5 Quantencomputing
    • 2,6 KNS-Modelle
    • 2.7 Quantenzustand und seine Darstellung
  • 3 . ZNS-Training
    • 3.2 Einschichtige und mehrschichtige Perzeptrone
      • 3.2.1 Einschichtiges Perzeptron. Ausbildung
      • 3.2.2 Mehrschichtiges Perzeptron. Mehrschichtiges Perzeptron-Training
    • 3.4 Genetischer Algorithmus. Klassisches Problem des Handlungsreisenden
  • 4 . Automatische Objektverwaltung
    • 4.1 Kontrollobjekt
    • 4.2 Robotik als Richtung der Künstlichen Intelligenz
      • 4.2.1 Allgemeines Blockdiagramm des Roboters
      • 4.2.2 Konzeptionelles Modell
    • 4.2 Effiziente Steuerung eines Quantenspinregisters. Kryptographie und Quantenteleportation
  • 5 . Praktischer Teil. Beispiele für Quanten-Neuronale Netze
    • 5.1 Umgekehrtes Pendel
    • 5.2 Bildkomprimierung
    • 5.3 Alphabetische Kodierung
  • 6 Toolkit MATLAB NEURALES NETZWERKWERKZEUG. Kohonen-Netzwerk
  • Abschluss
  • Referenzliste
  • Einführung
  • Heute wie vor hundert Jahren besteht kein Zweifel daran, dass das Gehirn effizienter und grundlegend anders arbeitet als jede vom Menschen geschaffene Rechenmaschine. Es ist diese Tatsache, die seit so vielen Jahren die Arbeit von Wissenschaftlern auf der ganzen Welt motiviert und leitet, künstliche neuronale Netze zu entwickeln und zu untersuchen.
  • Künstliche neuronale Netze (ANNs) verfügen über einige attraktive Funktionen, wie etwa parallele verteilte Verarbeitung, Fehlertoleranz und die Fähigkeit, erworbenes Wissen zu lernen und zu verallgemeinern. Die Generalisierungseigenschaft bezieht sich auf die Fähigkeit eines KNN, korrekte Ausgaben für Eingabesignale zu generieren, die während des Lernprozesses nicht berücksichtigt wurden. Diese beiden Eigenschaften machen KNN zu einem Informationsverarbeitungssystem, das komplexe mehrdimensionale Probleme löst, die über die Möglichkeiten anderer Techniken hinausgehen. Allerdings stehen ANNs auch vor vielen Herausforderungen, darunter fehlende Regeln für deterministische optimale Architekturen, begrenzte Speicherkapazität, lange Trainingszeit usw.
  • Künstliche neuronale Netze kommen überall dort zum Einsatz, wo es darum geht, Probleme der Prognose, Klassifizierung oder Steuerung zu lösen. Dieser beeindruckende Erfolg hat mehrere Gründe:
  • 1. Reichhaltige Möglichkeiten. Neuronale Netze sind eine äußerst leistungsfähige Modellierungstechnik, die äußerst komplexe Abhängigkeiten abbilden kann. Seit vielen Jahren ist die lineare Modellierung in den meisten Bereichen die vorherrschende Modellierungsmethode, da dafür Optimierungsverfahren weit entwickelt sind. Bei Problemen, bei denen die lineare Approximation unbefriedigend ist (und davon gibt es ziemlich viele), schneiden lineare Modelle schlecht ab. Darüber hinaus leiden neuronale Netze unter dem „Fluch der Dimensionalität“, der die Modellierung linearer Abhängigkeiten bei einer großen Anzahl von Variablen nicht zulässt
  • 2. Einfach zu bedienen. Neuronale Netze lernen aus Beispielen. Der Benutzer des neuronalen Netzwerks wählt repräsentative Daten aus und führt dann einen Lernalgorithmus aus, der automatisch die Struktur der Daten lernt. In diesem Fall muss der Benutzer natürlich über eine Reihe heuristischer Kenntnisse darüber verfügen, wie er Daten auswählt und aufbereitet, die gewünschte Netzwerkarchitektur auswählt und die Ergebnisse interpretiert, aber über den Wissensstand, der für den erfolgreichen Einsatz neuronaler Netze erforderlich ist ist viel bescheidener als beispielsweise bei Verwendung traditioneller statistischer Methoden.
  • Auf dem Gebiet der KNN wurden einige Pioniere vorgestellt Quantum Berechnung in eine ähnliche Diskussion wie Quantenneural Berechnung, Absorbiertes quantenneuronales Netzwerk, quantenassoziatives Gedächtnis und paralleles Lernen. Sie schufen eine Grundlage für die weitere Erforschung des Quantencomputings in ANN. Dabei entsteht das Gebiet der künstlichen neuronalen Netze, basierend auf quantentheoretischen Konzepten und Methoden. Sie werden Quantum Neural Networks genannt.
  • 1. Darstellung des Problems

1.1 Zweck

Erforschung und Analyse von Quanten-Neuronalen Netzen und ihrer praktischen Anwendung.

Forschungsschwerpunkte

· Identifizieren Sie die Vorteile von Quanten-Neuronalen Netzen gegenüber klassischen Netzen.

· Betrachten Sie Beispiele für den Einsatz von Quanten-Neuronalen Netzen in intelligenten Steuerungsprozessen.

· Simulieren Sie die Funktionsweise eines Quantenneurons auf einem klassischen Computer.

· Modellierung eines Daten-Clustering-Netzwerks in MATLAB.

· Betrachten Sie ein konkretes Beispiel aus der Robotik (Robotermanipulator).

1.2 Ausgangsdaten

· Neunbändiges Buch über Quantencomputing und Quantenprogrammierung, herausgegeben von der Universität Mailand, Autor Ulyanov S.V.

· Monographie von Nilsson, 2006.

· Website www.qcoptimizer.com.

1.3 Forschungskomponente

Die Forschung bezieht sich auf innovative Technologien zur Entwicklung quantenneuronaler Netze im Bereich intelligenter Steuerungssysteme mit Lernen. Die Lösung dieser Probleme steht in engem Zusammenhang mit der Entwicklung von Methoden der Quantenprogrammierung und ist von theoretischem und praktischem Interesse für die Entwurfsprozesse robuster intelligenter Steuerung unter Risikobedingungen und unvorhergesehenen Steuerungssituationen unter Berücksichtigung von Quanteneffekten bei der Informationsbildung Prozess der Selbstorganisation von Wissensdatenbanken.

2. Wissenschaftliche Komponente

2.1 Architektur quanten-neuronaler Netze

Quanten-Neuronale Netzwerke sind ein aufstrebendes Feld und eine Kombination aus klassischen neuronalen Netzwerken und Quantencomputing.

Möglicherweise wird ein System aufgerufen neuronal, wenn es möglich ist, mindestens einen zu identifizieren Neuron. Das neuronale System ist Quantenneural System, wenn es umsetzbar ist Quanten-Computing.

Es gibt verschiedene Ansätze für sogenannte Quanten-Neuronale Netze. Verschiedene Forscher nutzen eigene Analogien, um den Zusammenhang zwischen Quantenmechanik und künstlichen neuronalen Netzen herzustellen. Einige grundlegende Konzepte dieser beiden Bereiche sind in der folgenden Tabelle 1 zusammengefasst:

Tabelle 1. Grundkonzepte der Quantenmechanik und der Theorie neuronaler Netze

Konzeptpaare in derselben Zeile einer Tabelle sollten nicht als Analogien behandelt werden – tatsächlich ist die Etablierung einer solchen Analogie eines der Hauptziele der Quanten-Neuronalen-Netzwerk-Theorie. Bisher wurden Quantenkonzepte hauptsächlich zur Implementierung klassischer Berechnungen verwendet. Das Konzept des Quantencomputings wurde 1982 von Richard Feynman eingeführt, der die Rolle von Quanteneffekten in zukünftigen Prozessoren untersuchte, deren Elemente atomar groß sein könnten. 1985 formulierte David Deutsch das Konzept des Quantencomputings. Es ist wichtig zu beachten, dass die Wirksamkeit der Verwendung neuronaler Netze mit einer massiven parallelen verteilten Informationsverarbeitung und der Nichtlinearität der Transformation von Eingabevektoren durch Neuronen verbunden ist. Andererseits weisen Quantensysteme einen viel stärkeren Quantenparallelismus auf, der durch das Superpositionsprinzip ausgedrückt wird.

Bei der Entwicklung des Konzepts des klassischen und neuronalen Quantencomputings spielt unter anderem die gewählte Interpretation der Quantenmechanik eine wichtige Rolle

Kopenhagener Interpretation;

Feynman-Formalismus von Pfadintegralen;

Everetts Viele-Welten-Interpretation usw.

Die Wahl der Interpretation ist wichtig, wenn Analogien zwischen Quantenmechanik und Neuroinformatik hergestellt werden sollen. Insbesondere ist es wichtig für die Lösung des Problems, die lineare Theorie der Quantenmechanik mit der im Wesentlichen nichtlinearen Datenverarbeitung in Beziehung zu setzen, die die Leistungsfähigkeit der Neurotechnologie definiert.

2.2 Warum Quanten-Neuronale Netze interessant sind

Es gibt zwei Hauptgründe für das Interesse an Quanten-Neuronalen Netzen. Eine davon beinhaltet Argumente, dass Quantenprozesse eine wichtige Rolle bei der Gehirnfunktion spielen könnten. Roger Penrose hat beispielsweise verschiedene Argumente dafür vorgebracht, dass nur eine neue Physik, die die Quantenmechanik mit der allgemeinen Relativitätstheorie vereinen würde, Phänomene wie Verständnis und Bewusstsein beschreiben könnte. Allerdings zielt sein Ansatz nicht auf neuronale Netze selbst, sondern auf intrazelluläre Strukturen wie Mikrotubuli. Ein weiterer Grund hängt mit dem schnellen Wachstum des Quantencomputings zusammen, dessen Hauptideen durchaus auf das Neurocomputing übertragen werden könnten, was ihnen neue Möglichkeiten eröffnen würde.

Quantenneurale Systeme können aufgrund ihrer analogen Natur und der Fähigkeit, aus einer begrenzten Anzahl von Beispielen zu lernen, einige schwierige Probleme umgehen, die für das Quantencomputing von wesentlicher Bedeutung sind.

Was können wir von Quanten-Neuronalen Netzen erwarten? Quantenneurale Netze bieten derzeit folgende Vorteile:

— exponentielle Speicherkapazität;

– bessere Leistung mit weniger versteckten Neuronen;

- schnelles Lernen;

-Beseitigung des katastrophalen Vergessens aufgrund der Abwesenheit von Bildinterferenzen;

— Lösung linear untrennbarer Probleme mit einem einschichtigen Netzwerk;

— Mangel an Verbindungen;

— hohe D(10 10 Bit/s);

- Miniatur (10 11 Neuronen/mm 3);

— höhere Stabilität und Zuverlässigkeit;

Diese potenziellen Vorteile von Quanten-Neuronalen Netzen sind es, die ihre Entwicklung in erster Linie motivieren.

2. 3 Quantenneuron

Synapsen kommunizieren zwischen Neuronen und multiplizieren das Eingangssignal mit einer Zahl, die die Stärke der Verbindung charakterisiert – das Gewicht der Synapse. Der Addierer führt die Addition von Signalen durch, die über synaptische Verbindungen von anderen Neuronen eintreffen, und externen Eingangssignalen. Der Konverter implementiert die Funktion eines Arguments, die Ausgabe des Addierers, in einen Ausgabewert des Neurons. Diese Funktion wird Neuronenaktivierungsfunktion genannt.

Somit wird das Neuron vollständig durch seine Gewichte und die Aktivierungsfunktion F beschrieben. Nachdem das Neuron eine Reihe von Zahlen (Vektor) als Eingaben erhalten hat, erzeugt es eine bestimmte Zahl als Ausgabe.

Die Aktivierungsfunktion kann unterschiedlicher Art sein. Die am häufigsten verwendeten Optionen sind in der Tabelle aufgeführt (Tabelle 2).

Tabelle 2: Liste der Neuronenaktivierungsfunktionen

Die Definition eines Quantenneurons lautet wie folgt:

Es empfängt Eingangssignale (Anfangsdaten oder Ausgangssignale anderer ZNS-Neuronen) über mehrere Eingangskanäle. Jedes Eingangssignal durchläuft eine Verbindung mit einer bestimmten Intensität (oder Gewichtung); Dieses Gewicht entspricht der synaptischen Aktivität des Neurons. Jedem Neuron ist ein spezifischer Schwellenwert zugeordnet. Die gewichtete Summe der Eingaben wird berechnet, der Schwellenwert wird davon abgezogen und das Ergebnis ist das Ausmaß der Aktivierung des Neurons (auch postsynaptisches Potenzial des Neurons – PSP) genannt.

Das Aktivierungssignal wird mithilfe einer Aktivierungsfunktion (oder Übertragungsfunktion) umgewandelt, um die Ausgabe des Neurons zu erzeugen (Abbildung 1).

Abbildung 1: Mathematische Modell eines Neurons

Ein mathematisches Modell eines Quantenneurons, bei dem es sich um Matrizen handelt, die auf der Grundlage eines Operators agieren, der ein Netzwerk von Quantenzellen implementieren kann.

Zum Beispiel: Der Lernprozess eines Quantenneurons. = - Identitätsoperator: .

Die Quantenlernregel wird analog zum klassischen Fall wie folgt bereitgestellt: Wo ist die gewünschte Ausgabe? Diese Lernregel bringt das Quantenneuron in den gewünschten Lernzustand. Wenn wir die Differenz zwischen der tatsächlichen und der gewünschten Ausgabe im Quadrat für das Modul betrachten, sehen wir Folgendes:

Ein ganzes Netzwerk kann aus primitiven Elementen unter Verwendung der Standardregeln von ANN-Architekturen zusammengesetzt werden.

2.4 Aufbau eines Quanten-Neuronalen Netzwerks

Dieses Problem wird in zwei Schritten gelöst: Auswahl des Typs (Architektur) des CNN, Auswahl der Gewichte (Training) des CNN.

Im ersten Schritt sollten wir Folgendes auswählen: welche Neuronen wir verwenden möchten (Anzahl der Eingaben, Übertragungsfunktionen); Wie sollen sie miteinander verbunden sein? was als Ein- und Ausgänge des ZNS zu betrachten sind.

Diese Aufgabe erscheint auf den ersten Blick riesig, aber glücklicherweise müssen wir ein CNN nicht „von Grund auf neu“ entwickeln – es gibt mehrere Dutzend verschiedene neuronale Netzwerkarchitekturen, und die Wirksamkeit vieler von ihnen wurde mathematisch bewiesen. Die beliebtesten und am meisten untersuchten Architekturen sind mehrschichtige Perzeptrone, allgemeine Regressions-Neuronale Netze, Kohonen-Neuronale Netze und andere.

Im zweiten Schritt sollten wir das ausgewählte Netzwerk „trainieren“, das heißt, solche Werte seiner Gewichte auswählen, damit es wie gewünscht funktioniert. Ein untrainiertes ZNS ist wie ein Kind – man kann ihm alles beibringen. In neuronalen Netzen, die in der Praxis eingesetzt werden, kann die Anzahl der Gewichte mehrere Zehntausend betragen, sodass das Training ein wirklich komplexer Prozess ist. Für viele Architekturen wurden spezielle Lernalgorithmen entwickelt, die es ermöglichen, die Gewichte des CNN auf eine bestimmte Weise zu konfigurieren. Der beliebteste dieser Algorithmen ist die Error-Back-Propagation-Methode, die beispielsweise zum Trainieren eines Perzeptrons verwendet wird.

2.5 Quantencomputing

Quantencomputing ermöglicht die Lösung von Problemen, die auf klassischen Computern nicht lösbar sind. Beispielsweise liefert Shors Algorithmus auf einem Quantencomputer eine polynomische Lösung für die Faktorisierung einer ganzen Zahl in zwei Primfaktoren, die auf einem klassischen Computer als unlösbar gilt. Darüber hinaus beschleunigt der Grover-Algorithmus die Suche nach Daten in einer ungeordneten Datenbank erheblich.

Bisher haben wir keinen qualitativen Unterschied zwischen der Verwendung normaler Bits und Qubits gesehen, aber etwas Seltsames passiert, wenn man ein Atom gerade genug Licht aussetzt, um das Elektron auf halbem Weg zwischen den Anregungsniveaus zu bringen. Da Elektronen im Raum zwischen diesen Ebenen nicht wirklich existieren können, existieren sie IN BEIDEN Ebenen gleichzeitig. Dies wird als „Überlagerung“ bezeichnet.

Diese Überlagerung ermöglicht die theoretische Berechnung mehrerer Möglichkeiten gleichzeitig, da eine Gruppe von Qubits mehrere Zahlen gleichzeitig darstellen kann. Um mithilfe der Superpositionseigenschaft zu rechnen, können Sie eine Reihe von Qubits erstellen, sie in Superpositionszustände versetzen und dann eine Aktion mit ihnen ausführen.

Wenn der Algorithmus abgeschlossen ist, kann die Überlagerung reduziert werden, und es wird ein bestimmtes Ergebnis erhalten – das heißt, alle Qubits gehen in die Zustände 0 oder 1. Wir können davon ausgehen, dass der Algorithmus parallel auf alle möglichen Kombinationen bestimmter Zustände einwirkt Qubits (d. h. 0 oder 1) ist ein Trick, der als Quantenparallelismus bekannt ist (Tabelle 3).

Tabelle 3: Hauptkonzepte des Quantencomputings

Beim Aufbau von Modellen quantenneuronaler Systeme (sowie bei der Erstellung von Modellen des Quantencomputings) muss geklärt werden, welche Berechnungen als echte Quantenberechnungen charakterisiert werden können und welche Quellen der Effizienz dieser Berechnungen zugrunde liegen.

Einen wichtigen Platz nimmt auch die Klärung der effektivsten Einsatzgebiete von Quantencomputersystemen ein.

Die grundlegende Ressource und Grundbildung der Quanteninformation ist ein Quantenbit (Qubit). Aus physikalischer Sicht repräsentiert ein Qubit den idealen Dualzustand eines Quantensystems. Beispiele für solche Systeme sind Photonen (vertikale und horizontale Polarisation), Elektronen und Systeme, die durch zwei Energieniveaus von Atomen oder Ionen definiert sind. Von Anfang an spielte der duale Zustand eines Systems eine zentrale Rolle in der Erforschung der Quantenmechanik. Dies ist das einfachste Quantensystem, und im Prinzip können alle anderen Quantensysteme im Zustandsraum von Qubit-Anordnungen modelliert werden.

Der Zustand eines Quantenbits wird durch einen Vektor in einem zweidimensionalen komplexen Vektorraum angegeben. Hier hat der Vektor zwei Komponenten und seine Projektionen auf die Basen des Vektorraums sind komplexe Zahlen. Ein Quantenbit wird (in der Dirac-Notation als Ket-Vektor) als oder in Vektornotation (bra-Vektor) dargestellt. Wenn, dann. Für Quantencomputerzwecke kodieren die Basiszustände |0> und |1> die klassischen Bitwerte 0 bzw. 1. Im Gegensatz zu klassischen Bits können Qubits jedoch in einer Überlagerung von |0> und |1> vorliegen, beispielsweise wobei und komplexe Zahlen sind, für die die folgende Bedingung gilt:. Wenn oder Nullwerte annehmen, dann definiert es den klassischen, reinen Zustand. Ansonsten spricht man von einem Überlagerungszustand zweier klassischer Grundzustände. Geometrisch gesehen befindet sich ein Quantenbit zwischen und bis zur Messung seines Zustands in einem kontinuierlichen Zustand. Besteht das System aus zwei Quantenbits, wird es als Tensorprodukt beschrieben. In der Dirac-Notation wird beispielsweise ein Zwei-Quanten-Bitsystem als angegeben. Die Anzahl möglicher Zustände eines kombinierten Systems erhöht sich exponentiell mit der Hinzufügung eines Quantenbits.

Dies führt zu dem Problem, die Quantenkorrelation zwischen Quantenbits in einem zusammengesetzten System abzuschätzen.

Das exponentielle Wachstum der Anzahl der Zustände gepaart mit der Fähigkeit, den gesamten Raum Transformationen zu unterziehen (entweder eine einheitliche dynamische Entwicklung eines Systems oder ein Eigenvektor-Unterraum-Messdesign), bildet die Grundlage für Quantencomputing. Da einheitliche Transformationen reversibel sind, sind alle Quantenberechnungen (außer Messungen) reversibel, was sie auf einheitliche Quantentransformationen beschränkt. Das bedeutet, dass jede Quantenzelle (ein oder mehrere Qubits) eine reversible Berechnung durchführt. Daher ist es bei einer gegebenen Ausgabezelle notwendig, eindeutig zu bestimmen, um welche Eingabe es sich handelt. Glücklicherweise gibt es die klassische Theorie des reversiblen Rechnens, die besagt, dass jeder klassische Algorithmus mit einer akzeptablen Obergrenze reversibel gemacht werden kann, sodass diese Einschränkung des Quantencomputings kein ernstes Problem darstellt. Dies sollte jedoch berücksichtigt werden, wenn eine Spezifikation für Quantengatter vorgeschlagen wird.

2,6 KNS-Modelle

Weltweit gibt es mehrere Forschungsinstitute, die am Konzept eines Quanten-Neuronalen Netzwerks arbeiten, beispielsweise die Georgia Tech University und die University of Oxford. Die meisten verzichten jedoch auf eine Veröffentlichung ihrer Arbeiten. Dies liegt wahrscheinlich daran, dass die Implementierung eines Quanten-Neuronalen Netzwerks möglicherweise viel einfacher ist als die eines herkömmlichen Quantencomputers und jede Institution den Quantenwettlauf gewinnen möchte. Aus einem Grund ist es theoretisch einfacher, ein neuronales Quantennetzwerk aufzubauen als einen Quantencomputer. Dieser Grund ist Kohärenz. Die Überlagerung vieler Qubits verringert die Widerstandsfähigkeit gegenüber Rauschen in einem Quantencomputer, und Rauschen kann möglicherweise zum Zusammenbruch oder zur Dekohärenz der Überlagerung führen, bevor eine nützliche Berechnung durchgeführt werden kann. Da neuronale Quantennetze jedoch keine sehr langen Zeiträume oder sehr viele Überlagerungen pro Neuron erfordern, sind sie weniger anfällig für Rauschen und führen immer noch Berechnungen durch, die denen eines herkömmlichen neuronalen Netzes ähneln, jedoch um ein Vielfaches schneller (eigentlich exponentiell). .

Quanten-Neuronale Netze könnten ihren exponentiellen Geschwindigkeitsvorteil durch die Überlagerung der Größen der Ein- und Ausgänge eines Neurons realisieren. Ein weiterer Vorteil besteht jedoch darin, dass das neuronale Netzwerk tatsächlich weniger Neuronen in der verborgenen Schicht haben könnte, wenn es lernt, eine bestimmte Funktion anzunähern, da Neuronen eine Überlagerung von Signalen verarbeiten können. Dies würde es ermöglichen, einfachere Netzwerke mit weniger Neuronen aufzubauen und somit die Stabilität und Zuverlässigkeit ihres Betriebs zu verbessern (d. h. die Anzahl der Möglichkeiten, dass das Netzwerk seine Kohärenz verliert, würde verringert). Könnte ein neuronales Quantennetzwerk unter Berücksichtigung all dessen nicht rechnerisch leistungsfähiger sein als ein normales Netzwerk? Derzeit scheint die Antwort „Nein“ zu sein, da alle Quantenmodelle eine endliche Anzahl von Qubits für ihre Berechnungen verwenden, was eine Einschränkung darstellt.

2.7 Quantenzustand und seine Darstellung

Quantenneuron-Perzeptron-Robotik

Der Quantenzustand und der Quantenberechnungsoperator sind beide wichtig für das Verständnis von Parallelität und Plastizität in Informationsverarbeitungssystemen.

In einer Quantenlogikschaltung sind die fundamentalen Quantenzustände die Ein-Bit-Rotation des Zustands Ui, wie in Abb. 2 und der Zwei-Bit-gesteuerte NICHT-Zustand, der in Abb. 3. Die ersten Zustände drehen den Eingangsquantenzustand entlang und in diesen Zustand. Letztere Staaten führen eine XOR-Operation durch.

Reis. 2. Ein-Bit-Rotationszustand

Reis. 3. Zwei-Bit-NOT-Zustandssteuerung

Wir wählen die folgende komplexe Auswertung der Darstellung Gl. (3) entspricht restriktiv dem kubischen Zustand in Gl. (1).

(3)

Gleichung (3) ermöglicht es, die folgenden Operationen auszudrücken: Rotationszustand und Zwei-Bit-gesteuerte NICHT-Zustände.

a) Rotationszustandsoperation

Der Rotationszustand ist eine Phase sich bewegender Zustände, die die Phase in einen kubischen Zustand umwandelt. Da der kubische Zustand durch Gl. (3) Unter dem Zustand versteht man folgende Relation:

(4)

b) Zwei-Bit-gesteuerte NICHT-Operation

Diese Operation wird durch den Eingabeparameter r wie folgt definiert:

(5)

Dabei entspricht r=1 einer Aufhebungsrotation und r=0 einer Nichtrotation. Im Fall r=0 ändert sich die Wahrscheinlichkeitsphase der Amplitude des Quantenzustands |1> vollständig.

Die beobachtete Wahrscheinlichkeit ist jedoch invariant, sodass wir diesen Fall als Nichtrotation betrachten.

3. ZNS-Training

Quantenneurale Netze können komplexe Funktionen in einer Reihe von Bereichen effektiv ausführen. Dazu gehören Mustererkennung, Klassifizierung, Vision, Kontrollsysteme und Vorhersage.

Die Fähigkeit zu lernen – sich an Bedingungen und Möglichkeiten in einer sich verändernden äußeren Umgebung anzupassen – ist ein so wichtiges Merkmal neuronaler Netze, dass sie nun als separater Punkt dem sogenannten „Turing-Test“ zugeordnet wird, einer operativen Definition davon das Konzept der Intelligenz.

Ein empirischer Test, dessen Idee von Alan Turing in dem 1950 in der philosophischen Zeitschrift Mind veröffentlichten Artikel „Computing Machinery and Intelligence“ vorgeschlagen wurde. Der Zweck dieses Tests besteht darin, die Möglichkeit künstlichen, menschlichen Denkens festzustellen.

Die Standardinterpretation dieses Tests lautet: „Eine Person interagiert mit einem Computer und einer Person.“ Anhand der Antworten auf die Fragen muss er feststellen, mit wem er spricht: eine Person oder ein Computerprogramm. Der Zweck eines Computerprogramms besteht darin, eine Person dazu zu verleiten, eine falsche Wahl zu treffen.“ Alle Testteilnehmer können sich nicht sehen.

Im Allgemeinen ist Lernen eine relativ dauerhafte Verhaltensänderung, die durch Erfahrung hervorgerufen wird. Das ZNS-Training ist ein direkterer Prozess und kann das Training jedes Schritts in einer bestimmten Beziehung zur Ursachenwirksamkeit erfassen. Das in Synapsen gespeicherte Wissen eines neuronalen Netzwerks sind die Gewichte der Verbindungen zwischen Neuronen. Diese Gewichte zwischen zwei Schichten eines Neurons können als Matrizen dargestellt werden. Wenn ein neuronales Netzwerk mit einem geeigneten Lernalgorithmus zur Analyse und Vorverarbeitung der Daten definiert wird, kann eine vernünftige Vorhersage getroffen werden.

Die Definition des Lernprozesses impliziert die folgende Abfolge von Ereignissen:

· Das neuronale Netzwerk wird durch die Umgebung stimuliert.

· Das neuronale Netzwerk erfährt durch Anregung Veränderungen seiner freien Parameter.

· Das Netzwerk reagiert aufgrund von Änderungen in seiner internen Struktur auf neue Weise auf die Umgebung.

Es stehen zahlreiche Algorithmen zur Verfügung und man würde erwarten, dass es einen einzigartigen Algorithmus zum Entwerfen eines QNN-Modells gibt. Die Unterschiede zwischen den Algorithmen liegen in der Formulierung, die die Gewichte der Neuronen verändern kann, und in der Beziehung der Neuronen zu ihrer Umgebung.

Alle Lehrmethoden können in zwei Hauptkategorien eingeteilt werden: beaufsichtigt und unbeaufsichtigt.

Tabelle 4 stellt verschiedene Lernalgorithmen und die zugehörigen Netzwerkarchitekturen vor (die Liste ist nicht vollständig). Die letzte Spalte listet die Aufgaben auf, für die jeder Algorithmus angewendet werden kann. Jeder Lernalgorithmus konzentriert sich auf ein Netzwerk einer bestimmten Architektur und ist für eine begrenzte Klasse von Aufgaben gedacht. Zusätzlich zu den besprochenen sollten einige andere Algorithmen erwähnt werden: Adaline und Madaline, lineare Diskriminanzanalyse, Sammon-Projektionen, Hauptkomponentenanalyse.

Tabelle 4: Bekannte Lernalgorithmen:

Paradigma

Lernregel

Die Architektur

Lernalgorithmus

Mit Lehrer

Fehler Korrektur

Einschichtiges und mehrschichtiges Perzeptron

Perzeptron-Trainingsalgorithmen

Backpropagation

Adaline und Madaline

Perzeptron-Training

Backpropagation

Adaline und MadalineKlassifizierung von Bildern

Funktionsnäherung

Vorhersage, Kontrolle

Boltzmann

Wiederkehrend

Boltzmann-Lernalgorithmus

Klassifizierung von Bildern

Lineare Diskriminanzanalyse

Datenanalyse

Klassifizierung von Bildern

Wettbewerb

Wettbewerb

Vektorquantisierung

Klassifizierung von Bildern

Ohne Lehrer

Fehler Korrektur

Mehrschichtige direkte Ausbreitung

Sammons Projektion

Direktvertrieb oder Konkurrenz

Hauptkomponentenanalyse

Datenanalyse

Datenkompression

Hopfield-Netzwerk

Assoziatives Gedächtnistraining

Assoziatives Gedächtnis

Wettbewerb

Wettbewerb

Vektorquantisierung

Kategorisierung

Datenkompression

SOM Kohonen

SOM Kohonen

Kategorisierung

Datenanalyse

Gemischt

Fehlerkorrektur und Wettbewerb

RBF-Lernalgorithmus

Klassifizierung von Bildern

Funktionsnäherung

Vorhersage, Kontrolle

Ein Netzwerk zu trainieren bedeutet, ihm zu sagen, was wir von ihm wollen. Dieser Vorgang ist dem Erlernen des Alphabets für ein Kind sehr ähnlich. Nachdem wir dem Kind ein Bild des Buchstabens „A“ gezeigt haben, fragen wir es: „Welcher Buchstabe ist das?“ Wenn die Antwort falsch ist, sagen wir dem Kind die Antwort, die wir von ihm erwarten: „Das ist der Buchstabe A.“ Das Kind erinnert sich an dieses Beispiel zusammen mit der richtigen Antwort, das heißt, in seinem Gedächtnis treten einige Veränderungen in die richtige Richtung auf. Wir werden den Vorgang des Präsentierens der Buchstaben immer wieder wiederholen, bis wir alle 33 Buchstaben fest im Gedächtnis haben. Dieser Vorgang wird als „überwachtes Lernen“ bezeichnet (Abb. 4).

Reis. 4. Der Prozess des „Trainings mit einem Lehrer“.

Beim Training eines Netzwerks gehen wir genauso vor. Wir verfügen über eine Datenbank mit Beispielen (eine Reihe handgeschriebener Bilder von Briefen). Indem wir dem Eingang des ZNS das Bild des Buchstabens „A“ präsentieren, erhalten wir von ihm eine Antwort, die nicht unbedingt richtig ist. Wir kennen auch die richtige (gewünschte) Antwort – in diesem Fall möchten wir, dass der Signalpegel am Ausgang des SNS mit der Bezeichnung „A“ maximal ist. Typischerweise ist die gewünschte Ausgabe bei einem Klassifizierungsproblem die Menge (1, 0, 0, ...), wobei 1 für die mit „A“ gekennzeichnete Ausgabe und 0 für alle anderen Ausgaben steht. Durch die Berechnung der Differenz zwischen der gewünschten Antwort und der tatsächlichen Antwort des Netzwerks erhalten wir 33 Zahlen – den Fehlervektor. Der Fehler-Backpropagation-Algorithmus besteht aus einer Reihe von Formeln, mit denen Sie die erforderlichen Korrekturen für die Gewichte eines neuronalen Netzwerks mithilfe des Fehlervektors berechnen können. Wir können dem neuronalen Netzwerk mehrmals denselben Buchstaben (sowie verschiedene Bilder desselben Buchstabens) präsentieren. In diesem Sinne ähnelt Lernen eher dem Wiederholen von Übungen im Sport – Training.

Nach wiederholter Präsentation von Beispielen stabilisieren sich die Gewichte des KNN und der KNN gibt auf alle (oder fast alle) Beispiele aus der Datenbank korrekte Antworten. In diesem Fall heißt es: „Das Netzwerk hat alle Beispiele gelernt“, „das neuronale Netzwerk ist trainiert“ oder „das Netzwerk ist trainiert“. Bei Softwareimplementierungen können Sie beobachten, dass während des Lernprozesses die Größe des Fehlers (die Summe der quadrierten Fehler über alle Ausgaben) allmählich abnimmt. Wenn der Fehler Null oder ein akzeptables kleines Niveau erreicht, wird das Training gestoppt und das resultierende Netzwerk gilt als trainiert und bereit für die Verwendung mit neuen Daten.

Netzwerkschulung gliedert sich in folgende Phasen:

Netzwerkinitialisierung: Den Gewichten und Bias des Netzwerks werden kleine Zufallswerte aus den Bereichen bzw. zugewiesen.

Definition eines Trainingsbeispielelements: (<текущий вход>, <желаемый выход>). Die aktuellen Eingaben (x0, x1... xN-1) müssen für alle Elemente des Trainingssatzes unterschiedlich sein. Bei Verwendung eines mehrschichtigen Perzeptrons als Klassifikator besteht das gewünschte Ausgangssignal (d0, d1 ... dN-1) aus Nullen bis auf ein Einheitselement, das der Klasse entspricht, zu der das aktuelle Eingangssignal gehört.

Berechnung des aktuellen Ausgangssignals: Das aktuelle Ausgangssignal wird gemäß dem traditionellen Operationsschema eines mehrschichtigen neuronalen Netzwerks ermittelt.

Feinabstimmung der synaptischen Gewichte: Bei der Feinabstimmung der Gewichte wird ein rekursiver Algorithmus verwendet, der zunächst auf die Ausgabeneuronen des Netzwerks angewendet wird und dann das Netzwerk rückwärts zur ersten Schicht durchläuft. Synaptische Gewichte werden gemäß der Formel angepasst:

,

Dabei ist w ij das Gewicht von Neuron i oder vom Eingangssignalelement i zu Neuron j zum Zeitpunkt t, x i " ist die Ausgabe von Neuron i oder dem i-ten Element des Eingangssignals, r ist der Lernschritt, g j ist der Fehlerwert für Neuron j. Wenn Neuron Nummer j zur letzten Schicht gehört, dann

,

Dabei ist dj die gewünschte Ausgabe von Neuron j und yj die aktuelle Ausgabe von Neuron j. Wenn Neuron Nummer j zu einer der Schichten von der ersten bis zur vorletzten gehört, dann

,

wobei k durch alle Neuronen der Schicht verläuft, deren Nummer eins größer ist als diejenige, zu der Neuron j gehört. Externe Vorurteile von b-Neuronen werden auf ähnliche Weise angepasst.

Das betrachtete Modell kann zur Mustererkennung, Klassifizierung und Vorhersage verwendet werden. Es gab Versuche, Expertensysteme basierend auf mehrschichtigen Perzeptronen mit Training mithilfe der Backpropagation-Methode aufzubauen. Es ist wichtig zu beachten, dass alle Informationen, die CNN über das Problem hat, in den Beispielen enthalten sind. Daher hängt die Qualität des CNN-Trainings direkt von der Anzahl der Beispiele im Trainingssatz sowie davon ab, wie vollständig diese Beispiele die gegebene Aufgabe beschreiben. Auch hier ist das Training neuronaler Netze ein komplexer und wissensintensiver Prozess. KNN-Lernalgorithmen verfügen über verschiedene Parameter und Einstellungen, deren Verwaltung ein Verständnis ihres Einflusses erfordert.

3.1 Anwendung von Quanten-Neuronalen Netzen. Die Bedeutung des überwachten Lernalgorithmus

Die Klasse der Probleme, die mit einem CNN gelöst werden können, hängt davon ab, wie das Netzwerk funktioniert und wie es lernt. Während des Betriebs akzeptiert das CNS die Werte der Eingabevariablen und erzeugt die Werte der Ausgabevariablen. Daher kann das Netzwerk in einer Situation verwendet werden, in der Sie über bekannte Informationen verfügen und daraus noch unbekannte Informationen erhalten möchten (Patterson, 1996; Fausett, 1994). Hier einige Beispiele für solche Aufgaben:

·Mustererkennung und -klassifizierung

Bei den Bildern kann es sich um Objekte unterschiedlicher Art handeln: Textsymbole, Bilder, Tonbeispiele usw. Beim Training des Netzwerks werden verschiedene Bildbeispiele angeboten, die angeben, zu welcher Klasse sie gehören. Eine Stichprobe wird normalerweise als Vektor von Merkmalswerten dargestellt. In diesem Fall muss die Gesamtheit aller Merkmale eindeutig die Klasse bestimmen, zu der die Stichprobe gehört. Wenn nicht genügend Funktionen vorhanden sind, kann das Netzwerk dieselbe Stichprobe mehreren Klassen zuordnen, was falsch ist. Nachdem Sie das Netzwerk trainiert haben, können Sie ihm bisher unbekannte Bilder präsentieren und eine Antwort über die Zugehörigkeit zu einer bestimmten Klasse erhalten.

·Entscheidungsfindung und Management

Diese Aufgabe kommt dem Klassifizierungsproblem nahe. Situationen, deren Merkmale am Eingang des ZNS empfangen werden, unterliegen der Klassifizierung. Am Ausgang des Netzwerks sollte ein Zeichen der getroffenen Entscheidung erscheinen. Als Eingangssignale werden dabei verschiedene Kriterien zur Beschreibung des Zustands der Regelstrecke verwendet.

· Clustering

Unter Clustering versteht man die Einteilung einer Menge von Eingangssignalen in Klassen, obwohl weder die Anzahl noch die Eigenschaften der Klassen im Voraus bekannt sind. Nach dem Training kann ein solches Netzwerk bestimmen, zu welcher Klasse das Eingangssignal gehört.

· Prognose

Nach dem Training ist das Netzwerk in der Lage, den zukünftigen Wert einer bestimmten Sequenz basierend auf mehreren vorherigen Werten und/oder einigen aktuell vorhandenen Faktoren vorherzusagen. Es ist zu beachten, dass Prognosen nur dann möglich sind, wenn frühere Veränderungen tatsächlich bis zu einem gewissen Grad zukünftige Veränderungen vorgeben.

· Annäherung

Ein verallgemeinerter Näherungssatz wurde bewiesen: Mithilfe linearer Operationen und einer Kaskadenverbindung ist es möglich, aus einem beliebigen nichtlinearen Element ein Gerät zu erhalten, das jede stetige Funktion mit einer vorgegebenen Genauigkeit berechnet.

· Datenkomprimierung und assoziatives Gedächtnis

Die Fähigkeit neuronaler Netze, Beziehungen zwischen verschiedenen Parametern zu erkennen, ermöglicht es, hochdimensionale Daten kompakter auszudrücken, wenn die Daten eng miteinander verknüpft sind. Der umgekehrte Vorgang – die Wiederherstellung des ursprünglichen Datensatzes aus einer Information – wird als autoassoziatives Gedächtnis bezeichnet. Mit dem assoziativen Speicher können Sie auch das ursprüngliche Signal/Bild aus verrauschten/beschädigten Eingangsdaten wiederherstellen. Die Lösung des heteroassoziativen Speicherproblems ermöglicht uns die Implementierung eines inhaltsadressierbaren Speichers.

Phasen der Problemlösung:

— Erhebung von Daten für die Ausbildung;

— Aufbereitung und Normalisierung von Daten;

— Wahl der Netzwerktopologie;

— experimentelle Auswahl von Netzwerkeigenschaften;

tatsächliche Ausbildung;

— Überprüfung der Angemessenheit der Ausbildung;

— Anpassung der Parameter, Abschlussschulung;

— Verbalisierung des Netzwerks zur weiteren Verwendung.

Kommen wir also zur zweiten wichtigen Bedingung für den Einsatz von Quantum Neural Networks: Wir müssen wissen, dass ein Zusammenhang zwischen den bekannten Eingabewerten und den unbekannten Ausgaben besteht. Diese Kommunikation kann durch Rauschen gestört werden.

In der Regel wird QNN verwendet, wenn die genaue Art der Verbindungen zwischen Ein- und Ausgängen unbekannt ist – wenn sie bekannt wäre, könnte die Verbindung direkt modelliert werden. Ein weiteres wichtiges Merkmal von QNN besteht darin, dass die Beziehung zwischen Eingabe und Ausgabe während des Trainingsprozesses des Netzwerks ermittelt wird. Um CNNs zu trainieren, werden zwei Arten von Algorithmen verwendet (verschiedene Arten von Netzwerken verwenden unterschiedliche Arten von Training): überwacht („überwachtes Lernen“) und unüberwacht („unüberwacht“). Die am häufigsten verwendete Methode ist überwachtes Lernen.

Für überwachtes Netzwerktraining muss der Benutzer einen Satz Trainingsdaten vorbereiten. Diese Daten sind Beispiele für Eingaben und die entsprechenden Ausgaben. Das Netzwerk lernt, eine Verbindung zwischen dem ersten und dem zweiten herzustellen. In der Regel werden Trainingsdaten aus historischen Daten übernommen. Dazu könnten auch Aktienkurswerte und der FTSE-Index, Informationen über frühere Kreditnehmer – ihre persönlichen Daten und ob sie ihren Verpflichtungen erfolgreich nachgekommen sind, Beispiele für die Positionen des Roboters und seine korrekte Reaktion gehören.

Das CNN wird dann mithilfe einer Art überwachtem Lernalgorithmus trainiert (der bekannteste ist die von Rumelhart et al., 1986 vorgeschlagene Backpropagation-Methode), bei dem die verfügbaren Daten verwendet werden, um die Gewichte und Schwellenwerte des Netzwerks auf diese Weise anzupassen um Fehler zu minimieren. Vorhersage auf dem Trainingssatz. Wenn ein Netzwerk gut trainiert ist, erhält es die Fähigkeit, eine (unbekannte) Funktion zu modellieren, die die Werte von Eingabe- und Ausgabevariablen in Beziehung setzt, und ein solches Netzwerk kann anschließend verwendet werden, um Vorhersagen in einer Situation zu treffen, in der die Ausgabewerte gleich sind Unbekannt.

3.2 Einschichtige und mehrschichtige Perzeptrone

3.2.1 Einschichtiges Perzeptron. Ausbildung

Historisch gesehen war das erste künstliche neuronale Netzwerk, das zur Wahrnehmung (Wahrnehmung) und zur Bildung einer Reaktion auf einen wahrgenommenen Reiz fähig war Perzeptron Rosenblatt (F. Rosenblatt, 1957). Der Begriff " Perzeptron„kommt aus dem Lateinischen Wahrnehmung, was Wahrnehmung, Erkenntnis bedeutet. Das russische Analogon dieses Begriffs ist „Perceptron“. Sein Autor betrachtete das Perzeptron nicht als spezifisches technisches Rechengerät, sondern als Modell der Gehirnfunktion. Moderne Arbeiten zu künstlichen neuronalen Netzen verfolgen selten ein solches Ziel.

Das einfachste klassische Perzeptron enthält Elemente von drei Typen (Abb. 5.).

Reis. 5. Elementares Rosenblatt-Perzeptron

Ein einschichtiges Perzeptron ist durch eine Matrix synaptischer Verbindungen ||W|| gekennzeichnet von S- zu A-Elementen. Das Matrixelement entspricht der Verbindung vom i-ten S-Element (Zeilen) zum j-ten A-Element (Spalten). Diese Matrix erinnert stark an die Matrizen absoluter Häufigkeiten und Informationsinhalte, die im semantischen Informationsmodell auf Basis der Systeminformationstheorie gebildet werden.

Aus Sicht der modernen Neuroinformatik ist ein einschichtiges Perzeptron vor allem von rein historischem Interesse, an seinem Beispiel lassen sich jedoch grundlegende Konzepte und einfache Algorithmen zum Training neuronaler Netze studieren.

Das Training eines klassischen neuronalen Netzwerks besteht aus der Anpassung der Gewichtungskoeffizienten jedes Neurons.

F. Rosenblatt schlug einen iterativen Lernalgorithmus mit vier Schritten vor, der darin besteht, eine Gewichtsmatrix anzupassen, die den Fehler in den Ausgabevektoren konsistent reduziert:

Schritt 1: Die Anfangswerte der Gewichte aller Neuronen werden als zufällig angenommen.

Schritt 2: Das Eingabebild x a wird dem Netzwerk präsentiert, was zu einem Ausgabebild führt.

Schritt 3: Der vom Netzwerk am Ausgang erzeugte Fehlervektor wird berechnet. Die Vektoren der Gewichtungskoeffizienten werden so angepasst, dass der Anpassungsbetrag proportional zum Fehler am Ausgang ist und gleich Null ist, wenn der Fehler Null ist:

b Nur die Komponenten der Gewichtsmatrix, die Eingabewerten ungleich Null entsprechen, werden geändert.

b das Vorzeichen der Gewichtserhöhung entspricht dem Vorzeichen des Fehlers, d. h. ein positiver Fehler (der Ausgabewert ist kleiner als der erforderliche) führt zu einer Erhöhung der Verbindung;

b Das Lernen jedes Neurons erfolgt unabhängig vom Lernen anderer Neuronen, was dem aus biologischer Sicht wichtigen Prinzip des lokalen Lernens entspricht.

Schritt 4: Die Schritte 1–3 werden für alle Trainingsvektoren wiederholt. Ein Zyklus der sequentiellen Präsentation der gesamten Stichprobe wird als Epoche bezeichnet. Das Training endet nach mehreren Epochen, wenn mindestens eine der folgenden Bedingungen erfüllt ist:

b wenn die Iterationen konvergieren, d. h. der Vektor der Gewichte sich nicht mehr ändert;

b wenn der über alle Vektoren summierte absolute Gesamtfehler kleiner als ein bestimmter kleiner Wert wird.

3.2.2 Mehrschichtiges Perzeptron. Mehrschichtiges Perzeptron-Training

Dies ist heute wahrscheinlich die am häufigsten verwendete Netzwerkarchitektur. Es wurde von Rumelhart und McClelland (1986) vorgeschlagen und wird in fast allen Lehrbüchern zu neuronalen Netzen ausführlich diskutiert (siehe beispielsweise Bishop, 1995). Jedes Element des Netzwerks bildet eine gewichtete Summe seiner Eingaben, die als Term angepasst wird, und leitet diesen Aktivierungswert dann durch eine Übertragungsfunktion weiter, um den Ausgabewert dieses Elements zu erzeugen. Die Elemente sind in einer schichtweisen Topologie mit direkter Signalübertragung organisiert. Ein solches Netzwerk kann leicht als Input-Output-Modell interpretiert werden, bei dem Gewichte und Schwellenwerte (Bias) freie Parameter des Modells sind. Ein solches Netzwerk kann eine Funktion nahezu beliebiger Komplexität modellieren, wobei die Anzahl der Schichten und die Anzahl der Elemente in jeder Schicht die Komplexität der Funktion bestimmen. Die Bestimmung der Anzahl der Zwischenschichten und der Anzahl der darin enthaltenen Elemente ist ein wichtiger Punkt beim Entwurf eines mehrschichtigen Perzeptrons (Haykin, 1994; Bishop, 1995).

Die Anzahl der Eingabe- und Ausgabeelemente wird durch die Bedingungen des Problems bestimmt. Es können Zweifel entstehen, welche Eingabewerte verwendet werden sollen und welche nicht. Wir gehen davon aus, dass die Eingabevariablen intuitiv ausgewählt werden und alle signifikant sind. Die Frage, wie viele Zwischenschichten und Elemente darin verwendet werden sollen, ist noch völlig unklar. Als erste Näherung können wir eine Zwischenschicht nehmen und die Anzahl der darin enthaltenen Elemente gleich der Hälfte der Summe der Anzahl der Eingabe- und Ausgabeelemente setzen. Auch auf dieses Thema werden wir später noch ausführlicher eingehen.

Ein mehrschichtiges Perzeptron ist ein trainierbares Erkennungssystem, das eine lineare Entscheidungsregel implementiert, die während des Lernprozesses im Raum sekundärer Merkmale angepasst wird, bei denen es sich normalerweise um feste, zufällig ausgewählte lineare Schwellenwertfunktionen der primären Merkmale handelt.

Während des Trainings werden dem Eingang des Perzeptrons abwechselnd Signale aus der Trainingsprobe zugeführt, sowie Anweisungen darüber, welcher Klasse dieses Signal zugeordnet werden soll. Das Training des Perzeptrons besteht darin, die Gewichte für jeden Erkennungsfehler zu korrigieren, d. h. für jeden Fall einer Diskrepanz zwischen der vom Perzeptron erzeugten Lösung und der wahren Klasse. Wenn das Perzeptron ein Signal fälschlicherweise einer bestimmten Klasse zuordnet, dann nehmen die Gewichte der Funktion, der wahren Klasse, zu und die Gewichte der fehlerhaften Klasse ab. Bei korrekter Lösung bleiben alle Gewichte unverändert (Abb. 6.).

Reis. 6. Doppelschichtiges Perzeptron

Beispiel: Betrachten Sie ein Perzeptron, also ein System mit n Eingangskanälen und einem Ausgangskanal y. Die Ausgabe eines klassischen Perzeptrons besteht aus der Aktivierungsfunktion des Perzeptrons und den Abstimmungsgewichten während des Trainingsprozesses. Der Perzeptron-Trainingsalgorithmus funktioniert wie folgt.

1. Gewichte werden in kleinen Mengen initialisiert.

2. Der Probenvektor repräsentiert das Perzeptron und die Ausgabe y, die gemäß der Regel erhalten wird

3. Die Gewichte werden gemäß der Regel aktualisiert, wobei t die diskrete Zeit und d die gewünschte für das Training erzeugte Ausgabe und der Schritt ist.

Kommentar. Es ist unwahrscheinlich, dass es möglich sein wird, ein exaktes Analogon der nichtlinearen Aktivierungsfunktion F zu konstruieren, wie das Sigmoid und andere allgemeine Funktionen in neuronalen Netzen, vielleicht für den Quantenfall.

3.3 Back-Propagation-Algorithmus

Mitte der 1980er Jahre schlugen mehrere Forscher unabhängig voneinander einen effizienten Algorithmus zum Training mehrschichtiger Perzeptrone vor, der auf der Berechnung des Gradienten der Fehlerfunktion basiert. Der Algorithmus wurde „Backpropagation“ genannt.

Der Backpropagation-Algorithmus ist ein iterativer Gradienten-Lernalgorithmus, der verwendet wird, um die Standardabweichung der aktuellen Ausgabe und der gewünschten Ausgabe mehrschichtiger neuronaler Netze zu minimieren.

Im Neuroparadigma der „Rückausbreitung“ werden beispielsweise am häufigsten sigmoidale Übertragungsfunktionen verwendet

Sigmoidalfunktionen sind monoton wachsend und haben im gesamten Definitionsbereich Ableitungen ungleich Null. Diese Eigenschaften gewährleisten das ordnungsgemäße Funktionieren und Lernen des Netzwerks.

Die Funktionsweise eines mehrschichtigen Netzwerks erfolgt nach den Formeln:

Dabei ist s der Addiererausgang, w das Verbindungsgewicht, y der Neuronenausgang, b die Vorspannung, i die Neuronenzahl, N die Zahl der Neuronen in der Schicht, m ​​die Schichtzahl und L die Zahl der Schichten ist f die Aktivierungsfunktion.

Methode der Rückausbreitung– eine Möglichkeit, den Gradienten der Fehlerfunktion schnell zu berechnen.

Die Berechnung erfolgt von der Ausgabeschicht zur Eingabeschicht mithilfe wiederkehrender Formeln und erfordert keine Neuberechnung der Ausgabewerte von Neuronen.

Durch die Rückausbreitung von Fehlern können die Rechenkosten für die Berechnung des Gradienten im Vergleich zur Berechnung durch Bestimmung des Gradienten um ein Vielfaches reduziert werden. Wenn Sie den Gradienten kennen, können Sie viele Methoden der Optimierungstheorie anwenden, die die erste Ableitung verwenden.

Im Backpropagation-Algorithmus wird der Gradientenvektor der Fehleroberfläche berechnet. Dieser Vektor gibt die Richtung des kürzesten Abstiegs entlang der Oberfläche von einem bestimmten Punkt an. Wenn wir uns also „ein wenig“ entlang ihm bewegen, verringert sich der Fehler. Eine Abfolge solcher Schritte (die langsamer werden, wenn man sich dem Boden nähert) führt schließlich zu einem Minimum der einen oder anderen Art. Eine gewisse Schwierigkeit stellt hierbei die Frage dar, wie lange die Schritte gehen sollen.

Natürlich gibt es bei einem solchen Training eines neuronalen Netzwerks keine Gewissheit, dass es auf die beste Weise gelernt hat, da immer die Möglichkeit besteht, dass der Algorithmus in ein lokales Minimum fällt (Abb. 7.). Zu diesem Zweck werden spezielle Techniken eingesetzt, um die gefundene Lösung aus dem lokalen Extremum „herauszuschlagen“. Wenn das neuronale Netzwerk nach mehreren solchen Aktionen zur gleichen Lösung konvergiert, können wir daraus schließen, dass die gefundene Lösung höchstwahrscheinlich optimal ist.

Reis. 7. Gradientenabstiegsmethode zur Minimierung von Netzwerkfehlern

3.4 Genetischer Algorithmus. Klassisches Problem des Handlungsreisenden

Ein genetischer Algorithmus (GA) ist in der Lage, ein CNN mit einer Suchraumdimension optimal abzustimmen, die ausreicht, um die meisten praktischen Probleme zu lösen. Darüber hinaus übersteigt das Spektrum der betrachteten Anwendungen die Möglichkeiten des Backpropagation-Algorithmus bei weitem.

Die Informationsverarbeitung durch einen genetischen Algorithmus nutzt zwei Hauptmechanismen zur Auswahl nützlicher Merkmale, die modernen Vorstellungen über natürliche Selektion entlehnt sind: Mutationen in einer separaten Kette und Kreuzung zwischen zwei Ketten. Betrachten wir diese Mechanismen genauer (Tabelle 5).

Tabelle 5: Mutationen und Kreuzungen

Die Abbildung zeigt die aufeinanderfolgenden Phasen des Informationsaustauschs zwischen zwei Ketten während der Kreuzung. Die resultierenden neuen Ketten (oder eine davon) können anschließend in die Grundgesamtheit aufgenommen werden, wenn der von ihnen angegebene Satz von Merkmalen den besten Wert der Zielfunktion ergibt. Andernfalls werden sie ausgerottet und ihre Vorfahren bleiben in der Bevölkerung. Eine Mutation in der genetischen Kette ist punktueller Natur: An einem zufälligen Punkt in der Kette wird einer der Codes durch einen anderen ersetzt (null durch eins und eins durch null) | „www..

Aus Sicht künstlicher Informationsverarbeitungssysteme ist die genetische Suche eine spezifische Methode zur Lösung eines Optimierungsproblems. Darüber hinaus passt sich eine solche iterative Suche an die Eigenschaften der Zielfunktion an: Die beim Kreuzungsprozess entstehenden Ketten testen immer größere Bereiche des Merkmalsraums und liegen überwiegend im optimalen Bereich. Relativ seltene Mutationen verhindern die Degeneration des Genpools, was einer seltenen, aber nie endenden Suche nach dem Optimum in allen anderen Bereichen des charakteristischen Raums gleichkommt.

In den letzten zehn Jahren wurden viele Methoden für das überwachte Training von CNNs mithilfe von GA entwickelt. Die erzielten Ergebnisse belegen die großen Möglichkeiten einer solchen Symbiose. Die kombinierte Verwendung von QNN- und GA-Algorithmen hat auch einen ideologischen Vorteil, da sie zu den Methoden der evolutionären Modellierung gehören und im Rahmen desselben Technologieparadigmas entwickelt werden, das natürliche Methoden und Mechanismen als optimalste entlehnt.

Um den Evolutionsprozess zu simulieren, generieren wir zunächst eine Zufallspopulation – mehrere Individuen mit einem zufälligen Chromosomensatz (numerische Vektoren). Der genetische Algorithmus simuliert die Entwicklung dieser Population als einen zyklischen Prozess der Kreuzung von Individuen und des Generationswechsels (Abb. 8).

Reis. 8. Berechnungsalgorithmus Betrachten wir die Vor- und Nachteile von Standard- und genetischen Methoden am Beispiel des klassischen Problems des Handlungsreisenden (TSP – Problem des Handlungsreisenden). Der Kern des Problems besteht darin, den kürzesten geschlossenen Weg um mehrere durch ihre Koordinaten gegebene Städte herum zu finden. Es stellt sich heraus, dass es für bereits 30 Städte eine komplexe Aufgabe ist, den optimalen Weg zu finden, was zur Entwicklung verschiedener neuer Methoden (einschließlich neuronaler Netze und genetischer Algorithmen) geführt hat.

Füllen Sie das Formular mit Ihrem aktuellen Job aus

Ministerium für Bildung und Wissenschaft der Russischen Föderation Staatliche Bildungseinrichtung der Region Moskau Internationale Universität für Natur, Gesellschaft und Mensch „Dubna“ Masterarbeit Thema Quantenneurale Netze in Lern- und Managementprozessen Studentin Olga Aleksandrovna Afanasyeva Zusammenfassung Diese Arbeit ist gewidmet die Analyse von Quanten-Neuronalen Netzen...

Masterarbeit, Russisch

Meisterwerk

Die Funktion „Lesen“ dient dem Kennenlernen der Arbeit. Das Markup, die Tabellen und Bilder des Dokuments werden möglicherweise falsch oder nicht vollständig angezeigt!


Ministerium für Bildung und Wissenschaft der Russischen Föderation

Staatliche Bildungseinrichtung der Region Moskau

Internationale Universität für Natur, Gesellschaft und Mensch „Dubna“ Meisterwerk

Thema Quantenneurale Netze in Lern- und Kontrollprozessen Student Afanasjewa Olga Alexandrowna Anmerkung Diese Arbeit widmet sich der Analyse von Quanten-Neuronalen Netzen (QNNs) und ihren praktischen Anwendungen.

Die Lösung dieser Probleme steht in engem Zusammenhang mit der Entwicklung von Methoden der Quantenprogrammierung und ist von theoretischem und praktischem Interesse für die Entwurfsprozesse robuster intelligenter Steuerung unter Risikobedingungen und unvorhergesehenen Steuerungssituationen unter Berücksichtigung von Quanteneffekten bei der Informationsbildung Prozess der Selbstorganisation von Wissensdatenbanken.

Um die Ziele zu erreichen, wurde die Literatur ausländischer Autoren untersucht und Beispiele für den Einsatz von QNS in Managementprozessen betrachtet.

Das Ergebnis der Arbeit ist eine vergleichende Analyse zwischen klassischen und Quantenneuronen. Es werden neue Quantenoperatoren wie Superposition, Quantenkorrelation und Interferenz vorgeschlagen. Mit QNN können Sie den Such- und Trainingsraum sehen und die Genauigkeit und Robustheit des Lernsignal-Approximationsprozesses erhöhen.

Die Arbeit wurde unter der wissenschaftlichen Leitung von Dr. Phys.-Math. durchgeführt. Wissenschaften, Professor S.V. Uljanow am Institut für Systemanalyse und Management der Internationalen Universität für Natur, Gesellschaft und Mensch „Dubna“. Inhalt Einführung

1. Darstellung des Problems

1.2 Ausgangsdaten

1.3 Forschungskomponente

2. Wissenschaftliche Komponente

2.1 Architektur quanten-neuronaler Netze

2.2 Warum Quanten-Neuronale Netze interessant sind

2.3 Quantenneuron

2.4 Aufbau eines Quanten-Neuronalen Netzwerks

2.5 Quantencomputing

2,6 KNS-Modelle

2.7 Quantenzustand und seine Darstellung

3. ZNS-Training

3.1 Anwendung von Quanten-Neuronalen Netzen. Die Bedeutung des überwachten Lernalgorithmus

3.2 Einschichtige und mehrschichtige Perzeptrone

3.2.1 Einschichtiges Perzeptron. Ausbildung

3.2.2 Mehrschichtiges Perzeptron. Mehrschichtiges Perzeptron-Training

3.3 Back-Propagation-Algorithmus

3.4 Genetischer Algorithmus. Klassisches Problem des Handlungsreisenden

4. Automatische Objektverwaltung

4.1 Kontrollobjekt

4.2 Robotik als Richtung der Künstlichen Intelligenz

4.2.1 Allgemeines Blockdiagramm des Roboters

4.2.2 Konzeptionelles Modell

4.2 Effiziente Steuerung eines Quantenspinregisters. Kryptographie und Quantenteleportation

5. Praktischer Teil. Beispiele für Quanten-Neuronale Netze

5.1 Umgekehrtes Pendel

5.2 Bildkomprimierung

5.3 Alphabetische Kodierung