Karte der Anwendung von Technologien der künstlichen Intelligenz: Medizin, Bildung, Verkehr und andere Bereiche. Ansätze zum Verständnis des Problems. KI beim Brauen

Die in der Präambel zitierte Definition von künstlicher Intelligenz, die John McCarthy 1956 auf einer Konferenz an der Dartmouth University gab, steht nicht in direktem Zusammenhang mit dem Verständnis der menschlichen Intelligenz. Laut McCarthy steht es KI-Forschern frei, bei Bedarf Techniken zu nutzen, die es beim Menschen nicht gibt, um bestimmte Probleme zu lösen.

Gleichzeitig gibt es die Auffassung, dass Intelligenz nur ein biologisches Phänomen sein kann.

Wie der Vorsitzende der St. Petersburger Zweigstelle des Russischen Verbandes für Künstliche Intelligenz, T. A. Gavrilova, betont, ist der Satz auf Englisch künstliche Intelligenz hat nicht die leicht phantastischen anthropomorphen Untertöne, die es in der eher erfolglosen russischen Übersetzung annahm. Wort Intelligenz bedeutet „die Fähigkeit, rational zu denken“ und keineswegs „Intelligenz“, für die es ein englisches Analogon gibt Intelligenz .

Teilnehmer des Russischen Verbandes für Künstliche Intelligenz geben die folgenden Definitionen von künstlicher Intelligenz:

Eine der besonderen Definitionen von Intelligenz, die Mensch und „Maschine“ gemeinsam haben, kann wie folgt formuliert werden: „Intelligenz ist die Fähigkeit eines Systems, während des Selbstlernens (hauptsächlich heuristische) Programme zu erstellen, um Probleme einer bestimmten Komplexitätsklasse zu lösen.“ und diese Probleme lösen.“

Voraussetzungen für die Entwicklung der Wissenschaft der künstlichen Intelligenz

Die Geschichte der künstlichen Intelligenz als neue wissenschaftliche Richtung beginnt Mitte des 20. Jahrhunderts. Zu diesem Zeitpunkt waren bereits viele Voraussetzungen für seine Entstehung geschaffen: Unter Philosophen gab es seit langem Debatten über die Natur des Menschen und den Prozess des Weltverständnisses, Neurophysiologen und Psychologen hatten eine Reihe von Theorien über die Arbeit des menschlichen Gehirns entwickelt und Denken, Ökonomen und Mathematiker stellten Fragen zu optimalen Berechnungen und der Darstellung von Wissen über die Welt in formalisierter Form; schließlich war die Grundlage der mathematischen Berechnungstheorie – die Theorie der Algorithmen – geboren und die ersten Computer entstanden.

Die Fähigkeiten neuer Maschinen in Bezug auf die Rechengeschwindigkeit erwiesen sich als größer als die der Menschen, daher stellte sich in der wissenschaftlichen Gemeinschaft die Frage: Wo liegen die Grenzen der Computerfähigkeiten und werden Maschinen das Niveau der menschlichen Entwicklung erreichen? Im Jahr 1950 schrieb einer der Pioniere auf dem Gebiet der Informatik, der englische Wissenschaftler Alan Turing, einen Artikel mit dem Titel „Kann eine Maschine denken?“ , das ein Verfahren beschreibt, mit dem es möglich sein wird, den Zeitpunkt zu bestimmen, an dem eine Maschine hinsichtlich der Intelligenz einem Menschen ebenbürtig ist, genannt Turing-Test.

Geschichte der Entwicklung der künstlichen Intelligenz in der UdSSR und Russland

In der UdSSR begann die Arbeit auf dem Gebiet der künstlichen Intelligenz in den 1960er Jahren. An der Moskauer Universität und der Akademie der Wissenschaften wurden unter der Leitung von Veniamin Puschkin und D. A. Pospelov eine Reihe bahnbrechender Studien durchgeführt. Seit den frühen 1960er Jahren haben M. L. Tsetlin und seine Kollegen Probleme im Zusammenhang mit dem Training endlicher Zustandsmaschinen entwickelt.

Im Jahr 1964 wurde das Werk des Leningrader Logikers Sergei Maslov „Die inverse Methode zur Feststellung der Ableitbarkeit in der klassischen Prädikatenrechnung“ veröffentlicht, in dem er als erster eine Methode zur automatischen Suche nach Beweisen für Theoreme in der Prädikatenrechnung vorschlug.

Bis in die 1970er Jahre wurde in der UdSSR die gesamte KI-Forschung im Rahmen der Kybernetik durchgeführt. Laut D. A. Pospelov waren die Wissenschaften „Informatik“ und „Kybernetik“ zu dieser Zeit aufgrund einer Reihe akademischer Auseinandersetzungen vermischt. Erst in den späten 1970er Jahren begann man in der UdSSR über die wissenschaftliche Richtung „Künstliche Intelligenz“ als Zweig der Informatik zu sprechen. Gleichzeitig wurde die Informatik selbst geboren und ordnete ihren Vorfahren „Kybernetik“ unter. Ende der 1970er Jahre entstanden ein Erklärwörterbuch zur Künstlichen Intelligenz, ein dreibändiges Nachschlagewerk zur Künstlichen Intelligenz und ein enzyklopädisches Wörterbuch zur Informatik, in dem unter anderem die Abschnitte „Kybernetik“ und „Künstliche Intelligenz“ enthalten sind Abschnitte, in der Informatik. Der Begriff „Informatik“ verbreitete sich in den 1980er Jahren, und der Begriff „Kybernetik“ verschwand nach und nach aus dem Verkehr und blieb nur noch in den Namen jener Institutionen erhalten, die während der Ära des „kybernetischen Booms“ Ende der 1950er bis Anfang der 1960er Jahre entstanden. Diese Sicht auf künstliche Intelligenz, Kybernetik und Informatik wird nicht von allen geteilt. Dies liegt daran, dass im Westen die Grenzen dieser Wissenschaften etwas anders sind.

Ansätze und Richtungen

Ansätze zum Verständnis des Problems

Auf die Frage, was künstliche Intelligenz leistet, gibt es keine einheitliche Antwort. Fast jeder Autor, der ein Buch über KI schreibt, geht von einer Definition aus und betrachtet die Errungenschaften dieser Wissenschaft in ihrem Licht.

  • Top-Down-KI), Semiotik – Erstellung von Expertensystemen, Wissensdatenbanken und logischen Inferenzsystemen, die mentale Prozesse auf hoher Ebene simulieren: Denken, Argumentation, Sprache, Emotionen, Kreativität usw.;
  • Bottom-Up-KI), biologisch – das Studium neuronaler Netze und evolutionärer Berechnungen, die intelligentes Verhalten auf der Grundlage biologischer Elemente modellieren, sowie die Schaffung entsprechender Computersysteme, wie beispielsweise eines Neurocomputers oder eines Biocomputers.

Letzterer Ansatz gehört streng genommen nicht zur Wissenschaft der KI im Sinne von John McCarthy – sie verbindet nur ein gemeinsames Endziel.

Der Turing-Test und der intuitive Ansatz

Dieser Ansatz konzentriert sich auf jene Methoden und Algorithmen, die einem intelligenten Agenten helfen, in seiner Umgebung zu überleben und gleichzeitig seine Aufgabe zu erfüllen. Daher werden hier die Algorithmen zur Wegfindung und Entscheidungsfindung viel genauer untersucht.

Hybrider Ansatz

Hybrider Ansatz geht davon aus nur Durch die synergetische Kombination neuronaler und symbolischer Modelle wird das gesamte Spektrum kognitiver und rechnerischer Fähigkeiten erreicht. Experten-Inferenzregeln können beispielsweise durch neuronale Netze generiert werden, und generative Regeln werden durch statistisches Lernen erhalten. Befürworter dieses Ansatzes glauben, dass hybride Informationssysteme viel stärker sein werden als die Summe der verschiedenen Konzepte einzeln.

Forschungsmodelle und -methoden

Symbolische Modellierung von Denkprozessen

Wenn wir die Geschichte der KI analysieren, können wir einen so weiten Bereich identifizieren wie modellierendes Denken. Die Entwicklung dieser Wissenschaft verläuft seit vielen Jahren genau auf diesem Weg und ist heute einer der am weitesten entwickelten Bereiche der modernen KI. Beim modellierenden Denken werden symbolische Systeme erstellt, deren Eingabe auf eine bestimmte Aufgabe festgelegt ist und deren Ausgabe eine Lösung erfordert. In der Regel ist das vorgeschlagene Problem bereits formalisiert, also in mathematische Form übersetzt, verfügt aber entweder über keinen Lösungsalgorithmus, oder es ist zu komplex, zeitaufwändig etc. Dieser Bereich umfasst: Theoreme beweisen, Entscheidungen treffen Und Spieltheorie, Planung und Disposition, Prognose.

Arbeiten mit natürlichen Sprachen

Eine wichtige Richtung ist Verarbeitung natürlicher Sprache, in dem die Analyse der Fähigkeiten zum Verstehen, Verarbeiten und Generieren von Texten in „menschlicher“ Sprache durchgeführt wird. In dieser Richtung besteht das Ziel darin, natürliche Sprache so zu verarbeiten, dass man sich durch die Lektüre vorhandener, im Internet verfügbarer Texte selbstständig Wissen aneignen kann. Zu den direkten Anwendungen der Verarbeitung natürlicher Sprache gehören das Abrufen von Informationen (einschließlich Deep Text Mining) und die maschinelle Übersetzung.

Darstellung und Nutzung von Wissen

Richtung Wissenstechnik vereint die Aufgaben der Wissensgewinnung aus einfachen Informationen, deren Systematisierung und Nutzung. Diese Richtung ist historisch mit der Schöpfung verbunden Expertensysteme- Programme, die spezielle Wissensdatenbanken nutzen, um zuverlässige Schlussfolgerungen zu jedem Problem zu ziehen.

Wissen aus Daten zu gewinnen ist eines der Grundprobleme des Data Mining. Zur Lösung dieses Problems gibt es verschiedene Ansätze, darunter auch solche, die auf der neuronalen Netztechnologie basieren und Verfahren zur Verbalisierung neuronaler Netze nutzen.

Maschinelles Lernen

Probleme maschinelles Lernen betrifft den Prozess unabhängig Wissenserwerb durch ein intelligentes System im Verlauf seines Betriebs. Diese Richtung ist seit Beginn der Entwicklung der KI von zentraler Bedeutung. Im Jahr 1956 schrieb Ray Solomonoff auf der Dartmund Summer Conference einen Bericht über eine probabilistische, unbeaufsichtigte Lernmaschine und nannte sie „Die induktive Inferenzmaschine“.

Robotik

Maschinelle Kreativität

Die Natur der menschlichen Kreativität ist noch weniger erforscht als die Natur der Intelligenz. Dennoch existiert dieser Bereich, und hier stellen sich die Probleme des Computerschreibens von Musik, literarischen Werken (oft Gedichte oder Märchen) und künstlerischem Schaffen. Die Erstellung realistischer Bilder ist in der Film- und Spielebranche weit verbreitet.

Besonders hervorzuheben ist die Untersuchung von Problemen der technischen Kreativität künstlicher Intelligenzsysteme. Die 1946 von G. S. Altshuller vorgeschlagene Theorie zur Lösung erfinderischer Probleme markierte den Beginn dieser Forschung.

Wenn Sie diese Fähigkeit zu einem intelligenten System hinzufügen, können Sie sehr deutlich zeigen, was genau das System wahrnimmt und wie es es versteht. Durch das Hinzufügen von Rauschen anstelle fehlender Informationen oder das Filtern von Rauschen mit im System verfügbarem Wissen wird abstraktes Wissen in konkrete Bilder umgewandelt, die von einer Person leicht wahrgenommen werden können. Dies ist besonders nützlich für intuitives und geringwertiges Wissen, dessen Überprüfung in a Die formale Form erfordert erhebliche geistige Anstrengung.

Andere Forschungsgebiete

Schließlich gibt es viele Anwendungen der künstlichen Intelligenz, die jeweils ein nahezu eigenständiges Feld bilden. Beispiele hierfür sind Programmierintelligenz in Computerspielen, nichtlineare Steuerung und intelligente Informationssicherheitssysteme.

Es wird davon ausgegangen, dass die Entwicklung der künstlichen Intelligenz in Zukunft eng mit der Entwicklung eines Quantencomputers verbunden sein wird, da einige Eigenschaften der künstlichen Intelligenz ähnliche Funktionsprinzipien wie Quantencomputer aufweisen.

Es zeigt sich, dass sich viele Forschungsbereiche überschneiden. Das ist typisch für jede Wissenschaft. Doch in der Künstlichen Intelligenz ist der Zusammenhang zwischen scheinbar unterschiedlichen Bereichen besonders stark, und damit verbunden ist die philosophische Debatte über starke und schwache KI.

Moderne künstliche Intelligenz

Es lassen sich zwei Richtungen der KI-Entwicklung unterscheiden:

  • Lösung von Problemen im Zusammenhang mit der Annäherung spezialisierter KI-Systeme an die menschlichen Fähigkeiten und deren Integration, die von der menschlichen Natur verwirklicht wird ( siehe Intelligenzverbesserung);
  • die Schaffung künstlicher Intelligenz, die die Integration bereits geschaffener KI-Systeme in ein einziges System darstellt, das in der Lage ist, die Probleme der Menschheit zu lösen ( siehe Starke und schwache künstliche Intelligenz).

Doch im Bereich der künstlichen Intelligenz sind derzeit viele Themenbereiche involviert, die eher einen praktischen als einen grundsätzlichen Bezug zur KI haben. Viele Ansätze wurden getestet, aber noch keine Forschungsgruppe hat sich mit der Entstehung künstlicher Intelligenz befasst. Nachfolgend sind nur einige der bekanntesten Entwicklungen im Bereich KI aufgeführt.

Anwendung

Einige der bekanntesten KI-Systeme sind:

Banken nutzen Systeme der künstlichen Intelligenz (KI) im Versicherungswesen (Versicherungsmathematik), beim Börsenhandel und in der Immobilienverwaltung. Mustererkennungsmethoden (einschließlich komplexerer und spezialisierter und neuronaler Netze) werden häufig in der optischen und akustischen Erkennung (einschließlich Text und Sprache), in der medizinischen Diagnostik, bei Spamfiltern, in Luftverteidigungssystemen (Zielidentifizierung) sowie zur Gewährleistung von a eingesetzt eine Reihe weiterer nationaler Sicherheitsaufgaben.

Psychologie und Kognitionswissenschaft

Die kognitive Modellierungsmethodik dient dazu, unklar definierte Situationen zu analysieren und Entscheidungen zu treffen. Es wurde von Axelrod vorgeschlagen.

Es basiert auf der Modellierung der subjektiven Vorstellungen von Experten über die Situation und umfasst: eine Methodik zur Strukturierung der Situation: ein Modell zur Darstellung des Wissens des Experten in Form eines signierten Digraphen (kognitive Karte) (F, W), wobei F ist die Menge der Faktoren der Situation, W ist die Menge der Ursache-Wirkungs-Beziehungen zwischen den Faktoren der Situation; Methoden der Situationsanalyse. Derzeit entwickelt sich die Methodik der kognitiven Modellierung in Richtung einer Verbesserung des Apparats zur Analyse und Modellierung der Situation. Hier werden Modelle zur Prognose der Lageentwicklung vorgeschlagen; Methoden zur Lösung inverser Probleme.

Philosophie

Die Wissenschaft der „Erschaffung künstlicher Intelligenz“ konnte nicht umhin, die Aufmerksamkeit von Philosophen auf sich zu ziehen. Mit dem Aufkommen der ersten intelligenten Systeme wurden grundlegende Fragen zum Menschen und zum Wissen, teilweise auch zur Weltordnung, aufgeworfen.

Philosophische Probleme bei der Schaffung künstlicher Intelligenz lassen sich relativ gesehen in zwei Gruppen einteilen: „vor und nach der Entwicklung der KI“. Die erste Gruppe beantwortet die Frage: „Was ist KI, kann man sie erstellen und wenn möglich, wie macht man sie?“ Die zweite Gruppe (Ethik der künstlichen Intelligenz) stellt die Frage: „Welche Konsequenzen hat die Schaffung von KI für die Menschheit?“

Der Begriff „starke künstliche Intelligenz“ wurde von John Searle eingeführt und der Ansatz wird in seinen Worten charakterisiert:

Darüber hinaus wäre ein solches Programm nicht einfach ein Modell des Geistes; Sie wird im wahrsten Sinne des Wortes selbst der Geist sein, im gleichen Sinne, in dem der menschliche Geist der Geist ist.

Gleichzeitig ist es notwendig zu verstehen, ob ein „rein künstlicher“ Geist („Metamind“) möglich ist, der reale Probleme versteht und löst und gleichzeitig frei von Emotionen ist, die für einen Menschen charakteristisch und für sein individuelles Überleben notwendig sind [ ] .

Im Gegensatz dazu betrachten Befürworter einer schwachen KI Programme lieber nur als Werkzeuge, mit denen sie bestimmte Probleme lösen können, für die nicht die gesamte Bandbreite menschlicher kognitiver Fähigkeiten erforderlich ist.

Ethik

Andere traditionelle Glaubensrichtungen beschreiben die Probleme der KI selten. Dennoch achten einige Theologen darauf. Beispielsweise stellt Erzpriester Michail Sacharow aus der Sicht der christlichen Weltanschauung die folgende Frage: „Der Mensch ist ein rational freies Wesen, das von Gott nach seinem Bild und Gleichnis geschaffen wurde.“ Wir sind es gewohnt, alle diese Definitionen der biologischen Art Homo Sapiens zuzuschreiben. Doch wie gerechtfertigt ist das? . Er beantwortet diese Frage so:

Wenn wir davon ausgehen, dass die Forschung auf dem Gebiet der künstlichen Intelligenz eines Tages zur Entstehung eines künstlichen Wesens führen wird, das dem Menschen an Intelligenz überlegen ist und über einen freien Willen verfügt, bedeutet das dann, dass es sich bei diesem Wesen um einen Menschen handelt? ... der Mensch ist Gottes Schöpfung. Können wir dieses Geschöpf eine Schöpfung Gottes nennen? Auf den ersten Blick handelt es sich um eine menschliche Schöpfung. Aber schon bei der Erschaffung des Menschen ist es kaum wörtlich zu verstehen, dass Gott den ersten Menschen mit seinen eigenen Händen aus Ton geformt hat. Dies ist wahrscheinlich eine Allegorie, die auf die Materialität des menschlichen Körpers hinweist, der durch den Willen Gottes geschaffen wurde. Aber ohne den Willen Gottes geschieht nichts auf dieser Welt. Der Mensch als Mitschöpfer dieser Welt kann in Erfüllung des Willens Gottes neue Geschöpfe erschaffen. Solche Geschöpfe, die von Menschenhand nach Gottes Willen geschaffen wurden, können wahrscheinlich als Schöpfungen Gottes bezeichnet werden. Schließlich erschafft der Mensch neue Tier- und Pflanzenarten. Und wir betrachten Pflanzen und Tiere als Schöpfungen Gottes. Dasselbe kann auf ein künstliches Wesen nichtbiologischer Natur angewendet werden.

Science-Fiction

Das Thema KI wird in den Werken von Robert Heinlein aus verschiedenen Blickwinkeln betrachtet: die Hypothese der Entstehung des Selbstbewusstseins der KI, wenn die Struktur über ein bestimmtes kritisches Niveau hinaus komplexer wird und eine Interaktion mit der Außenwelt und anderen Trägern von erfolgt Intelligenz („The Moon Is a Harsh Mistress“, „Time Enough For Love“, Charaktere Mycroft, Dora und Aya in der „History of the Future“-Reihe), Probleme der KI-Entwicklung nach hypothetischem Selbstbewusstsein und einige soziale und ethische Probleme ("Freitag"). Die sozialpsychologischen Probleme der menschlichen Interaktion mit KI werden auch in Philip K. Dicks Roman „Träumen Androiden von elektrischen Schafen?“ berücksichtigt. „, auch bekannt für die Verfilmung von Blade Runner.

Die Werke des Science-Fiction-Autors und Philosophen Stanislaw Lem beschreiben und nehmen weitgehend die Entstehung von virtueller Realität, künstlicher Intelligenz, Nanorobotern und vielen anderen Problemen der Philosophie der künstlichen Intelligenz vorweg. Besonders hervorzuheben ist die Zukunftsforschung der Sum-Technologie. Darüber hinaus wird in den Abenteuern von Iyon dem Stillen immer wieder die Beziehung zwischen Lebewesen und Maschinen beschrieben: der Aufstand des Bordcomputers mit anschließenden unerwarteten Ereignissen (11. Reise), die Anpassung von Robotern an die menschliche Gesellschaft („The Washing Tragödie“ aus „Memoirs of Iyon the Quiet“), die Schaffung absoluter Ordnung auf dem Planeten durch die Verarbeitung lebender Bewohner (24. Reise), Erfindungen von Corcoran und Diagoras („Memoirs of Ijon the Quiet“), eine psychiatrische Klinik für Roboter ( „Erinnerungen von Ijon dem Stillen“). Darüber hinaus gibt es eine ganze Reihe von Romanen und Geschichten von Cyberiad, in denen fast alle Charaktere Roboter sind, die entfernte Nachkommen von Robotern sind, die vor Menschen geflohen sind (sie nennen Menschen Blässe und betrachten sie als Fabelwesen).

Filme

Fast seit den 1960er Jahren werden neben dem Schreiben von Science-Fiction-Geschichten und Novellen auch Filme über künstliche Intelligenz gedreht. Viele Geschichten von weltweit anerkannten Autoren werden verfilmt und werden zu Klassikern des Genres, andere werden zu Meilensteinen in der Entwicklung

Studienfragen

  1. Konzept der künstlichen Intelligenz
  2. SII-Tools
  3. Zweck und Struktur von Expertensystemen

Künstliche Intelligenz ist eine wissenschaftliche Disziplin, die in den 50er Jahren an der Schnittstelle von Kybernetik, Linguistik, Psychologie und Programmierung entstand.

Künstliche Intelligenz hat eine lange Geschichte. Sogar Platon, Aristoteles, Sokrates, R. Descartes, G. Leibniz, J. Boole, dann N. Wiener und viele andere Forscher versuchten, das Denken als eine Reihe einiger elementarer Operationen, Regeln und Verfahren zu beschreiben.

Hier sind einige Definitionen von künstlicher Intelligenz, die in verschiedenen Quellen veröffentlicht wurden.

1. KI – Symbol Kybernetische Systeme, Modellierung einiger Aspekte der intellektuellen (vernünftigen) Aktivität des Menschen: logisches und analytisches Denken.

2. KI – Roboter- oder Computerfähigkeiten Nachahmung menschlicher Fähigkeiten zur Problemlösung, Problemerkundung, Argumentation und Selbstverbesserung.

3. KI ist eine wissenschaftliche Richtung im Zusammenhang mit Entwicklung von Algorithmen und Programme zur Automatisierung von Aktivitäten, die menschliche Intelligenz erfordern.

4. KI ist einer der Bereiche der Informatik, deren Ziel es ist Entwicklung von Hard- und Software, Es ermöglicht einem Benutzer, der kein Programmierer ist, seine eigenen Probleme zu stellen und zu lösen, die traditionell als intellektuell angesehen werden, indem er mit einem Computer in einer begrenzten Teilmenge natürlicher Sprache kommuniziert.

Seit Beginn der Forschung im Bereich KI werden zwei Richtungen unterschieden:

KI wird in zwei wissenschaftliche Bereiche unterteilt: Neurokybernetik (oder künstliche Intelligenz) und Black-Box-Kybernetik (oder maschinelle Intelligenz).

Erinnern wir uns daran, dass Kybernetik die Wissenschaft der Kontrolle, Kommunikation und Informationsverarbeitung ist. Die Kybernetik untersucht Objekte unabhängig von ihrer materiellen Natur (lebende und nicht lebende Systeme).

Die erste Richtung – die Neurokybernetik – basiert auf der Hardwaremodellierung des menschlichen Gehirns, deren Grundlage eine große Anzahl (ca. 14 Milliarden) verbundener und interagierender Nervenzellen – Neuronen – ist.

Künstliche Intelligenzsysteme, die die Funktionsweise des Gehirns modellieren, werden als neuronale Netze (oder neuronale Netze) bezeichnet. Die ersten neuronalen Netze wurden Ende der 50er Jahre des 20. Jahrhunderts von den amerikanischen Wissenschaftlern G. Rosenblatt und P. McCulloch geschaffen.

Für die zweite Richtung der KI – die „Black-Box“-Kybernetik – spielt es keine Rolle, wie das „denkende“ Gerät aufgebaut ist. Die Hauptsache ist, dass es auf gegebene Eingabeeinflüsse genauso reagiert wie das menschliche Gehirn.

Computerbenutzer stoßen häufig auf Erscheinungsformen künstlicher Intelligenz. Bei der Arbeit mit einem Texteditor wird beispielsweise die Rechtschreibung automatisch (und unter Berücksichtigung der verwendeten Sprache) überprüft. Wenn Sie mit Tabellenkalkulationen arbeiten, müssen Sie nicht alle Wochentage oder alle Monate des Jahres eingeben. Es genügen ein oder zwei Einträge, und der Computer kann die Liste genau vervollständigen. Über ein Mikrofon und ein spezielles Programm können Sie die Bedienung des Programms mit Ihrer Stimme steuern. Wenn Sie eine E-Mail-Adresse eingeben, versucht der Browser, die Adresse zu erraten und hinzuzufügen. Auch die Suche nach Informationen im globalen Netzwerk anhand vorgegebener Schlüsselwörter beinhaltet KI-Elemente. Beim Scannen von handgeschriebenem Text erkennen KI-Systeme Buchstaben und Zahlen.



KI-Ideen werden verwendet Spieltheorie, zum Beispiel, um einen Computer zu bauen, der Schach, Dame, Reversi und andere logische und strategische Spiele spielt.

Mit MM ein Problem lösen Sprachsynthese und das umgekehrte Problem - Analyse und Spracherkennung. In den meisten Fällen wird KI verwendet, um eine Methode zur Lösung eines Problems zu finden. Die Mathematik ist eines der Hauptanwendungsgebiete von KI-Methoden. Die symbolische Mathematik (Computeralgebra) ist eine der größten Manifestationen der künstlichen Intelligenz.

Der Bereich der KI umfasst Probleme der Bilderkennung (optisch und akustisch). Die Identifizierung von Fingerabdrücken und der Vergleich menschlicher Gesichter sind Mustererkennungsaufgaben.

Auf KI-Ideen basierende Expertensysteme sammeln die Erfahrung, das Wissen und die Fähigkeiten von Spezialisten (Experten), um sie zum richtigen Zeitpunkt an jeden Computerbenutzer weiterzugeben.

Die Entwicklung intelligenter Programme unterscheidet sich deutlich von der herkömmlichen Programmierung und erfolgt durch den Aufbau eines künstlichen Intelligenzsystems.

Wenn ein normales PC-Programm wie folgt dargestellt werden kann:

Programm = Algorithmus + Daten

Dann ist folgender Aufbau typisch für KI-Systeme:

AII = Wissen + Wissensverarbeitungsstrategie

Das Hauptunterscheidungsmerkmal der KI ist die Arbeit mit Wissen.

Im Gegensatz zu Daten hat Wissen die folgenden Eigenschaften:

Interne Interpretierbarkeit– Neben Informationen präsentiert die KB Informationsstrukturen, die es ermöglichen, Wissen nicht nur zu speichern, sondern auch zu nutzen.

Strukturiert– Komplexe Objekte werden in einfachere zerlegt und Verbindungen zwischen ihnen hergestellt.

Verbundenheit- Muster in Bezug auf Fakten, Prozesse, Phänomene und Ursache-Wirkungs-Beziehungen zwischen ihnen werden angezeigt.

Aktivität– Wissen setzt den gezielten Einsatz von Informationen voraus, die Fähigkeit, Informationsprozesse zur Lösung bestimmter Probleme zu steuern.

All diese Eigenschaften sollen letztlich die Fähigkeit künstlicher Intelligenz gewährleisten, bei der Lösung angewandter Probleme menschliches Denken zu simulieren – das Konzept eines Verfahrens zur Erlangung von Problemlösungen (Wissensverarbeitungsstrategie) ist eng mit Wissen verbunden.

In Wissensverarbeitungssystemen wird ein solches Verfahren als Inferenzmechanismus, logische Inferenz oder Inferenzmaschine bezeichnet. Die Prinzipien für die Konstruktion eines Inferenzmechanismus in AIS werden durch die Art und Weise bestimmt, wie Wissen dargestellt wird und welche Art von Argumentation modelliert wird.

Um die Interaktion mit der KI zu organisieren, muss diese über Kommunikationsmittel mit dem Benutzer, also eine Schnittstelle, verfügen. Die Schnittstelle gewährleistet die Arbeit mit der Wissensbasis und dem Ausgabemechanismus in einer relativ hohen Sprache, die der Fachsprache der Spezialisten auf dem Anwendungsgebiet, zu dem AIS gehört, nahe kommt.

Zu den Funktionen der Schnittstelle gehört außerdem die Unterstützung des Benutzerdialogs mit dem System, der es dem Benutzer ermöglicht, Erklärungen zu den Aktionen des Systems zu erhalten, sich an der Suche nach einer Lösung des Problems zu beteiligen und die Wissensbasis zu ergänzen und zu korrigieren.

Die Hauptbestandteile wissensbasierter Systeme sind:

2. Ausgabemechanismus

3. Benutzeroberfläche.

Jeder dieser Teile kann in verschiedenen Systemen unterschiedlich angeordnet sein, diese Unterschiede können im Detail und im Prinzip bestehen. Alle SIIs sind jedoch gekennzeichnet durch Modellierung des menschlichen Denkens.

Das Wissen, auf das sich eine Person bei der Lösung eines bestimmten Problems verlässt, ist sehr heterogen:

Konzeptuelles Wissen (Menge von Konzepten und deren Beziehungen)

Konstruktives Wissen (Wissen über den Aufbau und das Zusammenspiel von Teilen verschiedener Objekte)

Verfahrenswissen (Methoden, Algorithmen und Programme zur Lösung verschiedener Probleme).

Faktenwissen (quantitative und qualitative Eigenschaften von Objekten, Phänomenen und deren Elementen).

Die Besonderheit von Wissensrepräsentationssystemen besteht darin, dass sie menschliche Aktivitäten modellieren, die oft informell ausgeführt werden. Wissensrepräsentationsmodelle befassen sich mit von Experten erhaltenen Informationen, die oft qualitativ und widersprüchlich sind. Um mit einem Computer verarbeitet zu werden, müssen solche Informationen auf eine eindeutige formalisierte Form reduziert werden. Die Wissenschaft der Logik untersucht Methoden der formalisierten Darstellung von Wissen.

Derzeit hat die Forschung im Bereich KI folgende anwendungsorientierte Ausrichtung:

Expertensysteme

Automatischer Theorembeweis

Robotik

Mustererkennung usw.

Die größte Verbreitung wurde bei der Schaffung elektronischer Systeme erreicht, die weit verbreitet sind und zur Lösung praktischer Probleme eingesetzt werden.

  1. SII-Tools

Die zur Entwicklung von AIS verwendeten Tools können in verschiedene Typen unterteilt werden:

Programmiersysteme in Hochsprachen;

Programmiersysteme in Wissensrepräsentationssprachen;

Die Hüllen künstlicher Intelligenzsysteme sind Skelettsysteme;

Tools zur automatisierten Erstellung von ES.

Programmiersysteme in Hochsprachen am wenigsten auf die Lösung von KI-Problemen konzentriert. Sie enthalten keine Werkzeuge zur Darstellung und Verarbeitung von Wissen. Dennoch wird ein relativ großer, aber im Laufe der Zeit abnehmender Anteil von AIS mithilfe herkömmlicher Nuklearcomputer entwickelt.

Programmiersysteme in Wissensrepräsentationssprachen verfügen über spezielle Werkzeuge zur Schaffung künstlicher Intelligenz. Sie enthalten ihre eigenen Mittel zur Darstellung von Wissen (gemäß einem bestimmten Modell) und zur Unterstützung logischer Schlussfolgerungen. Die Entwicklung künstlicher Intelligenz mithilfe von Programmiersystemen in YaPL basiert auf konventioneller Programmiertechnologie. Die am weitesten verbreitete logische Programmiersprache ist PROLOG.

Tools zur automatisierten Erstellung von ES sind flexible Softwaresysteme, die den Einsatz mehrerer Wissensrepräsentationsmodelle, logischer Inferenzmethoden und Schnittstellentypen ermöglichen und Hilfswerkzeuge zur Erstellung von ES enthalten. Der Aufbau eines ES mit den betrachteten Mitteln besteht darin, das Ausgangswissen zu formalisieren, es in der Eingabesprache zur Wissensdarstellung festzuhalten und die Regeln für die logische Schlussfolgerung von Entscheidungen zu beschreiben. Als nächstes wird das Expertensystem mit Wissen gefüllt.

Muscheln oder leere ES Es handelt sich um fertige ES ohne Wissensbasis. Beispiele für ES-Shells, die weit verbreitet sind, sind die ausländische EMYCIN-Shell und die inländische Entwicklung von Expert-Micro, die darauf abzielt, ES-Lösungen für diagnostische Probleme zu entwickeln. Die Technologie zum Erstellen und Verwenden einer ES-Shell besteht darin, dass Wissen aus der Wissensdatenbank aus dem fertigen Expertensystem entfernt wird und die Datenbank dann mit Wissen gefüllt wird, das auf andere Anwendungen ausgerichtet ist. Der Vorteil von Shells ist ihre einfache Handhabung – ein Fachmann muss die Shell nur mit Wissen füllen, ohne Programme zu erstellen. Der Nachteil der Verwendung von Shells ist die mögliche Diskrepanz zwischen der spezifischen Shell und dem mit ihrer Hilfe entwickelten angewandten ES.

Ministerium für Bildung und Wissenschaft der Russischen Föderation

Internationales Institut „INFO-Ruthenien“

KURSARBEIT

Disziplin:

Forschung zu Steuerungssystemen

Thema: Einsatzgebiete Künstlicher Intelligenz im Unternehmen

Balatskaya E.N.

Einführung

2. Künstliche Intelligenz: Anwendungsgebiete

3. Künstliche Intelligenz und Perspektiven für ihre Entwicklung

Abschluss

Glossar


Einführung

Die Wissenschaft der künstlichen Intelligenz reicht bis in die Mitte des 20. Jahrhunderts zurück. Seitdem arbeiten Wissenschaftler in vielen Forschungslaboren daran, Computer zu entwickeln, die auf der gleichen Ebene wie Menschen denken können. Zu diesem Zeitpunkt waren die Voraussetzungen für die Entstehung künstlicher Intelligenz bereits gegeben. So erstellten Psychologen ein Modell des menschlichen Gehirns und untersuchten die Denkprozesse. Mathematiker schufen die Theorie der Algorithmen, die zur Grundlage der mathematischen Berechnungstheorie wurde, das Wissen über die Welt wurde geordnet und strukturiert, Fragen optimaler Berechnungen wurden gelöst und die allerersten Computer wurden entwickelt.

Neue Maschinen waren in der Lage, Berechnungen viel schneller durchzuführen als Menschen, daher dachten Wissenschaftler über die Möglichkeit nach, Computer zu entwickeln, die das Entwicklungsniveau von Menschen erreichen. 1950 veröffentlichte der englische Wissenschaftler Alan Turing den Artikel „Kann eine Maschine denken?“ In diesem Artikel schlägt er vor, den Intelligenzgrad einer Maschine mithilfe eines von ihm entwickelten Tests zu bestimmen, der später als „Turing-Test“ bekannt wurde.

Andere Wissenschaftler arbeiteten ebenfalls auf dem Gebiet der Entwicklung von KI, mussten sich jedoch mit einer Reihe von Problemen auseinandersetzen, die im Rahmen der traditionellen Informatik nicht gelöst werden konnten. Es stellte sich heraus, dass zunächst die Mechanismen der Sinneswahrnehmung, der Informationsaufnahme sowie die Natur der Sprache untersucht werden sollten. Es erwies sich als äußerst schwierig, die Arbeit des Gehirns nachzuahmen, da dies die Reproduktion der Arbeit von Milliarden miteinander interagierender Neuronen erfordern würde. Eine noch schwierigere Aufgabe als die Simulation der Arbeit des Gehirns war jedoch die Untersuchung der Prinzipien und Mechanismen seiner Funktionsweise. Dieses Problem, mit dem Geheimdienstforscher konfrontiert sind, wirkte sich auf die theoretische Seite der Psychologie aus. Wissenschaftler können sich immer noch nicht darauf einigen, was Intelligenz ist. Manche halten die Fähigkeit, Probleme hoher Komplexität zu lösen, für ein Zeichen von Intelligenz; Für andere ist Intelligenz in erster Linie die Fähigkeit, Informationen zu lernen, zu verallgemeinern und zu analysieren. Wieder andere glauben, dass dies die Fähigkeit ist, effektiv mit der Außenwelt zu interagieren, die empfangenen Informationen zu kommunizieren, wahrzunehmen und zu verstehen.

Forschungsgegenstand dieser Studienarbeit ist die künstliche Intelligenz. Gegenstand der Forschung sind mögliche Wege zu ihrer Verbesserung und Weiterentwicklung.

Zweck der Arbeit: Identifizierung von Bereichen menschlichen Handelns, in denen künstliche Intelligenz eingesetzt werden kann.

Im Zuge der im Rahmen dieser Arbeit durchgeführten Forschung wird erwartet, dass mehrere Probleme gelöst werden:

) Betrachten Sie die Geschichte der künstlichen Intelligenz;

) Identifizieren Sie die Hauptziele der Schaffung künstlicher Intelligenz;

) Den Leser mit den Anwendungsarten künstlicher Intelligenz in der modernen Welt vertraut machen;

) Erkundung vielversprechender Bereiche, in denen künstliche Intelligenz eingesetzt werden kann;

) Überlegen Sie, wie die Zukunft mit künstlicher Intelligenz aussehen könnte.

Die vorgestellte Studienarbeit kann für alle interessant sein, die sich für die Entstehungs- und Entwicklungsgeschichte der künstlichen Intelligenz interessieren, darüber hinaus kann sie als Lehrmittel verwendet werden.

1. Die Bedeutung des Begriffs „künstliche Intelligenz“

Vor mehr als 50 Jahren hörte die Menschheit erstmals von künstlicher Intelligenz. Dies geschah auf einer Konferenz im Jahr 1956 an der Dartmouth University, wo John McCarthy dem Begriff eine klare und präzise Definition gab. „Künstliche Intelligenz ist die Wissenschaft von der Entwicklung intelligenter Maschinen und Computerprogramme. Für die Zwecke dieser Wissenschaft werden Computer als Mittel zum Verständnis der Eigenschaften der menschlichen Intelligenz eingesetzt. Gleichzeitig sollte sich die Erforschung der KI nicht auf die Verwendung biologisch plausibler Methoden beschränken.

Wie andere angewandte Wissenschaften besteht auch die Wissenschaft der künstlichen Intelligenz aus theoretischen und experimentellen Teilen. In der Praxis nimmt „Künstliche Intelligenz“ eine Zwischenstellung zwischen der Informatik und Disziplinen wie der Kognitions- und Verhaltenspsychologie sowie der Neurophysiologie ein. Was die theoretische Grundlage betrifft, so dient ihr die „Philosophie der Künstlichen Intelligenz“, aber bis es auf diesem Gebiet signifikante Ergebnisse gibt, hat die Theorie keine eigenständige Bedeutung. Allerdings muss bereits jetzt zwischen der Wissenschaft der künstlichen Intelligenz und anderen theoretischen Disziplinen und Techniken (Robotik, Algorithmen, Mathematik, Physiologie) unterschieden werden, die eine eigenständige Bedeutung haben.

Derzeit erfolgt die Entwicklung der KI in zwei Richtungen: Neurokybernetik und Black-Box-Kybernetik. Einer der Bereiche – Neurokybernetik oder künstliche Intelligenz – basiert auf der Modellierung der Arbeit des menschlichen Gehirns mithilfe künstlicher Intelligenzsysteme, die als neuronale Netze oder neuronale Netze bekannt sind. Die zweite Richtung der KI – Black-Box-Kybernetik oder maschinelle Intelligenz – beschäftigt sich mit der Suche und Entwicklung von Algorithmen zur effektiven Lösung intellektueller Probleme unter Verwendung vorhandener Computermodelle. Für diese Richtung kommt es nicht auf das Design des Geräts an, sondern auf das Funktionsprinzip: Die Reaktion einer „denkenden“ Maschine auf Eingabeeinflüsse sollte die gleiche sein wie die des menschlichen Gehirns.

Es wurden viele Bücher über künstliche Intelligenz geschrieben, aber kein einziger Autor gibt eine klare Antwort auf die Frage, was diese Wissenschaft bewirkt. Die meisten Autoren berücksichtigen nur eine Definition von KI und betrachten wissenschaftliche Errungenschaften nur im Lichte dieser Definition. Das nächste Problem betrifft die Natur der menschlichen Intelligenz und ihren Status: In der Philosophie gibt es noch kein eindeutiges Kriterium für sie. Es gibt keinen einheitlichen Ansatz, um den Grad der „Intelligenz“ einer Maschine zu bestimmen. Zu Beginn der künstlichen Intelligenz wurden jedoch viele Hypothesen aufgestellt. Dies ist der oben erwähnte Turing-Test und die Newell-Simon-Hypothese sowie viele andere Ansätze zur Entwicklung von KI, von denen zwei im Wesentlichen unterschieden werden können:

semiotisch oder von oben nach unten: basierend auf der Erstellung von Wissensdatenbanken, Inferenzsystemen und Expertensystemen, die verschiedene mentale Prozesse auf hoher Ebene simulieren, wie z. B. Denken, Emotionen, Sprache, Kreativität, Argumentation usw.

biologisch oder Bottom-up: Es basiert auf der Schaffung und Untersuchung neuronaler Netze, die die Prozesse des menschlichen Gehirns nachahmen, sowie auf der Schaffung von Biocomputern, Neurocomputern und anderen ähnlichen Computersystemen.

Der zweite Ansatz geht über die Definition von John McCarthy hinaus, hat aber das gleiche Endziel, sodass es allen Grund gibt, ihn als künstliche Intelligenz einzustufen.

In Kombination mit kognitiver Psychologie, Erkenntnistheorie und Neurophysiologie bildet künstliche Intelligenz eine weitere Wissenschaft – die Kognitionswissenschaft. Die Erkenntnistheorie steht in direktem Zusammenhang mit den Problemen der KI, da es sich um eine Wissenswissenschaft (Teil der Philosophie) handelt und die Philosophie wiederum eine wichtige Rolle in der künstlichen Intelligenz spielt. Philosophen und KI-Ingenieure gehen mit ähnlichen Problemen um: Beide suchen nach den besten Möglichkeiten, Informationen und Wissen darzustellen und zu nutzen.

Die kognitive Modellierung ist eine von Axelrod vorgeschlagene und erstmals getestete Methode. Die Methode wird verwendet, um Entscheidungen in schlecht definierten Situationen zu treffen. Es basiert auf Modellierung, basierend auf dem Wissen subjektiver Vorstellungen über die Situation eines oder mehrerer Experten. Das Glaubensmodell des Experten ist eine kognitive Karte (F, W). W ist eine Reihe von Ursache-Wirkungs-Beziehungen zwischen Situationsfaktoren sowie vielen Methoden zur Analyse der Situation, F sind alle verfügbaren Faktoren der Situation. Derzeit besteht die Hauptrichtung der Entwicklung der kognitiven Modellierung darin, den Apparat zur Modellierung und Analyse der Situation zu verbessern. Insbesondere werden verschiedene Methoden zur Vorhersage der Situation und Methoden zur Lösung inverser Probleme entwickelt.

In der Informatik werden Probleme der künstlichen Intelligenz durch den Entwurf von Wissensdatenbanken und Expertensystemen gelöst. Wissensdatenbanken sind eine Sammlung von Wissen und Regeln, nach denen Informationen sinnvoll verarbeitet werden können. Im Allgemeinen werden Probleme der künstlichen Intelligenz in der Informatik mit dem Ziel untersucht, Informationssysteme, deren Betrieb und Verbesserung zu schaffen. Fachkräfte der Informationstechnik sind an der Schulung von Entwicklern und Anwendern solcher Systeme beteiligt.

Es ist ganz natürlich, dass Versuche, künstliche Intelligenz zu schaffen, die Aufmerksamkeit philosophischer Wissenschaftler auf sich gezogen haben und weiterhin auf sich ziehen. Die Entstehung der ersten intellektuellen Systeme musste viele Aspekte des menschlichen Wissens, der Weltordnung und der Stellung des Menschen in der Welt beeinflussen. Herkömmlicherweise lassen sich alle philosophischen Probleme in diesem Bereich in zwei Gruppen einteilen: die Möglichkeit der Schaffung künstlicher Intelligenz und die Ethik künstlicher Intelligenz. In der ersten Gruppe widmen sich die meisten Fragen den Möglichkeiten und Methoden zur Erstellung von KI. Die zweite Problemgruppe hängt mit den möglichen Folgen der Entstehung von KI für die gesamte Menschheit zusammen. Gleichzeitig gilt im Transhumanismus die Schaffung von KI als eine der vorrangigen Aufgaben der Menschheit.

Wissenschaftler des Singularity Institute (SIAI) in den USA untersuchen aktiv die Möglichkeiten globaler Risiken, die durch die Schaffung übermenschlicher künstlicher Intelligenz entstehen könnten. Um solchen Risiken vorzubeugen, sollte KI menschenfreundlich programmiert werden. Der Film „I, Robot“ berührt zu Recht die Frage der Ethik künstlicher Intelligenz. Einige Wissenschaftler glauben, dass die Gesetze der Robotik die „Computerintelligenz“ dazu ermutigen könnten, die Erde zu übernehmen, um die Bevölkerung vor Schaden zu „schützen“.

Was die religiösen Konfessionen betrifft, so stehen die meisten von ihnen der Schaffung von KI eher gelassen gegenüber. Beispielsweise glaubt der Dalai Lama, das spirituelle Oberhaupt der Buddhisten, dass es durchaus ein computergestütztes Bewusstsein geben könnte. Die raelitische Religionsbewegung unterstützt aktiv Entwicklungen in diesem Bereich. Andere Konfessionen berühren KI-bezogene Themen selten genug, um eine starke Position zu rechtfertigen.

Künstliche Intelligenz: Anwendungsgebiete

Von dem Moment an, als künstliche Intelligenz als wissenschaftliches Gebiet anerkannt wurde, und dies geschah Mitte der 50er Jahre des letzten Jahrhunderts, mussten Entwickler intelligenter Systeme viele Probleme lösen. Herkömmlicherweise lassen sich alle Aufgaben in mehrere Klassen einteilen: Erkennung und Übersetzung menschlicher Sprache, automatische Theorembeweise, Erstellung von Spielprogrammen, Bilderkennung und maschinelle Kreativität. Betrachten wir kurz das Wesen jeder Klasse von Problemen.

Beweis von Theoremen.

Die automatische Beweisführung von Theoremen ist die älteste Anwendung künstlicher Intelligenz. In diesem Bereich wurde viel geforscht, was zur Entstehung formalisierter Suchalgorithmen und formaler Darstellungssprachen wie PROLOG – einer logischen Programmiersprache – und der Prädikatenrechnung führte.

Automatische Theorembeweise sind attraktiv, weil sie auf der Allgemeingültigkeit und Strenge der Logik basieren. Logik in einem formalen System impliziert die Möglichkeit der Automatisierung, was bedeutet, dass Sie eine Lösung erhalten können, wenn Sie ein Problem und zusätzliche damit verbundene Informationen als eine Reihe logischer Axiome und Sonderfälle des Problems als beweispflichtige Theoreme darstellen viele Probleme. Auf diesem Prinzip basieren Systeme zur mathematischen Begründung und zum automatischen Beweis von Theoremen. In den vergangenen Jahren wurde immer wieder versucht, ein Programm zum automatischen Beweisen von Theoremen zu schreiben, es gelang jedoch nie, ein System zu schaffen, das die Lösung von Problemen mit einer einzigen Methode ermöglicht. Jedes relativ komplexe heuristische System könnte viele beweisbare Theoreme generieren, die irrelevant sind, sodass die Programme sie beweisen müssen, bis das richtige gefunden ist. Dies hat zu der Überzeugung geführt, dass große Räume nur durch informelle, auf bestimmte Situationen zugeschnittene Strategien bewältigt werden können. In der Praxis erwies sich dieser Ansatz als sehr fruchtbar und wurde neben anderen als Grundlage für Expertensysteme verwendet.

Gleichzeitig können Argumente, die auf formaler Logik basieren, nicht ignoriert werden. Mit einem formalisierten Ansatz können Sie viele Probleme lösen. Insbesondere können Sie damit komplexe Systeme steuern, die Korrektheit von Computerprogrammen überprüfen sowie logische Schaltkreise entwerfen und testen. Darüber hinaus haben Forscher zur automatischen Theoremprüfung leistungsstarke Heuristiken entwickelt, die auf der Bewertung der syntaktischen Form logischer Ausdrücke basieren. Dadurch wurde es möglich, die Komplexität des Suchraums zu reduzieren, ohne auf die Entwicklung spezieller Strategien zurückgreifen zu müssen.

Der automatische Beweis von Theoremen ist für Wissenschaftler auch deshalb interessant, weil das System auch für besonders komplexe Probleme eingesetzt werden kann, allerdings nicht ohne menschliches Eingreifen. Heutzutage fungieren Programme häufig als Assistenten. Experten unterteilen die Aufgabe in mehrere Teilaufgaben und entwickeln dann Heuristiken, um mögliche Gründe zu sortieren. Anschließend beweist das Programm Lemmata, testet weniger wichtige Annahmen und ergänzt die formalen Aspekte des menschlichen Beweises.

Mustererkennung.

Unter Mustererkennung versteht man die Auswahl wesentlicher Merkmale, die die Quelldaten charakterisieren, aus dem allgemeinen Satz von Merkmalen und die Zuordnung der Daten auf Basis der erhaltenen Informationen zu einer bestimmten Klasse.

Die Theorie der Mustererkennung ist ein Teilgebiet der Informatik, zu dessen Aufgaben die Entwicklung der Grundlagen und Methoden zur Identifizierung und Klassifizierung von Objekten (Objekten, Prozessen, Phänomenen, Situationen, Signalen etc.) gehört, die jeweils mit einer Reihe von ausgestattet sind bestimmte Zeichen und Eigenschaften. In der Praxis ist es häufig erforderlich, Objekte zu identifizieren. Eine typische Situation besteht darin, die Farbe einer Ampel zu erkennen und zu entscheiden, ob man gerade die Straße überqueren soll. Es gibt andere Bereiche, in denen auf Objekterkennung nicht verzichtet werden kann, beispielsweise die Digitalisierung analoger Signale, militärische Angelegenheiten, Sicherheitssysteme usw. Daher arbeiten Wissenschaftler auch heute noch aktiv an der Entwicklung von Bilderkennungssystemen.

Die Arbeiten werden in zwei Hauptrichtungen durchgeführt:

Erforschung, Erklärung und Modellierung der Unterscheidungsfähigkeiten, die Lebewesen innewohnen.

Entwicklung theoretischer und methodischer Grundlagen zur Erstellung von Geräten, die die Lösung individueller Probleme für angewandte Zwecke ermöglichen.

Erkennungsprobleme werden in mathematischer Sprache formuliert. Während die Theorie künstlicher neuronaler Netze darauf basiert, Ergebnisse durch Experimente zu erzielen, erfolgt die Formulierung von Mustererkennungsproblemen nicht auf der Grundlage von Experimenten, sondern auf der Grundlage mathematischer Beweise und logischer Überlegungen.

Betrachten wir die klassische Formulierung eines solchen Problems. Es gibt viele Objekte, hinsichtlich derer eine Klassifizierung durchgeführt werden sollte. Eine Menge besteht aus Teilmengen oder Klassen. Gegeben sind: Informationen, die eine Menge beschreiben, Informationen über Klassen und eine Beschreibung eines einzelnen Objekts ohne Angabe seiner Zugehörigkeit zu einer bestimmten Klasse. Aufgabe: Bestimmen Sie anhand der verfügbaren Daten, zu welcher Klasse das Objekt gehört.

Wenn Probleme monochrome Bilder enthalten, können sie als Funktionen auf einer Ebene betrachtet werden. Die Funktion stellt eine formale Aufzeichnung des Bildes dar und drückt an jedem Punkt eine bestimmte Charakteristik dieses Bildes aus – optische Dichte, Transparenz, Helligkeit usw. In diesem Fall ist das Modell des Bildsatzes der Satz von Funktionen auf der Ebene . Die Formulierung des Erkennungsproblems hängt davon ab, welche Schritte nach der Erkennung ablaufen sollen.

Zu den Mustererkennungsmethoden gehören Experimente von F. Rosenblatt, der das Konzept eines Gehirnmodells einführte. Der Zweck des Experiments besteht darin, zu zeigen, wie psychologische Phänomene in einem physikalischen System mit bekannten funktionellen Eigenschaften und Struktur entstehen. Der Wissenschaftler beschrieb die einfachsten Erkennungsexperimente, deren Merkmal jedoch ein nichtdeterministischer Lösungsalgorithmus ist.

Das einfachste Experiment, auf dessen Grundlage psychologisch bedeutsame Informationen über das System gewonnen werden können, ist folgendes: Dem Perzeptron wird eine Folge von zwei verschiedenen Reizen präsentiert, auf die es jeweils auf irgendeine Weise reagieren muss, und die Reaktion muss für unterschiedliche Reize unterschiedlich sein. Die Ziele eines solchen Experiments können unterschiedlich sein. Der Experimentator könnte vor der Aufgabe stehen, die Möglichkeit einer spontanen Diskriminierung durch das System präsentierter Reize ohne Eingreifen von außen zu untersuchen, oder umgekehrt, die Möglichkeit einer erzwungenen Erkennung zu untersuchen. Im zweiten Fall trainiert der Experimentator das System, verschiedene Objekte zu klassifizieren, von denen es mehr als zwei geben kann. Das Lernerlebnis läuft wie folgt ab: Dem Perzeptron werden Bilder präsentiert, unter denen Vertreter aller Klassen zu erkennen sind. Die richtige Reaktion wird gemäß den Regeln der Gedächtnismodifikation verstärkt. Danach präsentiert der Experimentator dem Perzeptron einen Kontrollreiz und bestimmt die Wahrscheinlichkeit, eine bestimmte Reaktion für Bilder einer bestimmten Klasse zu erhalten. Der Kontrollreiz kann mit einem der in der Trainingssequenz präsentierten Objekte identisch sein oder sich von allen präsentierten Objekten unterscheiden. Abhängig davon ergeben sich folgende Ergebnisse:

Unterscheidet sich der Kontrollreiz von allen bisher dargebotenen Trainingsreizen, so untersucht das Experiment neben der reinen Diskriminierung auch Elemente der Generalisierung.

Wenn ein Kontrollreiz die Aktivierung einer bestimmten Gruppe sensorischer Elemente verursacht, die mit keinem der zuvor vorgestellten Elemente, die durch Reize derselben Klasse aktiviert wurden, zusammenfallen, untersucht das Experiment eine reine Verallgemeinerung und beinhaltet keine Erkennungsstudie.

Obwohl Perzeptrone nicht zur reinen Generalisierung fähig sind, meistern sie Erkennungsaufgaben zufriedenstellend, insbesondere wenn Bilder angezeigt werden, mit denen das Perzeptron bereits Erfahrung hat.

Menschliche Spracherkennung und maschinelle Übersetzung.

Zu den langfristigen Zielen der künstlichen Intelligenz gehört die Entwicklung von Programmen, die menschliche Sprache erkennen und daraus sinnvolle Phrasen konstruieren können. Die Fähigkeit, natürliche Sprache zu verstehen und zu verwenden, ist ein grundlegendes Merkmal der menschlichen Intelligenz. Eine erfolgreiche Automatisierung dieser Fähigkeit würde die Effizienz von Computern erheblich verbessern. Viele Programme wurden geschrieben, um natürliche Sprache zu verstehen, und wurden in begrenzten Kontexten erfolgreich eingesetzt, aber es gibt immer noch keine Systeme, die natürliche Sprachen mit der gleichen Allgemeingültigkeit und Flexibilität verwenden können wie Menschen. Tatsache ist, dass es beim Verstehen natürlicher Sprache nicht nur darum geht, Sätze einfach in ihre Bestandteile zu zerlegen und die Bedeutung einzelner Wörter in Wörterbüchern nachzuschlagen. Die Programme meistern diese Aufgabe erfolgreich. Um die menschliche Sprache nutzen zu können, benötigen Sie umfassende Kenntnisse über das Gesprächsthema und die damit verbundenen Redewendungen. Darüber hinaus benötigen Sie die Fähigkeit, Mehrdeutigkeiten, Auslassungen, Professionalität, Fachjargon, umgangssprachliche Ausdrücke und vieles mehr zu verstehen, was der normalen menschlichen Sprache innewohnt .

Ein Beispiel ist ein Gespräch über Fußball, bei dem Wörter wie „Angreifer“, „Pass“, „Pass“, „Freistoß“, „Verteidiger“, „Stürmer“, „Kapitän“ und andere verwendet werden. Jedes dieser Wörter hat eine Reihe von Bedeutungen, und einzeln sind die Wörter durchaus verständlich, aber ein daraus zusammengesetzter Satz wird für jeden unverständlich sein, der sich nicht für Fußball interessiert und nichts über die Geschichte, Regeln und Prinzipien dieses Spiels weiß . Daher erfordert das Verstehen und Verwenden der menschlichen Sprache eine Reihe von Hintergrundwissen, und eine der größten Herausforderungen bei der Automatisierung des Verstehens und Verwendens natürlicher menschlicher Sprache ist die Sammlung und Systematisierung dieses Wissens.

Da semantische Bedeutungen in der künstlichen Intelligenz sehr weit verbreitet sind, haben Wissenschaftler eine Reihe von Methoden entwickelt, die eine gewisse Strukturierung dieser Bedeutungen ermöglichen. Dennoch wird die meiste Arbeit in Problembereichen geleistet, die gut verstanden und spezialisiert sind. Ein Beispiel ist die „Mikrowelt“-Technik. Eines der ersten Programme, in denen es zum Einsatz kam, war das von Terry Winograd entwickelte Programm SHRDLU, eines der Systeme zum Verstehen menschlicher Sprache. Die Fähigkeiten des Programms waren recht begrenzt und liefen auf ein „Gespräch“ über die Anordnung von Blöcken unterschiedlicher Farbe und Form sowie auf die Planung einfacher Aktionen hinaus. Das Programm lieferte Antworten auf Fragen wie „Welche Farbe hat die Pyramide auf dem Kreuzblock?“ und könnte Anweisungen geben wie „Lege den blauen Block auf den roten.“ Solche Probleme wurden oft von Forschern der künstlichen Intelligenz angegangen und wurden später als „Welt der Blöcke“ bekannt.

Trotz der Tatsache, dass das SHRDLU-Programm erfolgreich über die Position der Blöcke „konversierte“, verfügte es nicht über die Fähigkeit, von dieser „Mikrowelt“ zu abstrahieren. Es wurden zu einfache Techniken verwendet, die nicht in der Lage waren, die semantische Organisation von Themenbereichen höherer Komplexität zu vermitteln.

Aktuelle Arbeiten auf dem Gebiet des Verstehens und Anwendens natürlicher Sprachen zielen hauptsächlich darauf ab, Darstellungsformalismen zu finden, die ausreichend allgemein sind, um an die spezifischen Strukturen gegebener Domänen angepasst und auf ein breites Spektrum von Anwendungen angewendet werden können. Die meisten der vorhandenen Techniken, bei denen es sich um Modifikationen semiotischer Netzwerke handelt, werden erforscht und zum Schreiben von Programmen verwendet, die in der Lage sind, natürliche Sprache in engen Themenbereichen zu erkennen. Gleichzeitig erlauben uns moderne Fähigkeiten nicht, ein universelles Programm zu erstellen, das die menschliche Sprache in ihrer ganzen Vielfalt verstehen kann.

Unter den verschiedenen Mustererkennungsproblemen lassen sich folgende unterscheiden:

Identifizierung von Mineralvorkommen

Bilderkennung

Barcode-Erkennung

Zeichenerkennung

Spracherkennung

Gesichtserkennung

Kennzeichenerkennung

Künstliche Intelligenz in Gaming-Programmen.

Gaming-Künstliche Intelligenz umfasst nicht nur traditionelle KI-Methoden, sondern auch Algorithmen aus der Informatik im Allgemeinen, der Computergrafik, der Robotik und der Steuerungstheorie. Wie die KI implementiert wird, wirkt sich nicht nur auf die Systemanforderungen, sondern auch auf das Budget des Spiels aus. Daher müssen Entwickler abwägen, um sicherzustellen, dass die künstliche Intelligenz des Spiels mit minimalen Kosten erstellt wird und gleichzeitig interessant und anspruchslos ist auf Ressourcen. Dabei handelt es sich um einen völlig anderen Ansatz als bei der herkömmlichen künstlichen Intelligenz. Insbesondere Nachahmungen, Täuschungen und verschiedene Vereinfachungen sind weit verbreitet. Beispiel: Ein Merkmal von Ego-Shootern ist die Fähigkeit von Bots, sich präzise zu bewegen und sofort zu zielen, gleichzeitig hat eine Person jedoch keine einzige Chance, sodass die Fähigkeiten von Bots künstlich reduziert werden. Gleichzeitig werden auf der Ebene Kontrollpunkte platziert, damit die Bots als Team agieren, Hinterhalte anlegen usw. können.

In Computerspielen, die durch künstliche Intelligenz gesteuert werden, gibt es die folgenden Kategorien von Charakteren:

Mobs sind Charaktere mit geringer Intelligenz, die dem menschlichen Spieler feindlich gegenüberstehen. Spieler zerstören Mobs, um das Territorium zu durchqueren und Artefakte und Erfahrungspunkte zu erhalten.

Nicht-Spieler-Charaktere – normalerweise sind diese Charaktere dem Spieler gegenüber freundlich oder neutral.

Bots sind spielerfeindliche Charaktere und am schwierigsten zu programmieren. Ihre Fähigkeiten kommen denen von Spielcharakteren nahe. Zu jedem Zeitpunkt gehen mehrere Bots gegen den Spieler vor.

Innerhalb eines Computerspiels gibt es viele Bereiche, in denen unterschiedlichste heuristische Algorithmen zur künstlichen Gaming-Intelligenz zum Einsatz kommen. Spiel-KI wird am häufigsten zur Steuerung von Nicht-Spieler-Charakteren eingesetzt. Eine weitere, nicht weniger verbreitete Steuerungsmethode ist das Scripting. Eine weitere offensichtliche Verwendung von Spiel-KI, insbesondere in Echtzeit-Strategiespielen, ist die Wegfindung oder eine Methode zur Bestimmung, wie ein Nicht-Spieler-Charakter von einem Punkt auf einer Karte zu einem anderen gelangen kann. In diesem Fall müssen Sie Hindernisse, Gelände und den möglichen „Nebel des Krieges“ berücksichtigen. Auch das dynamische Balancing von Mobs ist ohne den Einsatz künstlicher Intelligenz nicht vollständig. Viele Spiele haben das Konzept der unvorhersehbaren Intelligenz erforscht. Dabei handelt es sich um Spiele wie Nintendogs, Black & White, Creatures und das bekannte Spielzeug Tamagotchi. In diesen Spielen sind die Charaktere Haustiere, deren Verhalten sich je nach den vom Spieler ausgeführten Aktionen ändert. Die Charaktere scheinen lernfähig zu sein, obwohl ihre Handlungen tatsächlich das Ergebnis einer Auswahl aus einer begrenzten Anzahl von Entscheidungen sind.

Viele Spieleprogrammierer betrachten jede Technik, die die Illusion von Intelligenz erzeugt, als Teil der künstlichen Intelligenz von Spielen. Dieser Ansatz ist jedoch nicht ganz richtig, da dieselben Techniken nicht nur in KI-Engines für Spiele verwendet werden können. Beispielsweise werden bei der Erstellung von Bots Algorithmen verwendet, in die Informationen über mögliche zukünftige Kollisionen eingegeben werden, wodurch die Bots die „Fähigkeit“ erwerben, diese Kollisionen zu vermeiden. Aber genau diese Techniken sind ein wichtiger und notwendiger Bestandteil einer Physik-Engine. Ein weiteres Beispiel: Ein wichtiger Bestandteil des Zielsystems eines Bots sind Wasserdaten, und dieselben Daten werden in der Grafik-Engine häufig zum Rendern verwendet. Das letzte Beispiel ist die Skripterstellung. Dieses Tool kann in allen Aspekten der Spieleentwicklung erfolgreich eingesetzt werden, wird jedoch am häufigsten als eine Möglichkeit angesehen, die Aktionen von Nicht-Spieler-Charakteren zu steuern.

Laut Puristen hat der Ausdruck „künstliche Intelligenz im Spiel“ keine Daseinsberechtigung, da er übertrieben ist. Ihr Hauptargument ist, dass Gaming-KI nur einige Bereiche der Wissenschaft der klassischen künstlichen Intelligenz nutzt. Es sollte auch berücksichtigt werden, dass die Ziele der KI darin bestehen, selbstlernende Systeme und sogar künstliche Intelligenz zu schaffen, die zum Denken fähig ist, während sie sich oft auf Heuristiken und ein paar Faustregeln beschränkt, die zum Erstellen ausreichen gutes Gameplay und vermitteln dem Spieler lebendige Eindrücke und das Spielgefühl.

Derzeit zeigen Computerspielentwickler Interesse an akademischer KI, und die akademische Gemeinschaft wiederum interessiert sich zunehmend für Computerspiele. Dies wirft die Frage auf, inwieweit sich Gaming und klassische KI voneinander unterscheiden. Gleichzeitig gilt die künstliche Intelligenz im Gaming immer noch als einer der Unterzweige der klassischen Intelligenz. Dies liegt daran, dass künstliche Intelligenz verschiedene Anwendungsbereiche hat, die sich voneinander unterscheiden. Wenn wir über Gaming-Intelligenz sprechen, besteht ein wichtiger Unterschied in der Möglichkeit der Täuschung, um bestimmte Probleme auf „legale“ Weise zu lösen. Der Nachteil der Täuschung besteht einerseits darin, dass sie oft zu unrealistischem Verhalten der Figur führt und aus diesem Grund nicht immer eingesetzt werden kann. Andererseits stellt die bloße Möglichkeit einer solchen Täuschung einen wichtigen Unterschied zwischen der Spiel-KI dar.

Eine weitere interessante Aufgabe der künstlichen Intelligenz besteht darin, einem Computer das Schachspielen beizubringen. Wissenschaftler auf der ganzen Welt waren damit beschäftigt, das Problem zu lösen. Die Besonderheit dieser Aufgabe besteht darin, dass die Demonstration der logischen Fähigkeiten des Computers nur in Anwesenheit eines echten Gegners möglich ist. Die erste derartige Demonstration fand 1974 in Stockholm statt, wo die Schachweltmeisterschaft unter den Schachprogrammen stattfand. Das von sowjetischen Wissenschaftlern des Instituts für Managementprobleme der Akademie der Wissenschaften der UdSSR in Moskau ins Leben gerufene Programm „Kaissa“ gewann diesen Wettbewerb.

Künstliche Intelligenz in der maschinellen Kreativität.

Die Natur der menschlichen Intelligenz ist noch nicht ausreichend erforscht, und der Grad der Erforschung der Natur der menschlichen Kreativität ist noch geringer. Ein Bereich der künstlichen Intelligenz ist jedoch die maschinelle Kreativität. Moderne Computer schaffen musikalische, literarische und künstlerische Werke, und die Computerspiel- und Filmindustrie nutzt seit langem realistische, von Maschinen erzeugte Bilder. Bestehende Programme erzeugen verschiedene Bilder, die für den Menschen leicht wahrnehmbar und verständlich sind. Dies ist besonders wichtig, wenn es um intuitives Wissen geht, dessen formale Überprüfung einen erheblichen mentalen Aufwand erfordern würde. So werden musikalische Probleme erfolgreich mit einer Programmiersprache gelöst, zu der auch die CSound-Sprache gehört. Spezielle Software, mit der musikalische Werke erstellt werden, sind algorithmische Kompositionsprogramme, interaktive Kompositionssysteme, Klangsynthese- und Verarbeitungssysteme.

Expertensysteme.

Die Entwicklung moderner Expertensysteme wird seit den frühen 1970er Jahren von Forschern betrieben, und in den frühen 1980er Jahren begann die kommerzielle Entwicklung von Expertensystemen. Die Prototypen von Expertensystemen, die 1832 vom russischen Wissenschaftler S. N. Korsakov vorgeschlagen wurden, waren mechanische Geräte, sogenannte „intelligente Maschinen“, die es ermöglichten, auf der Grundlage gegebener Bedingungen eine Lösung zu finden. Beispielsweise wurden die bei einem Patienten beobachteten Krankheitssymptome analysiert und auf der Grundlage der Ergebnisse dieser Analyse die am besten geeigneten Medikamente vorgeschlagen.

Die Informatik betrachtet Expertensysteme zusammen mit Wissensdatenbanken. Systeme sind Modelle des Expertenverhaltens, die auf der Anwendung von Entscheidungsverfahren und logischen Schlussfolgerungen basieren. Unter Wissensdatenbanken versteht man eine Reihe von Regeln für logische Schlussfolgerungen und Fakten, die in direktem Zusammenhang mit dem gewählten Tätigkeitsbereich stehen.

Ende des letzten Jahrhunderts entwickelte sich ein bestimmtes Konzept von Expertensystemen, das sich stark auf die damals allgemein akzeptierte textbasierte Mensch-Maschine-Schnittstelle konzentrierte. Derzeit befindet sich dieses Konzept in einer schweren Krise, offenbar aufgrund der Tatsache, dass in Benutzeranwendungen die Textoberfläche durch eine grafische ersetzt wurde. Darüber hinaus passen das relationale Datenmodell und die „klassische“ Sicht auf den Aufbau von Expertensystemen nicht gut zusammen. Folglich kann die Organisation der Wissensdatenbanken von Expertensystemen zumindest mit modernen industriellen Datenbankmanagementsystemen nicht effektiv durchgeführt werden. Literatur- und Online-Quellen bieten viele Beispiele für Expertensysteme, die als „allgemein“ oder „bekannt“ bezeichnet werden. Tatsächlich wurden alle diese Expertensysteme bereits in den 80er Jahren des letzten Jahrhunderts entwickelt und existieren inzwischen entweder nicht mehr oder sind hoffnungslos veraltet und existieren dank einiger Enthusiasten. Andererseits bezeichnen Entwickler moderner Softwareprodukte ihre Kreationen häufig als Expertensysteme. Solche Aussagen sind nichts weiter als ein Marketingtrick, denn in Wirklichkeit handelt es sich bei diesen Produkten nicht um Expertensysteme (ein Beispiel wäre irgendein Computer-Rechtsreferenzsystem). Enthusiasten versuchen, Ansätze zur Erstellung einer Benutzeroberfläche mit „klassischen“ Ansätzen zur Erstellung von Expertensystemen zu kombinieren. Diese Versuche spiegeln sich in Projekten wie CLIPS.NET, CLIPS Java Native Interface und anderen wider, aber große Softwareunternehmen haben es nicht eilig, solche Projekte zu finanzieren, und aus diesem Grund kommen die Entwicklungen nicht über das experimentelle Stadium hinaus.

Die vielfältigen Einsatzgebiete wissensbasierter Systeme lassen sich in Klassen einteilen: Medizinische Diagnostik, Planung, Prognose, Überwachung und Steuerung, Schulung, Interpretation, Fehlerdiagnose in elektrischen und mechanischen Geräten, Schulung. Schauen wir uns jede dieser Klassen genauer an.

a) Medizinische Diagnosesysteme.

Mit Hilfe solcher Systeme ermitteln sie, wie verschiedene Störungen der Körpertätigkeit und deren mögliche Ursachen miteinander zusammenhängen. Das bekannteste Diagnosesystem ist MYCIN. Es wird zur Diagnose von Meningitis und bakteriellen Infektionen sowie zur Überwachung des Zustands von Patienten mit diesen Krankheiten eingesetzt. Die erste Version des Systems wurde in den 70er Jahren entwickelt. Heute sind seine Leistungsfähigkeiten erheblich erweitert: Das System stellt Diagnosen auf dem gleichen professionellen Niveau wie ein Facharzt und kann in verschiedenen Bereichen der Medizin eingesetzt werden.

b) Vorhersagesysteme.

Systeme sollen Ereignisse oder die Ergebnisse von Ereignissen auf der Grundlage verfügbarer Daten vorhersagen, die die aktuelle Situation oder den aktuellen Zustand eines Objekts charakterisieren. So ist das Programm „Conquest of Wall Street“, das bei seiner Arbeit statistische Methoden von Algorithmen nutzt, in der Lage, die Marktbedingungen zu analysieren und einen Investitionsplan zu entwickeln. Das Programm nutzt Algorithmen und Verfahren der traditionellen Programmierung und kann daher nicht als wissensbasiertes System eingestuft werden. Schon heute gibt es Programme, die durch die Analyse verfügbarer Daten Passagierströme, Ernteerträge und das Wetter vorhersagen können. Solche Programme sind recht einfach und einige von ihnen können auf normalen PCs verwendet werden. Allerdings gibt es noch keine Expertensysteme, die auf der Grundlage von Daten über die Marktbedingungen Vorschläge zur Kapitalerhöhung machen könnten.

c) Planung.

Planungssysteme sollen Probleme mit einer großen Anzahl von Variablen lösen, um bestimmte Ergebnisse zu erzielen. Zum ersten Mal im kommerziellen Bereich wurden solche Systeme von der Damaskus-Firma Informat eingesetzt. Die Unternehmensleitung ordnete die Installation von 13 Stationen in der Bürolobby an, an denen Kunden, die einen Computer kaufen möchten, kostenlose Beratungsgespräche führen konnten. Die Maschinen haben uns dabei geholfen, eine Wahl zu treffen, die dem Budget und den Wünschen des Käufers am besten entsprach. Expertensysteme wurden von Boeing auch für die Reparatur von Hubschraubern, die Identifizierung der Ursachen für den Ausfall von Flugzeugtriebwerken und den Entwurf von Raumstationen eingesetzt. DEC hat das XCON-Expertensystem entwickelt, das in der Lage ist, VAX-Computersysteme basierend auf Kundenanforderungen zu identifizieren und neu zu konfigurieren. DEC entwickelt derzeit ein leistungsfähigeres XSEL-System, das die XCON-Wissensdatenbank umfasst. Der Zweck der Erstellung des Systems besteht darin, Verbrauchern bei der Auswahl eines Computersystems mit der erforderlichen Konfiguration zu helfen. Der Unterschied zwischen XSEL und XCON besteht darin, dass es interaktiv ist.

d) Interpretation.

Interpretationssysteme sind in der Lage, aus Beobachtungsergebnissen Schlussfolgerungen zu ziehen. Eines der bekanntesten Interpretationssysteme ist das PROSPECTOR-System. Es funktioniert mit Daten, die auf dem Wissen von neun Experten basieren. Die Wirksamkeit des Systems lässt sich an einem Beispiel beurteilen: Mit neun verschiedenen Untersuchungsmethoden entdeckte das System ein Erzlager, das kein Experte hätte vorhersagen können. Ein weiteres bekanntes interpretierendes Typensystem ist HASP/SIAP. Es nutzt Daten akustischer Ortungssysteme und ermittelt damit den Standort von Schiffen im Pazifischen Ozean und deren Typen.

e) Intelligente Kontroll- und Managementsysteme.

Expertensysteme werden erfolgreich zur Steuerung und Steuerung eingesetzt. Sie sind in der Lage, aus mehreren Quellen erhaltene Daten zu analysieren und auf der Grundlage der Analyseergebnisse Entscheidungen zu treffen. Solche Systeme sind in der Lage, die Bewegung von Flugzeugen medizinisch zu überwachen und zu steuern, außerdem werden sie in Kernkraftwerken eingesetzt. Sie helfen auch dabei, die Finanzaktivitäten des Unternehmens zu regulieren und Lösungen in kritischen Situationen zu entwickeln.

f) Diagnose und Fehlerbehebung elektrischer und mechanischer Geräte.

Wissensbasierte Systeme werden in folgenden Fällen eingesetzt:

Reparatur von Diesellokomotiven, Automobilen und anderen elektrischen und mechanischen Geräten;

Diagnose und Beseitigung von Fehlern und Störungen in Computersoftware und -hardware.

g) Computer-Trainingssysteme.

Der Einsatz wissensbasierter Systeme für Bildungszwecke ist sehr effektiv. Das System analysiert das Verhalten und die Aktivität des Objekts und ändert die Wissensbasis entsprechend den erhaltenen Informationen. Das einfachste Beispiel für ein solches Training ist ein Computerspiel, bei dem die Level mit zunehmendem Können des Spielers schwieriger werden. Ein interessantes Trainingssystem – EURISCO – wurde von D. Lenat entwickelt. Es verwendet einfache Heuristiken. Das System wurde in einem Spiel zur Simulation von Kampfhandlungen eingesetzt. Der Kern des Spiels besteht darin, die optimale Zusammensetzung der Flottille zu bestimmen, die unter Einhaltung vieler Regeln Niederlagen verursachen kann. Das System hat diese Aufgabe erfolgreich gemeistert und in die Flottille ein kleines Schiff und mehrere angriffsfähige Schiffe aufgenommen. Die Spielregeln änderten sich jedes Jahr, aber das EURISCO-System gewann drei Jahre lang konstant.

Es gibt viele Expertensysteme, die aufgrund ihres Wissensgehalts in mehrere Typen gleichzeitig eingeteilt werden können. Beispielsweise kann ein System, das eine Planung durchführt, auch ein lernendes System sein. Es ist in der Lage, den Wissensstand des Studierenden zu ermitteln und auf Grundlage dieser Informationen einen Lehrplan zu erstellen. Steuerungssysteme dienen der Planung, Prognose, Diagnose und Steuerung. Systeme zum Schutz eines Hauses oder einer Wohnung können Veränderungen in der Umgebung überwachen, die Entwicklung der Situation vorhersagen und einen Plan für das weitere Vorgehen erstellen. Zum Beispiel hat sich ein Fenster geöffnet und ein Dieb versucht, dadurch in den Raum einzudringen. Daher ist es notwendig, die Polizei zu rufen.

Der weit verbreitete Einsatz von Expertensystemen begann in den 1980er Jahren, als sie erstmals kommerziell eingeführt wurden. ES werden in vielen Bereichen eingesetzt, darunter Wirtschaft, Wissenschaft, Technologie, Fertigung und andere Branchen, die sich durch ein ganz bestimmtes Themengebiet auszeichnen. „Gut definiert“ bedeutet in diesem Zusammenhang, dass eine Person den Denkablauf in separate Phasen unterteilen und auf diese Weise jedes Problem lösen kann, das innerhalb des vorgegebenen Bereichs liegt. Daher kann ein Computerprogramm ähnliche Aktionen ausführen. Man kann mit Sicherheit sagen, dass die Nutzung der Fähigkeiten künstlicher Intelligenz der Menschheit endlose Möglichkeiten eröffnet.

Künstliche Intelligenz und Perspektiven für ihre Entwicklung

David Lodges Roman Small World über die akademische Welt der Literaturkritik beschreibt eine bemerkenswerte Szene. Die Hauptfigur wendet sich an eine Gruppe prominenter Literaturtheoretiker mit der Frage, was passieren würde, wenn sie Recht hätten. Unter den Theoretikern kam es zu Verwirrung. Sie waren anderer Meinung, aber keiner von ihnen hatte zuvor gedacht, dass das Streiten über unwiderlegbare Theorien eine bedeutungslose Tätigkeit sei. Wenn Sie Wissenschaftlern, die künstliche Intelligenz erforschen, eine ähnliche Umfrage stellen würden, wären diese wahrscheinlich ebenfalls verwirrt. Was würde passieren, wenn es ihnen gelingen würde, ihre Ziele zu erreichen? Schließlich zeigen intelligente Computer bereits bemerkenswerte Leistungen und jeder versteht, dass sie nützlicher sind als Maschinen ohne Intelligenz. Es scheint, dass es keinen Grund zur Sorge gibt. Es gibt jedoch eine Reihe ethischer Fragen, die berücksichtigt werden müssen.

Intelligente Computer sind leistungsfähiger als nichtintelligente, aber kann sichergestellt werden, dass diese Leistung immer nur zum Guten und nicht zum Bösen genutzt wird? Forscher der künstlichen Intelligenz, die ihr ganzes Leben den Entwicklungen auf diesem Gebiet gewidmet haben, müssen sich ihrer Verantwortung bewusst sein, sicherzustellen, dass die Ergebnisse ihrer Arbeit nur positive Auswirkungen auf die Menschheit haben. Der Grad dieses Einflusses steht in direktem Zusammenhang mit dem Grad der künstlichen Intelligenz. Schon die frühesten Fortschritte auf diesem Gebiet hatten erhebliche Auswirkungen auf die Art und Weise, wie Informatik gelehrt wird sowie auf die Entwicklung von Software und Hardware. Künstliche Intelligenz hat die Entwicklung von Suchmaschinen, Robotern, effektiven Außenüberwachungssystemen, Bestandsverwaltungssystemen, Spracherkennung und einer Reihe anderer grundlegend neuer Anwendungen ermöglicht.

Den Entwicklern zufolge können mittlere Erfolge im Bereich der künstlichen Intelligenz enorme Auswirkungen auf die Lebensweise der Bevölkerung auf der ganzen Welt haben. Bislang hatten nur das Internet und die Mobilfunkkommunikation einen derart allgegenwärtigen Einfluss, und der Einfluss künstlicher Intelligenz blieb unbedeutend. Aber wir können uns vorstellen, wie die Einführung persönlicher Assistenten für zu Hause oder im Büro der Menschheit zugute kommen wird und wie sich mit ihrem Aussehen die Lebensqualität im Alltag verbessern wird, auch wenn dies zunächst eine Reihe wirtschaftlicher Probleme mit sich bringen kann. Gleichzeitig können die technologischen Möglichkeiten, die sich für die Menschheit eröffnet haben, zur Entwicklung autonomer Waffen führen, deren Erscheinen nach Ansicht vieler unerwünscht ist. Schließlich könnte es durchaus sein, dass der Erfolg bei der Schaffung künstlicher Intelligenz, die über den menschlichen Verstand hinausgeht, das Leben der Menschheit radikal verändern könnte. Die Menschen werden anders arbeiten, entspannen und Spaß haben; die Vorstellungen über Bewusstsein, Intelligenz und die Zukunft der Menschheit werden sich ändern. Es ist leicht zu verstehen, dass die Entstehung überlegener Intelligenz der Freiheit, Selbstbestimmung und Existenz der Menschen ernsthaften Schaden zufügen kann. Zumindest könnten alle diese Aspekte gefährdet sein. Daher muss Forschung im Zusammenhang mit künstlicher Intelligenz im Bewusstsein ihrer möglichen Konsequenzen durchgeführt werden.

Wie könnte die Zukunft aussehen? In den meisten Science-Fiction-Romanen erfolgt die Handlungsentwicklung nicht nach optimistischen, sondern nach pessimistischen Szenarien, vielleicht nur, weil solche Werke für die Leser attraktiver sind. Aber in Wirklichkeit wird höchstwahrscheinlich alles anders sein. Die Entwicklung der künstlichen Intelligenz vollzieht sich auf die gleiche Weise wie die Telefonie, die Luftfahrt, die technische Ausrüstung, der Druck und andere revolutionäre Technologien, die zu ihrer Zeit entwickelt wurden und deren Einführung eher positive als negative Folgen hatte.

Erwähnenswert ist auch, dass trotz der kurzen Geschichte der künstlichen Intelligenz in diesem Bereich erhebliche Fortschritte erzielt wurden. Wenn die Menschheit jedoch in die Zukunft blicken könnte, würde sie sehen, wie wenig getan wurde im Vergleich zu dem, was noch getan werden muss.

Abschluss

Experte für künstliche Intelligenz

Die wissenschaftliche Gemeinschaft debattiert weiterhin über die Möglichkeit der Schaffung künstlicher Intelligenz. Nach Ansicht vieler wird die Schaffung von KI eine Herabwürdigung der Menschenwürde mit sich bringen. Wenn wir über die Fähigkeiten der KI sprechen, dürfen wir die Notwendigkeit nicht vergessen, die menschliche Intelligenz zu entwickeln und zu verbessern.

Die Vorteile des Einsatzes von KI bestehen darin, dass er Anreize für weitere Fortschritte bietet und zudem die Arbeitsproduktivität durch Produktionsautomatisierung erheblich steigert. Doch bei allen Vorteilen hat die Kybernetik auch einige Nachteile, denen die Menschheit größte Aufmerksamkeit schenken sollte. Der Hauptnachteil ist die Gefahr, die die Arbeit mit KI mit sich bringen kann. Ein weiteres Problem besteht darin, dass Menschen möglicherweise den Anreiz verlieren, kreativ zu sein. Computer werden überall in der Kunst eingesetzt und es scheint, dass sie Menschen aus diesem Bereich verdrängen. Es bleibt zu hoffen, dass qualifizierte kreative Arbeit weiterhin für Menschen attraktiv bleibt und die besten musikalischen, literarischen und künstlerischen Werke weiterhin von Menschen geschaffen werden.

Es gibt noch eine andere Gruppe von Problemen, die schwerwiegender sind. Moderne Maschinen und Programme verfügen über die Fähigkeit, sich an veränderte äußere Faktoren anzupassen, also zu lernen. Schon bald werden Maschinen mit einem solchen Maß an Anpassungsfähigkeit und Zuverlässigkeit entwickelt, dass der Mensch nicht in den Entscheidungsprozess eingreifen kann. Dies kann dazu führen, dass Menschen im Notfall nicht in der Lage sind, angemessen zu handeln. Es ist auch möglich, dass eine Person im Notfall nicht in der Lage ist, Führungsfunktionen im richtigen Moment zu übernehmen. Dies bedeutet, dass es sich jetzt lohnt, darüber nachzudenken, der Automatisierung von Prozessen, insbesondere im Zusammenhang mit dem Eintreten schwerwiegender Notfallsituationen, einige Grenzen zu setzen. In diesem Fall ist die Person, die die Steuermaschine steuert, in der Lage, richtig zu reagieren und die richtige Entscheidung für eine bestimmte unvorhergesehene Situation zu treffen.

Solche Situationen können im Transportsektor, in der Kernenergie und bei Raketentruppen auftreten. Im letzteren Fall kann ein Fehler schwerwiegende Folgen haben. Die Möglichkeit von Fehlern besteht jedoch immer und bleibt auch bei Duplikaten und mehrfacher Kontrolle bestehen. Das bedeutet, dass ein Bediener anwesend sein muss, der die Maschine überwacht.

Schon jetzt ist klar, dass Menschen ständig Probleme im Zusammenhang mit künstlicher Intelligenz lösen müssen, wie sie jetzt auftreten und auch in Zukunft auftreten werden.

Diese Studienarbeit untersuchte die Aufgaben der künstlichen Intelligenz, die Geschichte ihres Auftretens, Anwendungsbereiche und einige Probleme im Zusammenhang mit KI. Die in dieser Arbeit präsentierten Informationen werden für diejenigen von Interesse sein, die sich für moderne Technologien und Errungenschaften im Zusammenhang mit künstlicher Intelligenz interessieren. Die Ziele dieser Studienarbeit wurden erreicht.

Glossar

Nr. Konzept Definition 1 Künstliches neuronales Netzwerk, ein mathematisches Modell, das auf dem Funktions- und Organisationsprinzip eines biologischen neuronalen Netzwerks basiert. 2 Kybernetik, die Wissenschaft der Kontrolle, Kommunikation und Informationsverarbeitung. 3 Kognitologie ist ein Tätigkeitsfeld, das mit dem verbunden ist Analyse von Wissen und Sicherstellung seiner (Wissens-)Weiterentwicklung. 4 Rendering, der Prozess der Gewinnung eines Bildes anhand eines Modells 5 Scripting, Schreiben von Skripten (Skripten) in interpretierten Programmiersprachen

Liste der verwendeten Quellen

Devyatkov V. V. Künstliche Intelligenzsysteme / Kap. Hrsg. I. B. Fedorov. - M.: Verlag der MSTU im. N. E. Bauman, 2001. - 352 S. - (Informatik an einer technischen Universität). - 3000 Exemplare.

Zhuravlev Yu.I. Zum algebraischen Ansatz zur Lösung von Erkennungs- und Klassifizierungsproblemen // Probleme der Kybernetik. - M.: Nauka, 1978, Ausgabe. 33.

McCarthy D. Was ist künstliche Intelligenz?, - M.: 2007.

Petrunin Yu. Yu., Ryazanov M. A., Savelyev A. V. Philosophie der künstlichen Intelligenz in den Konzepten der Neurowissenschaften. (Wissenschaftliche Monographie). - M.: MAKS Press, 2010.

Peter Jackson Einführung in Expertensysteme. - 3. Aufl. - M.: Williams, 2001. - S. 624.

Russell S., Norvig P. Künstliche Intelligenz: ein moderner Ansatz / Trans. aus dem Englischen und Hrsg. K. A. Ptitsyna. - 2. Aufl. - M.: Williams, 2006. - 1408 S. - 3000 Exemplare.

Tu J., Gonzalez R. Prinzipien der Mustererkennung, - M.: 1978

Fain V.S. Bildidentifikation, - M.: 1970

Von dem Moment an, als künstliche Intelligenz als wissenschaftliches Gebiet anerkannt wurde, und dies geschah Mitte der 50er Jahre des letzten Jahrhunderts, mussten Entwickler intelligenter Systeme viele Probleme lösen. Herkömmlicherweise lassen sich alle Aufgaben in mehrere Klassen einteilen: Erkennung und Übersetzung menschlicher Sprache, automatische Theorembeweise, Erstellung von Spielprogrammen, Bilderkennung und maschinelle Kreativität. Betrachten wir kurz das Wesen jeder Klasse von Problemen.

Beweis von Theoremen.

Die automatische Beweisführung von Theoremen ist die älteste Anwendung künstlicher Intelligenz. In diesem Bereich wurde viel geforscht, was zur Entstehung formalisierter Suchalgorithmen und formaler Darstellungssprachen wie PROLOG – einer logischen Programmiersprache – und der Prädikatenrechnung führte.

Automatische Theorembeweise sind attraktiv, weil sie auf der Allgemeingültigkeit und Strenge der Logik basieren. Logik in einem formalen System impliziert die Möglichkeit der Automatisierung, was bedeutet, dass Sie eine Lösung erhalten können, wenn Sie ein Problem und zusätzliche damit verbundene Informationen als eine Reihe logischer Axiome und Sonderfälle des Problems als beweispflichtige Theoreme darstellen viele Probleme. Auf diesem Prinzip basieren Systeme zur mathematischen Begründung und zum automatischen Beweis von Theoremen. In den vergangenen Jahren wurde immer wieder versucht, ein Programm zum automatischen Beweisen von Theoremen zu schreiben, es gelang jedoch nie, ein System zu schaffen, das die Lösung von Problemen mit einer einzigen Methode ermöglicht. Jedes relativ komplexe heuristische System könnte viele beweisbare Theoreme generieren, die irrelevant sind, sodass die Programme sie beweisen müssen, bis das richtige gefunden ist. Dies hat zu der Überzeugung geführt, dass große Räume nur durch informelle, auf bestimmte Situationen zugeschnittene Strategien bewältigt werden können. In der Praxis erwies sich dieser Ansatz als sehr fruchtbar und wurde neben anderen als Grundlage für Expertensysteme verwendet.

Gleichzeitig können Argumente, die auf formaler Logik basieren, nicht ignoriert werden. Mit einem formalisierten Ansatz können Sie viele Probleme lösen. Insbesondere können Sie damit komplexe Systeme steuern, die Korrektheit von Computerprogrammen überprüfen sowie logische Schaltkreise entwerfen und testen. Darüber hinaus haben Forscher zur automatischen Theoremprüfung leistungsstarke Heuristiken entwickelt, die auf der Bewertung der syntaktischen Form logischer Ausdrücke basieren. Dadurch wurde es möglich, die Komplexität des Suchraums zu reduzieren, ohne auf die Entwicklung spezieller Strategien zurückgreifen zu müssen.

Der automatische Beweis von Theoremen ist für Wissenschaftler auch deshalb interessant, weil das System auch für besonders komplexe Probleme eingesetzt werden kann, allerdings nicht ohne menschliches Eingreifen. Heutzutage fungieren Programme häufig als Assistenten. Experten unterteilen die Aufgabe in mehrere Teilaufgaben und entwickeln dann Heuristiken, um mögliche Gründe zu sortieren. Anschließend beweist das Programm Lemmata, testet weniger wichtige Annahmen und ergänzt die formalen Aspekte des menschlichen Beweises.

Mustererkennung.

Unter Mustererkennung versteht man die Auswahl wesentlicher Merkmale, die die Quelldaten charakterisieren, aus dem allgemeinen Satz von Merkmalen und die Zuordnung der Daten auf Basis der erhaltenen Informationen zu einer bestimmten Klasse.

Die Theorie der Mustererkennung ist ein Teilgebiet der Informatik, zu dessen Aufgaben die Entwicklung der Grundlagen und Methoden zur Identifizierung und Klassifizierung von Objekten (Objekten, Prozessen, Phänomenen, Situationen, Signalen etc.) gehört, die jeweils mit einer Reihe von ausgestattet sind bestimmte Zeichen und Eigenschaften. In der Praxis ist es häufig erforderlich, Objekte zu identifizieren. Eine typische Situation besteht darin, die Farbe einer Ampel zu erkennen und zu entscheiden, ob man gerade die Straße überqueren soll. Es gibt andere Bereiche, in denen auf Objekterkennung nicht verzichtet werden kann, beispielsweise die Digitalisierung analoger Signale, militärische Angelegenheiten, Sicherheitssysteme usw. Daher arbeiten Wissenschaftler auch heute noch aktiv an der Entwicklung von Bilderkennungssystemen.

Die Arbeiten werden in zwei Hauptrichtungen durchgeführt:

  • · Erforschung, Erklärung und Modellierung der Erkennungsfähigkeiten von Lebewesen.
  • · Entwicklung theoretischer und methodischer Grundlagen zur Schaffung von Geräten, die die Lösung individueller Probleme für angewandte Zwecke ermöglichen.

Erkennungsprobleme werden in mathematischer Sprache formuliert. Während die Theorie künstlicher neuronaler Netze darauf basiert, Ergebnisse durch Experimente zu erzielen, erfolgt die Formulierung von Mustererkennungsproblemen nicht auf der Grundlage von Experimenten, sondern auf der Grundlage mathematischer Beweise und logischer Überlegungen.

Betrachten wir die klassische Formulierung eines solchen Problems. Es gibt viele Objekte, hinsichtlich derer eine Klassifizierung durchgeführt werden sollte. Eine Menge besteht aus Teilmengen oder Klassen. Gegeben sind: Informationen, die eine Menge beschreiben, Informationen über Klassen und eine Beschreibung eines einzelnen Objekts ohne Angabe seiner Zugehörigkeit zu einer bestimmten Klasse. Aufgabe: Bestimmen Sie anhand der verfügbaren Daten, zu welcher Klasse das Objekt gehört.

Wenn Probleme monochrome Bilder enthalten, können sie als Funktionen auf einer Ebene betrachtet werden. Die Funktion stellt eine formale Aufzeichnung des Bildes dar und drückt an jedem Punkt eine bestimmte Charakteristik dieses Bildes aus – optische Dichte, Transparenz, Helligkeit usw. In diesem Fall ist das Modell des Bildsatzes der Satz von Funktionen auf der Ebene . Die Formulierung des Erkennungsproblems hängt davon ab, welche Schritte nach der Erkennung ablaufen sollen.

Zu den Mustererkennungsmethoden gehören Experimente von F. Rosenblatt, der das Konzept eines Gehirnmodells einführte. Der Zweck des Experiments besteht darin, zu zeigen, wie psychologische Phänomene in einem physikalischen System mit bekannten funktionellen Eigenschaften und Struktur entstehen. Der Wissenschaftler beschrieb die einfachsten Erkennungsexperimente, deren Merkmal jedoch ein nichtdeterministischer Lösungsalgorithmus ist.

Das einfachste Experiment, auf dessen Grundlage psychologisch bedeutsame Informationen über das System gewonnen werden können, ist folgendes: Dem Perzeptron wird eine Folge von zwei verschiedenen Reizen präsentiert, auf die es jeweils auf irgendeine Weise reagieren muss, und die Reaktion muss für unterschiedliche Reize unterschiedlich sein. Die Ziele eines solchen Experiments können unterschiedlich sein. Der Experimentator könnte vor der Aufgabe stehen, die Möglichkeit einer spontanen Diskriminierung durch das System präsentierter Reize ohne Eingreifen von außen zu untersuchen, oder umgekehrt, die Möglichkeit einer erzwungenen Erkennung zu untersuchen. Im zweiten Fall trainiert der Experimentator das System, verschiedene Objekte zu klassifizieren, von denen es mehr als zwei geben kann. Das Lernerlebnis läuft wie folgt ab: Dem Perzeptron werden Bilder präsentiert, unter denen Vertreter aller Klassen zu erkennen sind. Die richtige Reaktion wird gemäß den Regeln der Gedächtnismodifikation verstärkt. Danach präsentiert der Experimentator dem Perzeptron einen Kontrollreiz und bestimmt die Wahrscheinlichkeit, eine bestimmte Reaktion für Bilder einer bestimmten Klasse zu erhalten. Der Kontrollreiz kann mit einem der in der Trainingssequenz präsentierten Objekte identisch sein oder sich von allen präsentierten Objekten unterscheiden. Abhängig davon ergeben sich folgende Ergebnisse:

  • · Unterscheidet sich der Kontrollreiz von allen bisher dargebotenen Trainingsreizen, so untersucht das Experiment neben der reinen Diskriminierung auch Elemente der Generalisierung.
  • · Wenn ein Kontrollreiz die Aktivierung einer bestimmten Gruppe sensorischer Elemente verursacht, die mit keinem der zuvor vorgestellten Elemente, die unter dem Einfluss von Reizen derselben Klasse aktiviert wurden, zusammenfallen, untersucht das Experiment eine reine Generalisierung und beinhaltet keine Erkennungsstudie.

Obwohl Perzeptrone nicht zur reinen Generalisierung fähig sind, meistern sie Erkennungsaufgaben zufriedenstellend, insbesondere wenn Bilder angezeigt werden, mit denen das Perzeptron bereits Erfahrung hat.

Menschliche Spracherkennung und maschinelle Übersetzung.

Zu den langfristigen Zielen der künstlichen Intelligenz gehört die Entwicklung von Programmen, die menschliche Sprache erkennen und daraus sinnvolle Phrasen konstruieren können. Die Fähigkeit, natürliche Sprache zu verstehen und zu verwenden, ist ein grundlegendes Merkmal der menschlichen Intelligenz. Eine erfolgreiche Automatisierung dieser Fähigkeit würde die Effizienz von Computern erheblich verbessern. Viele Programme wurden geschrieben, um natürliche Sprache zu verstehen, und wurden in begrenzten Kontexten erfolgreich eingesetzt, aber es gibt immer noch keine Systeme, die natürliche Sprachen mit der gleichen Allgemeingültigkeit und Flexibilität verwenden können wie Menschen. Tatsache ist, dass es beim Verstehen natürlicher Sprache nicht nur darum geht, Sätze einfach in ihre Bestandteile zu zerlegen und die Bedeutung einzelner Wörter in Wörterbüchern nachzuschlagen. Die Programme meistern diese Aufgabe erfolgreich. Um die menschliche Sprache nutzen zu können, benötigen Sie umfassende Kenntnisse über das Gesprächsthema und die damit verbundenen Redewendungen. Darüber hinaus benötigen Sie die Fähigkeit, Mehrdeutigkeiten, Auslassungen, Professionalität, Fachjargon, umgangssprachliche Ausdrücke und vieles mehr zu verstehen, was der normalen menschlichen Sprache innewohnt .

Ein Beispiel ist ein Gespräch über Fußball, bei dem Wörter wie „Angreifer“, „Pass“, „Pass“, „Freistoß“, „Verteidiger“, „Stürmer“, „Kapitän“ und andere verwendet werden. Jedes dieser Wörter hat eine Reihe von Bedeutungen, und einzeln sind die Wörter durchaus verständlich, aber ein daraus zusammengesetzter Satz wird für jeden unverständlich sein, der sich nicht für Fußball interessiert und nichts über die Geschichte, Regeln und Prinzipien dieses Spiels weiß . Daher erfordert das Verstehen und Verwenden der menschlichen Sprache eine Reihe von Hintergrundwissen, und eine der größten Herausforderungen bei der Automatisierung des Verstehens und Verwendens natürlicher menschlicher Sprache ist die Sammlung und Systematisierung dieses Wissens.

Da semantische Bedeutungen in der künstlichen Intelligenz sehr weit verbreitet sind, haben Wissenschaftler eine Reihe von Methoden entwickelt, die eine gewisse Strukturierung dieser Bedeutungen ermöglichen. Dennoch wird die meiste Arbeit in Problembereichen geleistet, die gut verstanden und spezialisiert sind. Ein Beispiel ist die „Mikrowelt“-Technik. Eines der ersten Programme, in denen es zum Einsatz kam, war das von Terry Winograd entwickelte Programm SHRDLU, eines der Systeme zum Verstehen menschlicher Sprache. Die Fähigkeiten des Programms waren recht begrenzt und liefen auf ein „Gespräch“ über die Anordnung von Blöcken unterschiedlicher Farbe und Form sowie auf die Planung einfacher Aktionen hinaus. Das Programm lieferte Antworten auf Fragen wie „Welche Farbe hat die Pyramide auf dem Kreuzblock?“ und könnte Anweisungen geben wie „Lege den blauen Block auf den roten.“ Solche Probleme wurden oft von Forschern der künstlichen Intelligenz angegangen und wurden später als „Welt der Blöcke“ bekannt.

Trotz der Tatsache, dass das SHRDLU-Programm erfolgreich über die Position der Blöcke „konversierte“, verfügte es nicht über die Fähigkeit, von dieser „Mikrowelt“ zu abstrahieren. Es wurden zu einfache Techniken verwendet, die nicht in der Lage waren, die semantische Organisation von Themenbereichen höherer Komplexität zu vermitteln.

Aktuelle Arbeiten auf dem Gebiet des Verstehens und Anwendens natürlicher Sprachen zielen hauptsächlich darauf ab, Darstellungsformalismen zu finden, die ausreichend allgemein sind, um an die spezifischen Strukturen gegebener Domänen angepasst und auf ein breites Spektrum von Anwendungen angewendet werden können. Die meisten der vorhandenen Techniken, bei denen es sich um Modifikationen semiotischer Netzwerke handelt, werden erforscht und zum Schreiben von Programmen verwendet, die in der Lage sind, natürliche Sprache in engen Themenbereichen zu erkennen. Gleichzeitig erlauben uns moderne Fähigkeiten nicht, ein universelles Programm zu erstellen, das die menschliche Sprache in ihrer ganzen Vielfalt verstehen kann.

Unter den verschiedenen Mustererkennungsproblemen lassen sich folgende unterscheiden:

  • · Klassifizierung von Dokumenten
  • · Identifizierung von Mineralvorkommen
  • Bilderkennung
  • · Barcode-Erkennung
  • · Zeichenerkennung
  • · Spracherkennung
  • · Gesichtserkennung
  • · Kennzeichenerkennung

Künstliche Intelligenz in Gaming-Programmen.

Gaming-Künstliche Intelligenz umfasst nicht nur traditionelle KI-Methoden, sondern auch Algorithmen aus der Informatik im Allgemeinen, der Computergrafik, der Robotik und der Steuerungstheorie. Wie die KI implementiert wird, wirkt sich nicht nur auf die Systemanforderungen, sondern auch auf das Budget des Spiels aus. Daher müssen Entwickler abwägen, um sicherzustellen, dass die künstliche Intelligenz des Spiels mit minimalen Kosten erstellt wird und gleichzeitig interessant und anspruchslos ist auf Ressourcen. Dabei handelt es sich um einen völlig anderen Ansatz als bei der herkömmlichen künstlichen Intelligenz. Insbesondere Nachahmungen, Täuschungen und verschiedene Vereinfachungen sind weit verbreitet. Beispiel: Ein Merkmal von Ego-Shootern ist die Fähigkeit von Bots, sich präzise zu bewegen und sofort zu zielen, gleichzeitig hat eine Person jedoch keine einzige Chance, sodass die Fähigkeiten von Bots künstlich reduziert werden. Gleichzeitig werden Kontrollpunkte auf der Ebene platziert, damit die Bots als Team agieren, Hinterhalte anlegen usw. können. Bild der künstlichen Intelligenz

In Computerspielen, die durch künstliche Intelligenz gesteuert werden, gibt es die folgenden Kategorien von Charakteren:

  • · Mobs – Charaktere mit geringer Intelligenz, die dem menschlichen Spieler feindlich gegenüberstehen. Spieler zerstören Mobs, um das Territorium zu durchqueren und Artefakte und Erfahrungspunkte zu erhalten.
  • · Nicht-Spieler-Charaktere – normalerweise sind diese Charaktere dem Spieler gegenüber freundlich oder neutral.
  • · Bots sind spielerfeindliche Charaktere, die am schwierigsten zu programmieren sind. Ihre Fähigkeiten kommen denen von Spielcharakteren nahe. Zu jedem Zeitpunkt gehen mehrere Bots gegen den Spieler vor.

Innerhalb eines Computerspiels gibt es viele Bereiche, in denen unterschiedlichste heuristische Algorithmen zur künstlichen Gaming-Intelligenz zum Einsatz kommen. Spiel-KI wird am häufigsten zur Steuerung von Nicht-Spieler-Charakteren eingesetzt. Eine weitere, nicht weniger verbreitete Steuerungsmethode ist das Scripting. Eine weitere offensichtliche Verwendung von Spiel-KI, insbesondere in Echtzeit-Strategiespielen, ist die Wegfindung oder eine Methode zur Bestimmung, wie ein Nicht-Spieler-Charakter von einem Punkt auf einer Karte zu einem anderen gelangen kann. In diesem Fall müssen Sie Hindernisse, Gelände und den möglichen „Nebel des Krieges“ berücksichtigen. Auch das dynamische Balancing von Mobs ist ohne den Einsatz künstlicher Intelligenz nicht vollständig. Viele Spiele haben das Konzept der unvorhersehbaren Intelligenz erforscht. Dabei handelt es sich um Spiele wie Nintendogs, Black & White, Creatures und das bekannte Spielzeug Tamagotchi. In diesen Spielen sind die Charaktere Haustiere, deren Verhalten sich je nach den vom Spieler ausgeführten Aktionen ändert. Die Charaktere scheinen lernfähig zu sein, obwohl ihre Handlungen tatsächlich das Ergebnis einer Auswahl aus einer begrenzten Anzahl von Entscheidungen sind.

Viele Spieleprogrammierer betrachten jede Technik, die die Illusion von Intelligenz erzeugt, als Teil der künstlichen Intelligenz von Spielen. Dieser Ansatz ist jedoch nicht ganz richtig, da dieselben Techniken nicht nur in KI-Engines für Spiele verwendet werden können. Beispielsweise werden bei der Erstellung von Bots Algorithmen verwendet, in die Informationen über mögliche zukünftige Kollisionen eingegeben werden, wodurch die Bots die „Fähigkeit“ erwerben, diese Kollisionen zu vermeiden. Aber genau diese Techniken sind ein wichtiger und notwendiger Bestandteil einer Physik-Engine. Ein weiteres Beispiel: Ein wichtiger Bestandteil des Zielsystems eines Bots sind Wasserdaten, und dieselben Daten werden in der Grafik-Engine häufig zum Rendern verwendet. Das letzte Beispiel ist die Skripterstellung. Dieses Tool kann in allen Aspekten der Spieleentwicklung erfolgreich eingesetzt werden, wird jedoch am häufigsten als eine Möglichkeit angesehen, die Aktionen von Nicht-Spieler-Charakteren zu steuern.

Laut Puristen hat der Ausdruck „künstliche Intelligenz im Spiel“ keine Daseinsberechtigung, da er übertrieben ist. Ihr Hauptargument ist, dass Gaming-KI nur einige Bereiche der Wissenschaft der klassischen künstlichen Intelligenz nutzt. Es sollte auch berücksichtigt werden, dass die Ziele der KI darin bestehen, selbstlernende Systeme und sogar künstliche Intelligenz zu schaffen, die zum Denken fähig ist, während sie sich oft auf Heuristiken und ein paar Faustregeln beschränkt, die zum Erstellen ausreichen gutes Gameplay und vermitteln dem Spieler lebendige Eindrücke und das Spielgefühl.

Derzeit zeigen Computerspielentwickler Interesse an akademischer KI, und die akademische Gemeinschaft wiederum interessiert sich zunehmend für Computerspiele. Dies wirft die Frage auf, inwieweit sich Gaming und klassische KI voneinander unterscheiden. Gleichzeitig gilt die künstliche Intelligenz im Gaming immer noch als einer der Unterzweige der klassischen Intelligenz. Dies liegt daran, dass künstliche Intelligenz verschiedene Anwendungsbereiche hat, die sich voneinander unterscheiden. Wenn wir über Gaming-Intelligenz sprechen, besteht ein wichtiger Unterschied in der Möglichkeit der Täuschung, um bestimmte Probleme auf „legale“ Weise zu lösen. Der Nachteil der Täuschung besteht einerseits darin, dass sie oft zu unrealistischem Verhalten der Figur führt und aus diesem Grund nicht immer eingesetzt werden kann. Andererseits stellt die bloße Möglichkeit einer solchen Täuschung einen wichtigen Unterschied zwischen der Spiel-KI dar.

Eine weitere interessante Aufgabe der künstlichen Intelligenz besteht darin, einem Computer das Schachspielen beizubringen. Wissenschaftler auf der ganzen Welt waren damit beschäftigt, das Problem zu lösen. Die Besonderheit dieser Aufgabe besteht darin, dass die Demonstration der logischen Fähigkeiten des Computers nur in Anwesenheit eines echten Gegners möglich ist. Die erste derartige Demonstration fand 1974 in Stockholm statt, wo die Schachweltmeisterschaft unter den Schachprogrammen stattfand. Das von sowjetischen Wissenschaftlern des Instituts für Managementprobleme der Akademie der Wissenschaften der UdSSR in Moskau ins Leben gerufene Programm „Kaissa“ gewann diesen Wettbewerb.

Künstliche Intelligenz in der maschinellen Kreativität.

Die Natur der menschlichen Intelligenz ist noch nicht ausreichend erforscht, und der Grad der Erforschung der Natur der menschlichen Kreativität ist noch geringer. Ein Bereich der künstlichen Intelligenz ist jedoch die maschinelle Kreativität. Moderne Computer schaffen musikalische, literarische und künstlerische Werke, und die Computerspiel- und Filmindustrie nutzt seit langem realistische, von Maschinen erzeugte Bilder. Bestehende Programme erzeugen verschiedene Bilder, die für den Menschen leicht wahrnehmbar und verständlich sind. Dies ist besonders wichtig, wenn es um intuitives Wissen geht, dessen formale Überprüfung einen erheblichen mentalen Aufwand erfordern würde. So werden musikalische Probleme erfolgreich mit einer Programmiersprache gelöst, zu der auch die CSound-Sprache gehört. Spezielle Software, mit der musikalische Werke erstellt werden, sind algorithmische Kompositionsprogramme, interaktive Kompositionssysteme, Klangsynthese- und Verarbeitungssysteme.

Expertensysteme.

Die Entwicklung moderner Expertensysteme wird seit den frühen 1970er Jahren von Forschern betrieben, und in den frühen 1980er Jahren begann die kommerzielle Entwicklung von Expertensystemen. Die Prototypen von Expertensystemen, die 1832 vom russischen Wissenschaftler S. N. Korsakov vorgeschlagen wurden, waren mechanische Geräte, sogenannte „intelligente Maschinen“, die es ermöglichten, auf der Grundlage gegebener Bedingungen eine Lösung zu finden. Beispielsweise wurden die bei einem Patienten beobachteten Krankheitssymptome analysiert und auf der Grundlage der Ergebnisse dieser Analyse die am besten geeigneten Medikamente vorgeschlagen.

Die Informatik betrachtet Expertensysteme zusammen mit Wissensdatenbanken. Systeme sind Modelle des Expertenverhaltens, die auf der Anwendung von Entscheidungsverfahren und logischen Schlussfolgerungen basieren. Unter Wissensdatenbanken versteht man eine Reihe von Regeln für logische Schlussfolgerungen und Fakten, die in direktem Zusammenhang mit dem gewählten Tätigkeitsbereich stehen.

Ende des letzten Jahrhunderts entwickelte sich ein bestimmtes Konzept von Expertensystemen, das sich stark auf die damals allgemein akzeptierte textbasierte Mensch-Maschine-Schnittstelle konzentrierte. Derzeit befindet sich dieses Konzept in einer schweren Krise, offenbar aufgrund der Tatsache, dass in Benutzeranwendungen die Textoberfläche durch eine grafische ersetzt wurde. Darüber hinaus passen das relationale Datenmodell und die „klassische“ Sicht auf den Aufbau von Expertensystemen nicht gut zusammen. Folglich kann die Organisation der Wissensdatenbanken von Expertensystemen zumindest mit modernen industriellen Datenbankmanagementsystemen nicht effektiv durchgeführt werden. Literatur- und Online-Quellen bieten viele Beispiele für Expertensysteme, die als „allgemein“ oder „bekannt“ bezeichnet werden. Tatsächlich wurden alle diese Expertensysteme bereits in den 80er Jahren des letzten Jahrhunderts entwickelt und existieren inzwischen entweder nicht mehr oder sind hoffnungslos veraltet und existieren dank einiger Enthusiasten. Andererseits bezeichnen Entwickler moderner Softwareprodukte ihre Kreationen häufig als Expertensysteme. Solche Aussagen sind nichts weiter als ein Marketingtrick, denn in Wirklichkeit handelt es sich bei diesen Produkten nicht um Expertensysteme (ein Beispiel wäre irgendein Computer-Rechtsreferenzsystem). Enthusiasten versuchen, Ansätze zur Erstellung einer Benutzeroberfläche mit „klassischen“ Ansätzen zur Erstellung von Expertensystemen zu kombinieren. Diese Versuche spiegeln sich in Projekten wie CLIPS.NET, CLIPS Java Native Interface und anderen wider, aber große Softwareunternehmen haben es nicht eilig, solche Projekte zu finanzieren, und aus diesem Grund kommen die Entwicklungen nicht über das experimentelle Stadium hinaus.

Die vielfältigen Einsatzgebiete wissensbasierter Systeme lassen sich in Klassen einteilen: Medizinische Diagnostik, Planung, Prognose, Überwachung und Steuerung, Schulung, Interpretation, Fehlerdiagnose in elektrischen und mechanischen Geräten, Schulung. Schauen wir uns jede dieser Klassen genauer an.

a) Medizinische Diagnosesysteme.

Mit Hilfe solcher Systeme ermitteln sie, wie verschiedene Störungen der Körpertätigkeit und deren mögliche Ursachen miteinander zusammenhängen. Das bekannteste Diagnosesystem ist MYCIN. Es wird zur Diagnose von Meningitis und bakteriellen Infektionen sowie zur Überwachung des Zustands von Patienten mit diesen Krankheiten eingesetzt. Die erste Version des Systems wurde in den 70er Jahren entwickelt. Heute sind seine Leistungsfähigkeiten erheblich erweitert: Das System stellt Diagnosen auf dem gleichen professionellen Niveau wie ein Facharzt und kann in verschiedenen Bereichen der Medizin eingesetzt werden.

b) Vorhersagesysteme.

Systeme sollen Ereignisse oder die Ergebnisse von Ereignissen auf der Grundlage verfügbarer Daten vorhersagen, die die aktuelle Situation oder den aktuellen Zustand eines Objekts charakterisieren. So ist das Programm „Conquest of Wall Street“, das bei seiner Arbeit statistische Methoden von Algorithmen nutzt, in der Lage, die Marktbedingungen zu analysieren und einen Investitionsplan zu entwickeln. Das Programm nutzt Algorithmen und Verfahren der traditionellen Programmierung und kann daher nicht als wissensbasiertes System eingestuft werden. Schon heute gibt es Programme, die durch die Analyse verfügbarer Daten Passagierströme, Ernteerträge und das Wetter vorhersagen können. Solche Programme sind recht einfach und einige von ihnen können auf normalen PCs verwendet werden. Allerdings gibt es noch keine Expertensysteme, die auf der Grundlage von Daten über die Marktbedingungen Vorschläge zur Kapitalerhöhung machen könnten.

c) Planung.

Planungssysteme sollen Probleme mit einer großen Anzahl von Variablen lösen, um bestimmte Ergebnisse zu erzielen. Zum ersten Mal im kommerziellen Bereich wurden solche Systeme von der Damaskus-Firma Informat eingesetzt. Die Unternehmensleitung ordnete die Installation von 13 Stationen in der Bürolobby an, an denen Kunden, die einen Computer kaufen möchten, kostenlose Beratungsgespräche führen konnten. Die Maschinen haben uns dabei geholfen, eine Wahl zu treffen, die dem Budget und den Wünschen des Käufers am besten entsprach. Expertensysteme wurden von Boeing auch für die Reparatur von Hubschraubern, die Identifizierung der Ursachen für den Ausfall von Flugzeugtriebwerken und den Entwurf von Raumstationen eingesetzt. DEC hat das XCON-Expertensystem entwickelt, das in der Lage ist, VAX-Computersysteme basierend auf Kundenanforderungen zu identifizieren und neu zu konfigurieren. DEC entwickelt derzeit ein leistungsfähigeres XSEL-System, das die XCON-Wissensdatenbank umfasst. Der Zweck der Erstellung des Systems besteht darin, Verbrauchern bei der Auswahl eines Computersystems mit der erforderlichen Konfiguration zu helfen. Der Unterschied zwischen XSEL und XCON besteht darin, dass es interaktiv ist.

d) Interpretation.

Interpretationssysteme sind in der Lage, aus Beobachtungsergebnissen Schlussfolgerungen zu ziehen. Eines der bekanntesten Interpretationssysteme ist das PROSPECTOR-System. Es funktioniert mit Daten, die auf dem Wissen von neun Experten basieren. Die Wirksamkeit des Systems lässt sich an einem Beispiel beurteilen: Mit neun verschiedenen Untersuchungsmethoden entdeckte das System ein Erzlager, das kein Experte hätte vorhersagen können. Ein weiteres bekanntes interpretierendes Typensystem ist HASP/SIAP. Es nutzt Daten akustischer Ortungssysteme und ermittelt damit den Standort von Schiffen im Pazifischen Ozean und deren Typen.

e) Intelligente Kontroll- und Managementsysteme.

Expertensysteme werden erfolgreich zur Steuerung und Steuerung eingesetzt. Sie sind in der Lage, aus mehreren Quellen erhaltene Daten zu analysieren und auf der Grundlage der Analyseergebnisse Entscheidungen zu treffen. Solche Systeme sind in der Lage, die Bewegung von Flugzeugen medizinisch zu überwachen und zu steuern, außerdem werden sie in Kernkraftwerken eingesetzt. Sie helfen auch dabei, die Finanzaktivitäten des Unternehmens zu regulieren und Lösungen in kritischen Situationen zu entwickeln.

f) Diagnose und Fehlerbehebung elektrischer und mechanischer Geräte.

Wissensbasierte Systeme werden in folgenden Fällen eingesetzt:

Reparatur von Diesellokomotiven, Automobilen und anderen elektrischen und mechanischen Geräten;

Diagnose und Beseitigung von Fehlern und Störungen in Computersoftware und -hardware.

g) Computer-Trainingssysteme.

Der Einsatz wissensbasierter Systeme für Bildungszwecke ist sehr effektiv. Das System analysiert das Verhalten und die Aktivität des Objekts und ändert die Wissensbasis entsprechend den erhaltenen Informationen. Das einfachste Beispiel für ein solches Training ist ein Computerspiel, bei dem die Level mit zunehmendem Können des Spielers schwieriger werden. Ein interessantes Trainingssystem – EURISCO – wurde von D. Lenat entwickelt. Es verwendet einfache Heuristiken. Das System wurde in einem Spiel zur Simulation von Kampfhandlungen eingesetzt. Der Kern des Spiels besteht darin, die optimale Zusammensetzung der Flottille zu bestimmen, die unter Einhaltung vieler Regeln Niederlagen verursachen kann. Das System hat diese Aufgabe erfolgreich gemeistert und in die Flottille ein kleines Schiff und mehrere angriffsfähige Schiffe aufgenommen. Die Spielregeln änderten sich jedes Jahr, aber das EURISCO-System gewann drei Jahre lang konstant.

Es gibt viele Expertensysteme, die aufgrund ihres Wissensgehalts in mehrere Typen gleichzeitig eingeteilt werden können. Beispielsweise kann ein System, das eine Planung durchführt, auch ein lernendes System sein. Es ist in der Lage, den Wissensstand des Studierenden zu ermitteln und auf Grundlage dieser Informationen einen Lehrplan zu erstellen. Steuerungssysteme dienen der Planung, Prognose, Diagnose und Steuerung. Systeme zum Schutz eines Hauses oder einer Wohnung können Veränderungen in der Umgebung überwachen, die Entwicklung der Situation vorhersagen und einen Plan für das weitere Vorgehen erstellen. Zum Beispiel hat sich ein Fenster geöffnet und ein Dieb versucht, dadurch in den Raum einzudringen. Daher ist es notwendig, die Polizei zu rufen.

Der weit verbreitete Einsatz von Expertensystemen begann in den 1980er Jahren, als sie erstmals kommerziell eingeführt wurden. ES werden in vielen Bereichen eingesetzt, darunter Wirtschaft, Wissenschaft, Technologie, Fertigung und andere Branchen, die sich durch ein ganz bestimmtes Themengebiet auszeichnen. „Gut definiert“ bedeutet in diesem Zusammenhang, dass eine Person den Denkablauf in separate Phasen unterteilen und auf diese Weise jedes Problem lösen kann, das innerhalb des vorgegebenen Bereichs liegt. Daher kann ein Computerprogramm ähnliche Aktionen ausführen. Man kann mit Sicherheit sagen, dass die Nutzung der Fähigkeiten künstlicher Intelligenz der Menschheit endlose Möglichkeiten eröffnet.

Unter den wichtigsten Aufgabenklassen, die sich seit der Definition der künstlichen Intelligenz als wissenschaftliche Richtung (seit Mitte der 50er Jahre des 20. Jahrhunderts) an Entwickler intelligenter Systeme stellen, sind folgende hervorzuheben: Bereiche der künstlichen Intelligenz, die Probleme lösen, die schwer zu formalisieren sind: Beweis von Theoremen, Bilderkennung, maschinelle Übersetzung und Verständnis menschlicher Sprache, Spielprogramme, maschinelle Kreativität, Expertensysteme. Betrachten wir kurz ihr Wesen.

Richtungen der künstlichen Intelligenz

Beweis von Theoremen. Das Studium von Theorembeweistechniken spielte eine wichtige Rolle bei der Entwicklung der künstlichen Intelligenz. Viele informelle Probleme, zum Beispiel die medizinische Diagnostik, werden mithilfe methodischer Ansätze gelöst, die zur Automatisierung der Theoremprüfung eingesetzt wurden. Um einen Beweis für einen mathematischen Satz zu finden, müssen nicht nur Hypothesen abgeleitet werden, sondern auch intuitive Annahmen darüber getroffen werden, welche Zwischenaussagen für den Gesamtbeweis des Hauptsatzes bewiesen werden sollten.

Bilderkennung. Durch den Einsatz künstlicher Intelligenz zur Bilderkennung konnten praktisch funktionierende Systeme zur Identifizierung grafischer Objekte anhand ähnlicher Merkmale geschaffen werden. Als Merkmale kommen alle zu erkennenden Eigenschaften von Objekten in Frage. Merkmale müssen gegenüber der Ausrichtung, Größe und Form von Objekten unveränderlich sein. Das Alphabet der Features wird vom Systementwickler erstellt. Die Qualität der Erkennung hängt maßgeblich davon ab, wie gut das Merkmalsalphabet entwickelt ist. Die Erkennung besteht darin, a priori einen Merkmalsvektor für ein separates, im Bild ausgewähltes Objekt zu erhalten und dann zu bestimmen, welchem ​​der Standards des Merkmalsalphabets dieser Vektor entspricht.

Maschinelle Übersetzung und menschliches Sprachverständnis. Die Aufgabe, Sätze in der menschlichen Sprache mithilfe eines Wörterbuchs zu analysieren, ist eine typische Aufgabe für Systeme der künstlichen Intelligenz. Um dieses Problem zu lösen, wurde eine Zwischensprache geschaffen, die den Vergleich von Phrasen aus verschiedenen Sprachen erleichtert. Anschließend entwickelte sich diese Zwischensprache zu einem semantischen Modell zur Darstellung der Bedeutungen zu übersetzender Texte. Die Weiterentwicklung des semantischen Modells führte zur Schaffung einer Sprache zur internen Darstellung von Wissen. Daher analysieren moderne Systeme Texte und Phrasen in vier Hauptphasen: morphologische Analyse, syntaktische, semantische und pragmatische Analyse.

Spielprogramme. Die meisten Spielprogramme basieren auf einigen Grundideen der künstlichen Intelligenz, wie etwa Iteration und Selbstlernen. Eines der interessantesten Probleme im Bereich Spielprogramme mit Methoden der künstlichen Intelligenz besteht darin, einem Computer das Schachspielen beizubringen. Es wurde bereits in den frühen Tagen der Informatik, in den späten 50er Jahren, gegründet.

Im Schach gibt es bestimmte Fähigkeitsniveaus und Spielqualitätsgrade, die klare Kriterien für die Beurteilung der intellektuellen Entwicklung des Systems liefern können. Daher wurde Computerschach von Wissenschaftlern auf der ganzen Welt aktiv untersucht und die Ergebnisse ihrer Errungenschaften werden in andere intellektuelle Entwicklungen mit echter praktischer Bedeutung einfließen.

1974 fand die Weltmeisterschaft der Schachprogramme erstmals im Rahmen des regulären IFIP-Kongresses (International Federation of Information Processing) in Stockholm statt. Der Gewinner dieses Wettbewerbs war das Schachprogramm „Kaissa“. Es wurde in Moskau am Institut für Managementprobleme der Akademie der Wissenschaften der UdSSR gegründet.

Maschinelle Kreativität. Zu den Einsatzgebieten künstlicher Intelligenz gehören Softwaresysteme, die selbstständig Musik, Gedichte, Geschichten, Artikel, Diplome und sogar Dissertationen erstellen können. Heute gibt es eine ganze Klasse musikalischer Programmiersprachen (zum Beispiel die C-Sound-Sprache). Für verschiedene musikalische Aufgaben wurde spezielle Software erstellt: Klangverarbeitungssysteme, Klangsynthese, interaktive Kompositionssysteme, algorithmische Kompositionsprogramme.

Expertensysteme. Methoden der Künstlichen Intelligenz finden Anwendung bei der Erstellung automatisierter Beratungssysteme oder Expertensysteme. Die ersten Expertensysteme wurden in den 1960er Jahren als Forschungsinstrumente entwickelt.

Dabei handelte es sich um Systeme der künstlichen Intelligenz, die speziell dafür entwickelt wurden, komplexe Probleme in einem engen Themenbereich zu lösen, beispielsweise der medizinischen Diagnose von Krankheiten. Das klassische Ziel dieser Richtung bestand zunächst darin, ein universelles System der künstlichen Intelligenz zu schaffen, das in der Lage wäre, jedes Problem ohne spezifische Kenntnisse im Fachgebiet zu lösen. Aufgrund begrenzter Rechenressourcen erwies sich dieses Problem als zu komplex, um es mit einem akzeptablen Ergebnis zu lösen.

Kommerzielle Implementierung von Expertensystemen kam es Anfang der 1980er Jahre, und seitdem haben sich Expertensysteme weit verbreitet. Sie werden in Wirtschaft, Wissenschaft, Technologie, Fertigung und in vielen anderen Bereichen eingesetzt, in denen es ein klar definiertes Themengebiet gibt. Die Hauptbedeutung des Ausdrucks „wohldefiniert“ besteht darin, dass ein menschlicher Experte in der Lage ist, die Denkphasen zu bestimmen, mit deren Hilfe jedes Problem in einem bestimmten Fachgebiet gelöst werden kann. Dies bedeutet, dass ähnliche Aktionen von einem Computerprogramm ausgeführt werden können.

Jetzt können wir das mit Zuversicht sagen Einsatz künstlicher Intelligenzsystemeöffnet weite Grenzen.

Expertensysteme gehören heute zu den erfolgreichsten Anwendungen der Technologie der künstlichen Intelligenz. Daher empfehlen wir Ihnen, sich damit vertraut zu machen.