Ungewöhnliche Theorien über die Struktur des Universums. Freundschaft, Liebe und allgemein normale Beziehungen zwischen Menschen sind nur möglich, wenn die Menschen ähnliche Konstrukte haben. Tatsächlich ist es schwer, sich eine Situation vorzustellen, in der zwei Menschen erfolgreich miteinander kommunizieren

Das Universum ist geheimnisvoll und je mehr die Wissenschaft darüber erfährt, desto erstaunlicher erscheint es. Die erste Reaktion auf Theorien wie die hier vorgestellten könnte Gelächter sein. Aber was könnte seltsamer sein als das, was wir bereits wissen?

1. Alles drumherum – „Die Matrix“

Viele haben den Film gesehen, in dem der Held von Keanu Reeves mit Erstaunen erfährt, dass die gesamte Welt um ihn herum die „Matrix“ ist, also so etwas wie ein Ghetto, das von einer Computer-Superintelligenz für Menschen geschaffen wurde. Natürlich ist das Fantasie, aber es gab Wissenschaftler, die bereit waren, eine solche Idee ernst zu nehmen. Nick Bostrom Der britische Philosoph Nick Bostrom schlug vor, dass unser ganzes Leben nur ein äußerst komplexes Spiel sei, das an „Die Sims“ erinnere: Die Entwicklung der Videospielindustrie könnte dazu führen, dass wir unsere eigenen Modelle der Welt um uns herum und für alle anderen konstruieren können wird in der Lage sein, für immer in einer separaten virtuellen Realität zu leben. Wenn alles so läuft, gibt es keine Garantie dafür, dass unsere Welt kein Code ist, der von einem unbekannten Programmierer geschrieben wurde, dessen Fähigkeiten die menschlichen Fähigkeiten deutlich übertreffen. Silas Bean, ein Physiker an der Universität Bonn in Deutschland, sah es anders: Wenn alles ein Computerbild ist, muss es eine Linie geben, hinter der man die „Pixel“ unterscheiden kann, aus denen alles besteht. Bean hält diese Grenze für die Greisen-Zatsepin-Kuzmin-Grenze: Ohne auf wissenschaftliche Details einzugehen, können wir nur sagen, dass der deutsche Physiker darin einen der Beweise dafür sieht, dass wir in einem künstlich geschaffenen Programm leben, und er macht immer mehr versucht, den Computer zu ermitteln, auf dem es installiert wurde.

2. Jeder von uns hat ein „Doppel“


Sicher kennen Sie eine so beliebte Abenteuerhandlung – es gibt eine Albtraumwelt, in der jeder ein „böses“ Alter Ego hat und jeder gute Held früher oder später gezwungen ist, gegen ihn zu kämpfen und die Oberhand zu gewinnen. Diese Theorie basiert auf der Tatsache, dass die Welt um uns herum aus einer unendlichen Anzahl von Kombinationen eines Satzes von Partikeln besteht, so etwas wie ein Zimmer mit Kindern und einem riesigen Lego-Konstrukteur: Mit einer gewissen Wahrscheinlichkeit können sie dieselben Blöcke einfach zusammensetzen auf veschiedenen Wegen. Bei uns ist es genauso – vielleicht wurde unsere exakte Kopie irgendwo geboren. Die Wahrscheinlichkeit eines Treffens ist zwar vernachlässigbar – Wissenschaftler sagen, dass die Entfernung von unserem „Zwilling“ zu uns 10 bis 1028 m betragen kann.

3. Welten können kollidieren


Es mag noch viele andere außerhalb unserer Welt geben, und nichts schließt die Möglichkeit aus, dass sie mit unserer Realität kollidieren. Anthony Aguirre Der kalifornische Physiker Anthony Aguirre beschreibt es als einen riesigen Spiegel, der vom Himmel fällt und in dem wir unsere eigenen verängstigten Gesichter sehen werden, wenn wir Zeit haben, zu verstehen, was passiert, und Alex Vilenkin und seine Kollegen von der Tufts University, USA, sind zuversichtlich dass sie Spuren einer solchen Kollision gefunden haben. CMB-Strahlung ist ein schwacher elektromagnetischer Hintergrund, der den gesamten Weltraum durchdringt: Alle Berechnungen zeigen, dass sie gleichmäßig sein sollte, aber es gibt Orte, an denen der Signalpegel höher oder niedriger als üblich ist – Vilenkin glaubt, dass dies genau das Restphänomen der Kollision ist aus zwei Welten.

4. Das Universum ist ein riesiger Computer


Es ist eine Sache anzunehmen, dass alles um uns herum ein Videospiel ist, und eine ganz andere zu behaupten, das Universum sei ein riesiger Supercomputer: Es gibt eine solche Theorie, und ihr zufolge sind Galaxien, Sterne und Schwarze Löcher Bestandteile eines riesigen Computers . Vlatko Vedral Ein Apologet der Theorie war der Oxford-Professor für Quanteninformationswissenschaft Vlatko Vedral: Er betrachtet die Hauptbausteine, aus denen alles aufgebaut ist, nicht als Materieteilchen, sondern als Bits – dieselben Informationseinheiten, mit denen gewöhnliche Computer arbeiten. Jedes Bit kann einen von zwei Werten enthalten: „1“ oder „0“; „Ja“ oder „Nein“ – der Professor ist überzeugt, dass selbst subatomare Teilchen aus Billionen solcher Werte bestehen und die Wechselwirkung der Materie dann stattfindet, wenn viele Bits diese Werte aneinander übertragen. Die gleiche Ansicht vertritt Seth Lloyd, Professor am Massachusetts Institute of Technology: Er erweckte den ersten Quantencomputer der Welt zum Leben, indem er Atome und Elektronen anstelle von Mikrochips verwendete. Lloyd geht davon aus, dass das Universum die Dynamik seiner eigenen Entwicklung ständig anpasst.

5. Wir leben in einem Schwarzen Loch


Sie wissen natürlich ein paar Dinge über Schwarze Löcher – zum Beispiel, dass sie eine solche Schwerkraft und Dichte haben, dass nicht einmal Licht ihnen entkommen kann, aber es ist Ihnen wahrscheinlich nie in den Sinn gekommen, dass wir uns derzeit in einem von ihnen befinden. Nikodem Poplavsky Aber das kam einem Wissenschaftler der Indiana University – Doktor der Theoretischen Physik Nikodem Poplavsky – in den Sinn: Er argumentiert, dass unsere Welt hypothetisch von einem Schwarzen Loch verschlungen werden könnte und wir dadurch in einem neuen Universum landeten - schließlich ist immer noch nicht wirklich bekannt, was mit Gegenständen passiert, die in einem so riesigen „Trichter“ gefangen sind. Die Berechnungen des Physikers legen nahe, dass der Durchgang von Materie durch ein Schwarzes Loch ein Analogon zum Urknall sein und zur Entstehung einer anderen Realität führen kann. Die Kompression des Raums auf der einen Seite kann zu einer Expansion auf der anderen Seite führen, was bedeutet, dass jedes Schwarze Loch eine potenzielle „Tür“ ist, die zu etwas noch Unerforschtem führt.

6. Die Menschheit ist von der Wirkung der „Bullet Time“ betroffen


Sicherlich erinnern sich viele an Szenen in Filmen, in denen eine fliegende Kugel oder ein fallendes Glas plötzlich gefriert und die Kamera uns dieses Objekt von allen Seiten zeigt. Etwas Ähnliches könnte uns passieren. Der Urknall ereignete sich vor etwa 14 Milliarden Jahren, aber die Expansionsrate des Universums nimmt entgegen den physikalischen Gesetzen immer noch zu, obwohl die Schwerkraft diesen Prozess scheinbar verlangsamen sollte. Warum passiert das? Die meisten Physiker behaupten, dass die „Anti-Schwerkraft“ Galaxien tatsächlich voneinander wegtreibt, aber Forscher an zwei spanischen Universitäten haben eine alternative Theorie entwickelt: Anstatt dass sich das Universum beschleunigt, verlangsamt sich die Zeit allmählich. Diese Theorie könnte erklären, warum sich Galaxien für uns immer schneller bewegen – das Licht ist schon so lange unterwegs, dass wir nicht ihren aktuellen Zustand, sondern die ferne Vergangenheit sehen. Wenn die spanischen Wissenschaftler Recht haben, könnte es in der Zukunft einen Moment geben, in dem unsere Zeit für einen hypothetischen „außenstehenden Beobachter“ praktisch stillstehen wird.

Etwa 50 % der Menschen haben einen IQ zwischen 90 und 110;
2,5 % der Menschen sind geistig zurückgeblieben und haben einen IQ unter 70;
2,5 % der Menschen sind der Mehrheit in Intelligenz mit einem IQ über 130 überlegen,
und 0,5 % gelten als Genies mit einem IQ über 140.



Christopher Hirata. Im Alter von 14 Jahren trat der Amerikaner Christopher Hirata in die California Technological University ein und arbeitete im Alter von 16 Jahren bei der NASA an Projekten im Zusammenhang mit der Kolonisierung des Mars. Ebenfalls im Alter von 22 Jahren erhielt er den Titel eines Doktors der Naturwissenschaften in Astrophysik. IQ-Level - 225
Christopher Langan- Entwickler einer Theorie namens „kognitiv-theoretisches Modell der Welt“. IQ-Level - 195
Philip Yemegwali ist ein nigerianischer Wissenschaftler und Gewinner des Gordon-Bell-Preises 1989 des Institute of Electronics and Electrical Engineers. Erhielt eine Auszeichnung für den Einsatz eines Supercomputers zur Beobachtung von Ölfeldern. IQ-Level - 190
Isaac Newton ist ein herausragender englischer Wissenschaftler. Er legte den Grundstein für die moderne Naturwissenschaft und schuf die klassische Physik. Newton formulierte die Grundgesetze der klassischen Mechanik, entdeckte das Gesetz der universellen Gravitation, der Lichtstreuung, entwickelte die Korpuskulartheorie des Lichts und entwickelte (unabhängig von Leibniz) die Differential- und Integralrechnung. IQ-Level - 190
Francois-Marie Arouet oder Voltaire- Französischer Schriftsteller, Historiker, Publizist. IQ-Level - 190
Marilyn von Savant- US-amerikanischer Schriftsteller, Dramatiker und Journalist. Ehrenmitglied der Mensa-Organisation – einer Organisation, die Menschen mit hohem IQ vereint. IQ-Level - 186
James Woods ist ein US-amerikanischer Schauspieler. IQ-Level - 180
Michelangelo Buonarroti- Italienischer Bildhauer, Künstler, Architekt. IQ-Level - 180
Benjamin Netanjahu- Israelischer Staatsmann und Politiker, israelischer Premierminister 1996-1999. IQ-Wert - 180
Johann Goethe war ein deutscher Schriftsteller, Denker und Naturforscher. IQ-Level - 179
Emmanuel Swedenborg- Schwedischer Naturforscher, Theosoph und Erfinder. IQ-Level - 176
Gottfried Wilhelm Leibniz- führender deutscher Philosoph, Logiker, Mathematiker, Physiker, Linguist und Diplomat. Unabhängig von Newton schuf er die Differential- und Integralrechnung und legte die Grundlagen des binären Zahlensystems fest. IQ-Level - 176
Benedikt Spinoza- Niederländischer Philosoph, einer der berühmtesten Pantheisten. IQ-Level - 175
Johannes Kepler war ein deutscher Philosoph, Mathematiker, Astronom, Astrologe und Optiker. Entdeckte die Gesetze der Planetenbewegung. IQ-Level - 175
John Stuart Mill- Britischer Philosoph, politischer Ökonom. IQ-Level - 174
Blaise Pascal – französischer Philosoph, Physiker, Mathematiker. Bekannt für seine Entdeckung der Formel für Binomialkoeffizienten, Beiträge zur Wahrscheinlichkeitstheorie, Erfindung der hydraulischen Presse und der Spritze ... IQ-Level - 171

Antoine Lavoisier


Antoine Lavoisier – französischer Wissenschaftler, einer der Begründer der modernen Chemie. Er bewies experimentell, dass Luft ein Gemisch aus Gasen mit unterschiedlichen Eigenschaften ist. IQ-Level - 170

Solso

Hintergrund der modernen kognitiven Psychologie

Wie wir gelernt haben, beschäftigt sich ein Großteil der kognitiven Psychologie mit der Frage, wie Wissen im menschlichen Geist repräsentiert wird. Das dringendste Problem der Wissensrepräsentation – das, was manche Kognitionspsychologen „interne Repräsentationen“ oder „Codes“ nennen – wirft seit Jahrhunderten dieselben grundlegenden Fragen auf: Wie wird Wissen erworben, gespeichert, übertragen und genutzt? Was ist ein Gedanke? Was ist die Natur von Wahrnehmung und Erinnerung? und Wie entwickeln sich all diese Fähigkeiten? Diese Fragen erfassen den Kern des Problems der Wissensrepräsentation: Wie werden Ideen, Ereignisse und Objekte im Kopf gespeichert und schematisiert?

Betrachtet man das Thema der Wissensrepräsentation, werden wir die Meinungen vieler Wissenschaftler darüber verfolgen, wie außerhalb des Individuums stattfindende Ereignisse mit internem Handeln verknüpft werden. Das Hauptthema, das Wissenschaftler seit Jahrhunderten beschäftigt, ist die Struktur und Transformation bzw. das „Recycling“ von Wissen.

Darstellung von Wissen: Antike

Ein großes Interesse an Wissensfragen lässt sich bis in die ältesten Handschriften zurückverfolgen. Antike Denker versuchten herauszufinden, wo sich Erinnerung und Denken befinden. Wie hieroglyphische Aufzeichnungen aus dem alten Ägypten belegen, glaubten ihre Autoren, dass Wissen im Herzen liege, eine Ansicht, die auch der griechische Philosoph Aristoteles teilte; aber Platon glaubte, dass das Gehirn das Zentrum des Denkens sei

Die Frage der mentalen Repräsentationen wurde auch von griechischen Philosophen im Kontext des Problems diskutiert, das wir heute als Struktur und Prozess definieren. Die Debatte über Struktur und Prozess herrschte weitgehend bis ins 17. Jahrhundert vor, und im Laufe der Jahre wechselten die Sympathien der Wissenschaftler immer wieder von einem zum anderen. Obwohl moderne Psychologen immer noch versuchen, die Rolle des einen oder anderen zu betonen, sind sie sich zunehmend bewusst, dass die Psychologie des Denkens definitiv die gemeinsame Arbeit beider umfasst. Um ihre Unterschiede und Wechselwirkungen besser zu verstehen, können wir uns vorstellen, dass Strukturen so etwas wie eine Bienenwabe sind und dass Prozesse darin stattfinden. Die Struktur oder Architektur der Wabe wird von Bienen geformt und ist im Allgemeinen festgelegt (z. B. sind ihre Größe, Form, Anordnung und Kapazität relativ konstant), während die Aktivitäten oder Prozesse – wie das Sammeln, Verarbeiten und Lagern von Honig – verändern sich ständig, obwohl sie mit der Struktur verbunden sind. Die Entdeckung neuer Strukturen und der damit verbundenen Prozesse sowie die Erkenntnis, dass sowohl Strukturen als auch Prozesse zu unserem Verständnis der kognitiven Natur des menschlichen Geistes beitragen, sorgen in der kognitiven Psychologie für große Aufregung.


Die Bedeutung dieser Begriffe zwingt uns, kurz von der historischen Betrachtung abzuweichen und sie ausführlicher zu definieren. Struktur In Bezug auf die Struktur oder Organisation des kognitiven Systems ist dieser Begriff weitgehend metaphorisch, d. h. die postulierten Strukturen sind bedingte Darstellung wie mentale Elemente organisiert sind, aber nicht ihre wörtliche Beschreibung. Beispielsweise wird das theoretische Konzept, dass das Gedächtnis in Kurzzeit- und Langzeitgedächtnis unterteilt ist, durch eine Metapher über zwei „Informationsspeicher“ dargestellt. Wir werden uns mit anderen Metaphern befassen, die „Gehirnkompartimente“, „Bäume“, „Bibliotheken“, „Verarbeitungsebenen“, „Propositionen“, „Abstraktionen“ und „Schemata“ beschreiben.

Der Begriff „Prozess“ bezieht sich auf eine Reihe von Operationen oder Funktionen, die mentale Ereignisse irgendwie analysieren, transformieren oder modifizieren. Der „Prozess“ ist aktiv – im Gegensatz zur relativ statischen „Struktur“. Wir werden auf Prozesse stoßen, wenn wir über Denken, Vergessen, Kodieren im Gedächtnis, Konzeptbildung usw. nachdenken.

Struktur und Prozess arbeiten zusammen, um Informationen zu verarbeiten, und jeder von ihnen ist teilweise eine Folge des anderen. Manche Strukturen entstehen bei der Verarbeitung von Informationen, und Prozesse werden in irgendeiner Weise durch Strukturen gesteuert. Da Struktur und Prozess zusammenwirken, ist es in der kognitionspsychologischen Analyse nicht immer möglich, ihre Funktionen zu trennen, und letztendlich müssen Prozesse und Strukturen zu einem kohärenten kognitiven System zusammengefasst werden.

Nach Platon basiert das Denken auf der Stimulation, die von den einzelnen Arten der Sensibilität ausgeht. Und jeder der Sinne erfüllt eine besondere Funktion – die Wahrnehmung von Lichtenergie, Schallenergie usw. - Nach Platons Vorstellungen haben also die menschliche Wahrnehmung und seine Vorstellungen über bestimmte Aspekte der Umwelt ihren Antipoden in der physischen Welt. Platons Ansichten über die Struktur des Wissens wurden nicht von allen geteilt. Zu denjenigen, die mit ihm nicht einverstanden waren, gehörte Aristoteles, der glaubte, dass der menschliche Geist wirktüber die Wahrnehmung von Objekten. Daher basiert die Wahrnehmung eines Objekts, beispielsweise eines Tisches, auf der Fähigkeit, den Begriff „Tisch“ gedanklich von den Darstellungen vieler einzelner Tische zu unterscheiden. Neben der Idee der Fähigkeit des Geistes zur aktiven Abstraktion entwickelte Aristoteles zwei weitere Ideen, die einen erheblichen Einfluss auf die traditionelle Psychologie hatten: (1) das Prinzip Assoziationismus, die besagt, dass Ideen durch Nähe, Ähnlichkeit oder Kontrast miteinander verbunden sind, und (2) die Gesetze der Logik, nach denen die Wahrheit durch induktives oder deduktives Denken abgeleitet wird. Die Ideen des Aristoteles ähneln, insbesondere im Vergleich mit Platons Ideen, unserem Konzept des „Prozesses“, während Platons Ansichten eher den Ideen der „Struktur“ ähneln.

Wissensdarstellung: Mittelalter

/Philosophen und Theologen der Renaissance waren sich im Allgemeinen einig, dass „Wissen im Gehirn lokalisiert ist, wobei einige sogar ein Diagramm seiner Struktur und Lage vorschlagen (Abb. 1.2). Dieses Bild zeigt, dass Wissen durch die physischen Sinne (Mundus sensibilisiert) erworben wird. bilis – Tasten, Schmecken, Riechen, Sehen und Hören) sowie durch göttliche Quellen (Mundus intellektualis-Deus) Im 18. Jahrhundert, als die philosophische Psychologie dorthin gebracht wurde, wo angeblich ein Platz für die wissenschaftliche Psychologie war, gründeten die britischen Empiriker Berkeley . Hume und später James Mill und sein Sohn John Stuart Mill schlugen vor, dass es drei Arten interner Darstellungen gibt: (1) unmittelbare Sinnesereignisse (Esse est percipi = Wahrnehmung ist Realität 3) (2) blasse Kopien von Wahrnehmungen – was ist gespeichert); und (3) die Transformation dieser blassen Kopien – das heißt assoziatives Denken – schrieb Hume 1748 über die Möglichkeiten interner Darstellungen: „Es ist für die Vorstellungskraft nicht schwieriger, Monster zu erzeugen und inkompatible Formen zu kombinieren.“ und Phänomene, als die natürlichsten und vertrautesten Dinge zu verstehen. „Aus einer solchen Sichtweise der inneren Repräsentation und Transformation folgt keineswegs, dass interne Repräsentationen nach bestimmten Regeln gebildet werden oder dass eine solche Bildung und Transformation Zeit und Mühe erfordert. die Bestimmungen, die der modernen kognitiven Psychologie zugrunde liegen. (Dieser letzte Punkt ist die Grundlage neuerer Forschungen in der kognitiven Psychologie, in denen die Reaktionszeit des Subjekts als Maß für die Zeit und Mühe angesehen wird, die erforderlich ist, um eine interne Repräsentation aufzubauen und Transformationen durchzuführen.) Im 19. Jahrhundert begannen Psychologen damit versucht, sich von der Philosophie zu lösen und eine eigene Disziplin zu bilden, die auf empirischen Daten und nicht auf spekulativen Überlegungen basiert. Eine bedeutende Rolle spielten dabei die ersten Psychologen: Fechner, Brentano, Helmholtz, Wundt, Müller, Külpe, Ebbinghaus, Galton, Titchener und James. In der zweiten Hälfte des 19. Jahrhunderts entstanden Erklärungstheorien

die Wissen repräsentieren, wurden klar in zwei Gruppen eingeteilt: Vertreter der ersten Gruppe, darunter William Wundt in Deutschland und Edward Titchener in Amerika, betonten die Bedeutung der Struktur mentaler Repräsentationen, und Vertreter der anderen Gruppe, angeführt von Franz Brentano \ betonte die besondere Bedeutung von Prozessen oder Handlungen. Brentano betrachtete interne Repräsentationen als statische Elemente von geringem Wert für die Psychologie. Er glaubte, dass das eigentliche Thema der Psychologie das Studium kognitiver Handlungen sei: Vergleichen, Urteilen und Fühlen. Die andere Seite befasste sich mit vielen der gleichen Themen, die Platon und Aristoteles 2000 Jahre zuvor diskutiert hatten. Im Gegensatz zu früheren rein philosophischen Überlegungen wurden nun jedoch beide Arten von Theorien einer experimentellen Überprüfung unterzogen.

Etwa zur gleichen Zeit analysierte William James in Amerika kritisch die neue Psychologie, die sich in Deutschland entwickelte. Er organisierte das erste psychologische Labor in Amerika, verfasste 1889 ein herausragendes Werk über Psychologie (Prinzipien der Psychologie) und entwickelte ein ziemlich gründliches Modell des Geistes. James glaubte, dass das Thema der Psychologie unsere Vorstellungen über äußere Objekte sein sollten. Vielleicht liegt James‘ direkteste Verbindung zur modernen kognitiven Psychologie in seiner Herangehensweise an das Gedächtnis, d. h. er glaubte, dass sowohl Struktur als auch Prozess eine wichtige Rolle spielen Versionen werden in Kapitel 5 besprochen. Donders und Cattell, James' Zeitgenossen, führten Experimente zur Wahrnehmung von Bildern durch, die für kurze Zeit präsentiert wurden; Sie versuchten, die Zeit zu bestimmen, die für die Durchführung geistiger Operationen erforderlich war. Ihre Artikel beschreiben oft Experimente, die wir heute der kognitiven Psychologie zuordnen. Die von diesen Wissenschaftlern verwendeten Methoden, der Gegenstand ihrer Forschung, die Verfahren und sogar die Interpretation der Ergebnisse haben die Entstehung dieser Disziplin um ein halbes Jahrhundert vorweggenommen.

Darstellung von Wissen: Anfang des 20. Jahrhunderts

Im 20. Jahrhundert erlebten die Vorstellungen über die Repräsentation von Wissen (wie wir diesen Begriff hier verstehen) mit dem Aufkommen des Behaviorismus und der Gestaltpsychologie radikale Veränderungen. Die Ansichten des Behaviorismus über interne Repräsentationen wurden in der psychologischen Formel „Reiz-Reaktion“ formuliert. (S-R) und Vertreter des Gestaltansatzes entwickelten detaillierte Theorien der inneren Repräsentation im Kontext des Isomorphismus – einer Eins-zu-eins-Entsprechung zwischen Repräsentation und Realität.

In der ersten Hälfte des 20. Jahrhunderts wurde die experimentelle Psychologie in den USA vom Behaviorismus dominiert, und obwohl in dieser Zeit bedeutende Entdeckungen gemacht und neue Methoden entwickelt wurden, hatten viele davon nur sehr geringe Auswirkungen auf die moderne kognitive Psychologie (wie es plötzlich der Fall war). wurde im späten 19. Jahrhundert deutlich, geriet aus der Mode und wurde durch den Behaviorismus ersetzt. Die Erforschung innerer mentaler Vorgänge und Strukturen – wie Aufmerksamkeit, Gedächtnis und Denken – wurde auf Eis gelegt und blieb dort etwa fünfzig Jahre lang.) Für Behavioristen waren es alle inneren Zustände als „Zwischenvariablen“ klassifiziert, die als hypothetische Formationen bestimmt wurden und vermutlich jene Prozesse widerspiegeln, die den Einfluss eines Reizes auf eine Reaktion vermitteln. Diese Position hatten Woodworth, Hull und Tolman inne und erfreute sich in der ersten Hälfte dieses Jahrhunderts großer Beliebtheit.

Viele Jahre bevor die kognitive Revolution die Psychologie erfasste, sagte der Psychologe Edward Tolman (1932), ein Lernwissenschaftler, dass Ratten in einem Labyrinth Orientierung lernen und nicht nur eine Reihe von S-R-Verbindungen. In einer Reihe genialer Experimente, in denen Ratten darauf trainiert wurden, einen Umweg zu nehmen, um zum Futter zu gelangen, entdeckte Tolman, dass die Ratten, wenn man ihnen erlaubte, direkt zum Futter zu gehen, es sich schnappten, indem sie direkt darauf zugingen. Ort, wo sich dieses Essen befand, und wiederholte nicht den ursprünglichen Umweg. Laut Tolmans Erklärung entwickelten Tiere nach und nach ein „Bild“ ihrer Umgebung und nutzten es dann, um ein Ziel zu finden. Dieses „Bild“ wurde später genannt kognitive Karte. Das Vorhandensein einer kognitiven Karte bei den Ratten in Tolmans Experimenten wurde durch die Tatsache gezeigt, dass sie das Ziel (d. h. Nahrung) von mehreren verschiedenen Ausgangspunkten aus fanden. Tatsächlich war diese „innere Karte“ eine Form der Darstellung von Informationen über die Umgebung.

Wiederbelebung der kognitiven Psychologie

Es kann nicht davon ausgegangen werden, dass Tolmans Forschung die moderne kognitive Psychologie direkt beeinflusst hat, aber seine Ideen zu kognitiven Karten bei Tieren nahmen das moderne Interesse an der Darstellung von Wissen in kognitiven Strukturen vorweg.

Ab den späten 1950er Jahren konzentrierten sich die wissenschaftlichen Interessen wieder auf Aufmerksamkeit, Gedächtnis, Mustererkennung, Bilder, semantische Organisation, Sprachprozesse, Denken und andere „kognitive“ Themen, die einst unter dem Druck des Behaviorismus für die experimentelle Psychologie als uninteressant galten. Als sich Psychologen zunehmend der kognitiven Psychologie zuwandten, neue Zeitschriften und wissenschaftliche Gruppen gegründet wurden und die kognitive Psychologie ihre Position weiter stärkte, wurde klar, dass sich dieser Zweig der Psychologie stark von dem unterschied, der in den 1930er Jahren und 1930 in Mode war. 40er Jahre. Zu den wichtigsten Faktoren, die diese neokognitive Revolution bestimmten, gehörten die folgenden:

Das „Scheitern“ des Behaviorismus. Der Behaviorismus, der im Allgemeinen äußere Reaktionen auf Reize untersucht, konnte die Vielfalt des menschlichen Verhaltens nicht erklären. Es wurde somit offensichtlich, dass interne mentale Prozesse, die indirekt mit unmittelbaren Reizen zusammenhängen, das Verhalten beeinflussen. Einige glaubten, dass diese internen Prozesse identifiziert und in eine allgemeine Theorie der kognitiven Psychologie integriert werden könnten.

Die Entstehung der Kommunikationstheorie. Die Kommunikationstheorie hat Experimente in den Bereichen Signalerkennung, Aufmerksamkeit, Kybernetik und Informationstheorie inspiriert – d. h. in Bereichen, die für die kognitive Psychologie wesentlich sind.

Moderne Linguistik. Neue Ansätze zu sprachlichen und grammatikalischen Strukturen wurden in das Themenspektrum der Kognition aufgenommen.“

Studium des Gedächtnisses. Die Forschung zum verbalen Lernen und zur semantischen Organisation hat eine solide Grundlage für Gedächtnistheorien geschaffen und zur Entwicklung von Modellen für Gedächtnissysteme und zur Entstehung überprüfbarer Modelle anderer kognitiver Prozesse geführt.

Informatik und andere technologische Fortschritte. Die Informatik und insbesondere einer ihrer Zweige – die künstliche Intelligenz (KI) – haben uns gezwungen, die grundlegenden Postulate bezüglich der Verarbeitung und Speicherung von Informationen im Gedächtnis sowie des Sprachenlernens zu überdenken. Neue experimentelle Geräte haben die Möglichkeiten der Forscher erheblich erweitert.

Von frühen Konzepten der Wissensrepräsentation bis hin zu neueren Forschungen wurde angenommen, dass Wissen stark auf sensorischen Eingaben beruht. Dieses Thema ist von griechischen Philosophen über Wissenschaftler der Renaissance bis hin zu modernen Kognitionspsychologen zu uns gekommen. Aber identisch Entsprechen interne Darstellungen der Welt ihren physikalischen Eigenschaften? Es gibt immer mehr Hinweise darauf, dass viele interne Darstellungen der Realität nicht mit der externen Realität selbst identisch sind – d. h. Sie nicht isomorph. Tolmans Arbeit mit Labortieren legt nahe, dass sensorische Informationen als abstrakte Darstellungen gespeichert werden.

Einen etwas analytischeren Ansatz zum Thema kognitive Karten und interne Repräsentationen verfolgten Norman und Rumelhart (1975). In einem Experiment baten sie die Bewohner eines Studentenwohnheims, einen Grundriss ihres Hauses zu zeichnen. Wie erwartet konnten die Studierenden die Reliefmerkmale architektonischer Details erkennen – die Anordnung der Räume, die Grundausstattung und die Ausstattung. Es gab aber auch Auslassungen und einfache Fehler. Viele stellten den Balkon bündig mit der Außenseite des Gebäudes dar, obwohl er tatsächlich aus diesem herausragte. Aus Fehlern im Grundriss eines Gebäudes können wir viel über die interne Informationsdarstellung einer Person lernen. Norman und Rumelhart kamen zu dem Schluss:

„Die Darstellung von Informationen im Gedächtnis ist keine exakte Reproduktion des wirklichen Lebens; tatsächlich handelt es sich um eine Kombination aus Informationen, Schlussfolgerungen und Rekonstruktionen, die auf Wissen über Gebäude und die Welt im Allgemeinen basieren. Es ist wichtig zu beachten, wann der Fehler aufgetreten ist.“ wies die Schüler darauf hin, dass sie alle sehr überrascht waren von dem, was sie selbst gezeichnet hatten.

Diese Beispiele führten uns in ein wichtiges Prinzip der kognitiven Psychologie ein. Das Offensichtlichste ist, dass unsere Vorstellungen von der Welt nicht unbedingt mit ihrem tatsächlichen Wesen identisch sind. Natürlich hängt die Darstellung von Informationen mit den Reizen zusammen, die unser Sinnesapparat empfängt, unterliegt aber auch erheblichen Veränderungen. Diese Veränderungen oder Modifikationen hängen offensichtlich mit unseren Erfahrungen aus der Vergangenheit zusammen, die zu einem reichen und komplexen Netzwerk unseres Wissens geführt haben. Somit werden eingehende Informationen abstrahiert (und in gewissem Maße verzerrt) und dann im menschlichen Gedächtnissystem gespeichert. Diese Ansicht bestreitet dies keineswegs manche Sinnesereignisse stehen in direkter Analogie zu ihren internen Darstellungen, legen jedoch nahe, dass Sinnesreize während der Speicherung als Funktion des reichhaltigen und komplex miteinander verflochtenen Wissens, das zuvor strukturiert wurde, einer Abstraktion und Modifikation unterliegen können (und dies häufig auch tun). Wir werden diesem Thema später in diesem Kapitel und im gesamten Buch noch begegnen.

Das Problem, wie Wissen im menschlichen Geist repräsentiert wird, ist eines der wichtigsten Probleme der kognitiven Psychologie. In diesem Abschnitt diskutieren wir einige Probleme, die direkt damit zusammenhängen. Aus den vielen Beispielen, die bereits gegeben wurden und noch mehr, die uns noch erwarten, geht klar hervor, dass unsere interne Darstellung der Realität einige Ähnlichkeiten mit der externen Realität aufweist, aber wenn wir Informationen abstrahieren und transformieren, tun wir dies im Lichte unserer bisherigen Erfahrungen.

Konzeptuelle Wissenschaften und kognitive Psychologie

Zwei Konzepte werden in diesem Buch häufig verwendet: kognitives Modell und konzeptionelle Wissenschaft. Sie sind verwandt, unterscheiden sich jedoch darin, dass „Konzeptwissenschaft“ ein sehr allgemeines Konzept ist, während der Begriff „kognitives Modell“ eine separate Klasse von Konzeptwissenschaft bezeichnet. Bei der Beobachtung von Objekten und Ereignissen – sowohl experimentell, wo beides kontrolliert wird, als auch unter natürlichen Bedingungen – entwickeln Wissenschaftler verschiedene Konzepte mit dem Ziel:

1 Beobachtungen organisieren;

■ diese Beobachtungen verstehen;

■ die einzelnen Punkte, die sich aus diesen Beobachtungen ergeben, miteinander verbinden;

■ Hypothesen entwickeln;

■ Ereignisse vorhersagen, die noch nicht beobachtet wurden;

■ mit anderen Wissenschaftlern in Kontakt bleiben.

Kognitive Modelle sind eine Sonderform wissenschaftlicher Konzepte und haben die gleichen Aufgaben. Sie werden normalerweise unterschiedlich definiert, aber wir werden ein kognitives Modell als definieren eine Metapher, die auf Beobachtungen und Schlussfolgerungen aus diesen Beobachtungen basiert und beschreibt, wie Informationen entdeckt, gespeichert und verwendet werden 8 .

Ein Wissenschaftler kann eine geeignete Metapher wählen, um seine Konzepte so elegant wie möglich zu konstruieren. Aber ein anderer Forscher könnte beweisen, dass dieses Modell falsch ist, und verlangen, dass es überarbeitet oder ganz aufgegeben wird. Manchmal kann ein Modell als Arbeitsrahmen so nützlich sein, dass es Unterstützung findet, selbst wenn es unvollkommen ist. Obwohl beispielsweise die kognitive Psychologie die beiden oben beschriebenen Arten des Gedächtnisses – Kurzzeit- und Langzeitgedächtnis – postuliert, gibt es einige Hinweise (Abschnitt II), dass eine solche Dichotomie das tatsächliche Gedächtnissystem falsch darstellt. Allerdings ist diese Metapher bei der Analyse kognitiver Prozesse durchaus nützlich. Wenn ein Modell seine Relevanz als analytisches oder beschreibendes Werkzeug verliert, wird es einfach aufgegeben. Im nächsten Abschnitt werden wir uns sowohl mit der Konzeptwissenschaft als auch mit kognitiven Modellen eingehender befassen.

Die Entstehung neuer Konzepte im Prozess von Beobachtungen oder Experimenten ist einer der Indikatoren für die Entwicklung der Wissenschaft. Der Wissenschaftler verändert nicht die Natur – nun ja, vielleicht in einem begrenzten Sinne –, sondern die Beobachtung der Natur betrügt die Vorstellungen des Wissenschaftlers dazu. Und unsere Vorstellungen von der Natur leiten wiederum unsere Beobachtungen!_Kognitive Modelle sind es, wie auch andere Modelle der Konzeptwissenschaft Folge Beobachtungen, aber bis zu einem gewissen Grad sind sie auch - bestimmender Faktor Beobachtungen. Diese Frage hängt mit dem bereits erwähnten Problem zusammen: In welcher Form stellt der Beobachter Wissen dar? Wie wir gesehen haben, gibt es viele Fälle, in denen die Informationen in der internen Darstellung nicht genau der äußeren Realität entsprechen. Unsere inneren Wahrnehmungsrepräsentationen können die Realität verzerren. „Wissenschaftliche Methode“ und

„Einige Philosophen argumentieren, dass konzeptionelle Wissenschaft und kognitive Modelle vorhersehbar seien, weil die Natur strukturiert sei und die Rolle des Wissenschaftlers gerade darin bestehe, die ‚tiefste‘ Struktur zu entdecken. Ich würde mich einer solchen Behauptung nicht anschließen. Natur – einschließlich der kognitiven Natur des Menschen.“ - existiert objektiv. Die von Wissenschaftlern konstruierten Konzepte und Modelle sind Metaphern, die die „reale“ Natur des Universums widerspiegeln und ausschließlich menschliche Schöpfungen sind. Vielleicht die Realität widerspiegeln.

Präzise Instrumente sind eine Möglichkeit, die äußere Realität einer genaueren Untersuchung zu unterziehen. Tatsächlich gibt es fortlaufende Versuche, das, was in der Natur beobachtet wird, in Form solcher kognitiven Konstruktionen darzustellen, die genaue Darstellungen der Natur darstellen und gleichzeitig mit dem gesunden Menschenverstand und dem Verständnis des Beobachters vereinbar wären. Dieses Buch behandelt viele Konzepte, von der visuellen Wahrnehmung über die Gedächtnisstruktur bis hin zum semantischen Gedächtnis, die alle auf dieser Logik basieren.

Die Logik der Begriffswissenschaft lässt sich am Beispiel der Entwicklung der Naturwissenschaften veranschaulichen. Es ist allgemein anerkannt, dass Materie aus Elementen besteht, die unabhängig von ihrer direkten Beobachtung durch den Menschen existieren. Allerdings hat die Klassifizierung dieser Elemente einen großen Einfluss darauf, wie Wissenschaftler die physische Welt wahrnehmen. In einer Klassifikation werden die „Elemente“ der Welt in die Kategorien „Erde“, „Luft“, „Feuer“ und „Wasser“ unterteilt. Als diese archaische alchemistische Taxonomie einer kritischeren Sichtweise wich, wurden die Elemente Sauerstoff, Kohlenstoff, Wasserstoff, Natrium und Gold „entdeckt“ und es wurde möglich, die Eigenschaften der Elemente zu untersuchen, wenn sie miteinander kombiniert wurden. Über die Eigenschaften von Verbindungen aus diesen Elementen wurden Hunderte verschiedener Gesetze entdeckt. Da die Elemente offenbar auf geordnete Weise kombiniert wurden, entstand die Idee, dass die Elemente in einem bestimmten Muster angeordnet werden könnten, das den unterschiedlichen Gesetzen der Atomchemie einen Sinn geben würde. Der russische Wissenschaftler Dmitri Mendeleev nahm einen Satz Karten und schrieb darauf die Namen und Atomgewichte aller damals bekannten Elemente – eines auf jedes. Indem er diese Karten immer wieder hin und her ordnete, entstand schließlich ein aussagekräftiges Diagramm, das heute als Periodensystem der Elemente bekannt ist.

Was er getan hat, ist ein treffendes Beispiel dafür, wie natürliche Informationen durch menschliches Denken so strukturiert werden, dass sie sowohl eine genaue Darstellung der Natur darstellen als auch für das Verständnis zugänglich sind. Es ist jedoch wichtig, sich daran zu erinnern, dass die periodische Anordnung der Elemente viele Interpretationen hat. Mendelejews Interpretation war nicht die einzig mögliche; vielleicht war sie nicht einmal die Beste; es könnte sogar nicht zu sein natürliche Anordnung der Elemente, aber die von Mendeleev vorgeschlagene Version half, einen Teil der physischen Welt zu verstehen und war offensichtlich mit der „realen“ Natur vereinbar.

Die konzeptionelle kognitive Psychologie hat viel mit dem Problem gemeinsam, das Mendelejew gelöst hat. Der groben Beobachtung, wie Wissen erworben, gespeichert und genutzt wird, mangelt es an formaler Struktur. Die Kognitionswissenschaften erfordern ebenso wie die Naturwissenschaften Rahmenbedingungen, die sowohl intellektuell kompatibel als auch wissenschaftlich valide sind.

Kognitive Modelle

Wie wir bereits gesagt haben, sind konzeptionelle Wissenschaften, einschließlich der kognitiven Psychologie, metaphorischer Natur. Modelle natürlicher Phänomene, insbesondere kognitive Modelle, sind nützliche abstrakte Ideen, die aus Schlussfolgerungen auf der Grundlage von Beobachtungen abgeleitet werden. Struktur der Elemente Vielleicht in Form eines Periodensystems dargestellt werden, wie es Mendeleev tat, aber es ist wichtig, sich daran zu erinnern, dass es sich bei diesem Klassifizierungsschema um eine Metapher handelt. Und die Behauptung, dass die Konzeptwissenschaft metaphorisch sei, schmälert ihren Nutzen nicht im Geringsten. Tatsächlich ist es eine der Aufgaben des Modellbaus, das Beobachtete besser zu verstehen. Aber die konzeptionelle Wissenschaft wird für etwas anderes benötigt: Sie gibt dem Forscher einen bestimmten Rahmen vor, innerhalb dessen spezifische Hypothesen überprüft werden können und der es ihm ermöglicht, auf der Grundlage dieses Modells Ereignisse vorherzusagen. Das Periodensystem erfüllte beide Zwecke auf sehr elegante Weise. Basierend auf der Anordnung der darin enthaltenen Elemente könnten Wissenschaftler die chemischen Gesetze der Kombination und Substitution genau vorhersagen, anstatt endlose und chaotische Experimente mit chemischen Reaktionen durchzuführen. Darüber hinaus wurde es möglich, noch unentdeckte Elemente und ihre Eigenschaften vorherzusagen, obwohl es keinerlei physikalische Beweise für ihre Existenz gab. Und wenn Sie sich für kognitive Modelle interessieren, vergessen Sie nicht die Mendelejew-Modellanalogie, denn kognitive Modelle basieren wie Modelle in den Naturwissenschaften auf Schlussfolgerungslogik und sind nützlich für das Verständnis der kognitiven Psychologie.

Kurz gesagt: Modelle basieren auf Schlussfolgerungen aus Beobachtungen. Ihr Zweck besteht darin, eine verständliche Darstellung der Natur des Beobachteten zu liefern und bei der Entwicklung von Hypothesen Vorhersagen zu treffen. Schauen wir uns nun mehrere Modelle an, die in der kognitiven Psychologie verwendet werden.

Beginnen wir unsere Diskussion kognitiver Modelle mit einer eher groben Version, die alle kognitiven Prozesse in drei Teile unterteilt: Erkennung von Reizen, Speicherung und Transformation von Reizen und Entwicklung von Reaktionen:

Lagerproduktion

Erkennung – umgesetzt – Reaktion

Reiz-Reiz-Reaktionen

Dieses eher trockene Modell, das dem zuvor erwähnten S-R-Modell ähnelt, wurde in der einen oder anderen Form häufig in früheren Vorstellungen über mentale Prozesse verwendet. Und obwohl es die Hauptstadien der Entwicklung der kognitiven Psychologie widerspiegelt, enthält es so wenige Details, dass es unser „Verständnis“ kognitiver Prozesse kaum bereichern kann. Es ist auch nicht in der Lage, neue Hypothesen zu generieren oder Verhalten vorherzusagen. Dieses primitive Modell ähnelt den antiken Vorstellungen vom Universum, das aus Erde, Wasser, Feuer und Luft besteht. Ein solches System stellt zwar eine mögliche Sicht auf kognitive Phänomene dar, vermittelt jedoch deren Komplexität nicht genau.

Eines der ersten und am häufigsten zitierten kognitiven Modelle betrifft das Gedächtnis. Im Jahr 1890 erweiterte James das Konzept des Gedächtnisses und unterteilte es in „primäres“ und „sekundäres“ Gedächtnis. Er schlug vor, dass sich das primäre Gedächtnis mit vergangenen Ereignissen befasst, während sich das sekundäre Gedächtnis mit dauerhaften, „unzerstörbaren“ Spuren von Erfahrungen befasst. Dieses Modell sah so aus:

Reiz _ Primär _ Sekundär

Erinnerung Erinnerung

Später, im Jahr 1965, schlugen Waugh und Norman eine neue Version desselben Modells vor, die sich als weitgehend akzeptabel erwies. Es ist verständlich, es kann als Quelle für Hypothesen und Vorhersagen dienen, aber es ist auch zu vereinfacht. Ist es möglich, es zur Beschreibung zu verwenden? Alle menschliche Gedächtnisprozesse? Kaum; und die Entwicklung komplexerer Modelle war unvermeidlich.

Eine modifizierte und erweiterte Version des Modells von Waugh und Norman ist in Abb. dargestellt. 1.3. Beachten Sie, dass ein neues Speichersystem und mehrere neue Informationspfade hinzugefügt wurden. Aber auch dieses Modell ist unvollständig und bedarf einer Erweiterung.

Im letzten Jahrzehnt ist die Erstellung kognitiver Modelle zu einer Lieblingsbeschäftigung von Psychologen geworden, und einige ihrer Kreationen sind wirklich großartig. Normalerweise wird das Problem zu einfacher Modelle durch Hinzufügen eines weiteren „Blocks“, eines anderen Informationspfads, eines anderen Speichersystems und eines weiteren Elements gelöst, das es wert ist, überprüft und analysiert zu werden. Solche kreativen Bemühungen scheinen angesichts dessen, was wir heute über den Reichtum des menschlichen kognitiven Systems wissen, durchaus gerechtfertigt zu sein.

Sie können nun zu dem Schluss kommen, dass die Modellerfindung in der kognitiven Psychologie wie ein Zauberlehrling außer Kontrolle geraten ist. Das stimmt nicht ganz, denn es handelt sich um eine so weitreichende Aufgabe – d.h. Analyse, wie Informationen entdeckt, dargestellt, in Wissen umgewandelt und wie dieses Wissen genutzt wird – dass wir, egal wie sehr wir unsere konzeptionellen Metaphern auf vereinfachte Modelle beschränken, immer noch nicht in der Lage sein werden, das gesamte komplexe Gebiet der kognitiven Psychologie erschöpfend zu erklären . Die Kapitel in Abschnitt I behandeln die frühen Phasen des kognitiven Prozesses, von der sensorischen Erkennung bis hin zur Mustererkennung und Aufmerksamkeit.

Zusammenfassung

Der Zweck dieses Kapitels bestand darin, den Leser auf den Rest des Buches vorzubereiten, indem es ihn in die kognitive Psychologie einführte. Darin haben wir besprochen

viele verschiedene und wichtige Aspekte dieser Wissenschaft. Erinnern wir uns an einige

wichtige Punkte.

/. Die kognitive Psychologie beschäftigt sich damit, wie Wissen erworben, transformiert, dargestellt, gespeichert und abgerufen wird und wie dieses Wissen unsere Aufmerksamkeit und unsere Reaktion lenkt.

2. Die kognitive Psychologie stützt sich auf experimentelle und theoretische Ansätze, die in kritischen Bereichen der Psychologie verwendet werden, darunter Wahrnehmung, Aufmerksamkeit, Mustererkennung, Sprache, Gedächtnis, Bilder, Entwicklungspsychologie, Denken und Konzeptbildung, menschliche Intelligenz und künstliche Intelligenz.

3. Das Informationsverarbeitungsmodell ist allgemein anerkannt; Dabei wird davon ausgegangen, dass Informationen eine Reihe von Verarbeitungsstufen durchlaufen, von denen jede eine bestimmte Funktion erfüllt.

4. Das Informationsverarbeitungsmodell wirft zwei sehr kontroverse Fragen auf: (1) In welchen Phasen findet die Informationsverarbeitung statt? und- (2) In welcher Form wird Wissen präsentiert?

5. Der Hintergrund der modernen Psychologie umfasst die antike griechische Philosophie, den Empirismus des 18. Jahrhunderts, den Strukturalismus des 19. Jahrhunderts und die neokognitive Revolution, die von modernen Entwicklungen in der Kommunikationstheorie, Linguistik, Gedächtnisforschung und Computertechnologie beeinflusst wird.

6. „Konzeptuelle Wissenschaft“ ist eine praktische Metapher, die vom Menschen erfunden wurde, um das Verständnis der „Realität“ zu erleichtern. Konzeptionelle Modelle wurden von Psychologen in die kognitive Psychologie eingeführt, mit dem Ziel, ein System zu entwickeln, das die Natur der menschlichen Wahrnehmung, des Denkens und des Verständnisses der Welt widerspiegelt.

7. Kognitive Modelle basieren auf Beobachtungen und beschreiben die Struktur und Prozesse der Kognition. Die Erstellung von Modellen hilft, das Beobachtete besser zu verstehen.

Stichworte

Assoziationismus

kognitive Karte

kognitives Modell

Konzeptuelle Wissenschaft

Informationsverarbeitungsmodell

interne Darstellung

Isomorphismus

Wahrnehmung

Verfahren

Struktur

Transformation

Terry Pratchett beschrieb die traditionelle Sicht auf die Entstehung des Universums so: „Am Anfang gab es nichts, was explodierte.“ Die aktuelle Sichtweise der Kosmologie impliziert, dass ein expandierendes Universum durch den Urknall entstanden ist, und dies wird durch Beweise aus der kosmischen Mikrowellen-Hintergrundstrahlung und der Rotverschiebung entfernten Lichts gut gestützt: Das Universum dehnt sich ständig aus.

Und doch waren nicht alle davon überzeugt. Im Laufe der Jahre wurden verschiedene Alternativen und Meinungen vorgeschlagen. Einige interessante Annahmen können mit unseren modernen Technologien leider nicht überprüft werden. Andere sind Fantasieflüge, die gegen die Unverständlichkeit des Universums rebellieren, das sich den menschlichen Vorstellungen von gesundem Menschenverstand zu widersetzen scheint.


Theorie des stationären Universums

Beobachtungen von Quasaren in entfernten (und aus unserer Sicht alten) Galaxien, die in unserer Sternumgebung nicht existieren, dämpften die Begeisterung der Theoretiker und wurden schließlich entlarvt, als Wissenschaftler die kosmische Hintergrundstrahlung entdeckten. Obwohl Hoyles Theorie ihm keine Lorbeeren einbrachte, führte er eine Reihe von Studien durch, die zeigten, wie im Universum Atome auftauchten, die schwerer als Helium waren. (Sie erschienen während des Lebenszyklus der ersten Sterne bei hohen Temperaturen und hohem Druck). Ironischerweise war er auch einer der Begründer des Begriffs „Urknall“.

Edwin Hubble bemerkte, dass sich die Wellenlängen des Lichts entfernter Galaxien im Vergleich zum Licht nahegelegener Sternkörper zum roten Ende des Spektrums verschieben, was darauf hindeutet, dass Photonen Energie verlieren. Die „Rotverschiebung“ wird im Zusammenhang mit der Expansion nach dem Urknall als Funktion des Doppler-Effekts erklärt. Befürworter stationärer Modelle schlugen stattdessen vor, dass Lichtphotonen bei ihrer Bewegung durch den Raum allmählich Energie verlieren und sich zu längeren Wellenlängen bewegen, die am roten Ende des Spektrums weniger energiereich sind. Diese Theorie wurde erstmals 1929 von Fritz Zwicky vorgeschlagen.

Mit müdem Licht sind eine Reihe von Problemen verbunden. Erstens gibt es keine Möglichkeit, die Energie des Photons zu ändern, ohne seinen Impuls zu ändern, was zu einem Unschärfeeffekt führen würde, den wir nicht beobachten. Zweitens erklärt es nicht die beobachteten Muster der Supernova-Lichtemission, die perfekt zum expandierenden Universum und den speziellen Relativitätsmodellen passen. Schließlich basieren die meisten müden Lichtmodelle auf einem sich nicht ausdehnenden Universum, was jedoch zu einem Hintergrundemissionsspektrum führt, das nicht mit unseren Beobachtungen übereinstimmt. Wenn die Hypothese des müden Lichts numerisch korrekt wäre, müsste die gesamte beobachtete kosmische Hintergrundstrahlung aus Quellen stammen, die näher bei uns sind als die Andromeda-Galaxie (die uns am nächsten gelegene Galaxie), und alles darüber hinaus wäre für uns unsichtbar.

Ewige Inflation

Die meisten aktuellen Modelle des frühen Universums gehen von einer kurzen Periode exponentiellen Wachstums (bekannt als Inflation) aus, die durch Vakuumenergie verursacht wird und in der benachbarte Teilchen schnell durch weite Bereiche des Weltraums getrennt werden. Nach diesem Aufblasen zerfiel die Vakuumenergie in eine heiße Plasmabrühe, in der sich Atome, Moleküle usw. bildeten. In der Theorie der ewigen Inflation endete dieser Inflationsprozess nie. Stattdessen würden die Weltraumblasen aufhören aufzublasen und in einen Niedrigenergiezustand übergehen, um sich dann in den inflationären Raum auszudehnen. Solche Blasen ähneln Dampfblasen in einem kochenden Wassertopf, nur dass sich der Topf dieses Mal kontinuierlich ausdehnt.

Nach dieser Theorie ist unser Universum eine der Blasen eines multiplen Universums, das durch ständige Inflation gekennzeichnet ist. Ein Aspekt dieser Theorie, der überprüft werden könnte, ist die Annahme, dass zwei Universen, die nahe genug sind, um sich zu treffen, Störungen in der Raumzeit jedes Universums verursachen. Die beste Unterstützung für eine solche Theorie wäre die Entdeckung von Beweisen für einen solchen Verstoß vor dem Hintergrund der kosmischen Mikrowellen-Hintergrundstrahlung.

Das erste Inflationsmodell wurde vom sowjetischen Wissenschaftler Alexei Starobinsky vorgeschlagen, erlangte jedoch im Westen Berühmtheit durch den Physiker Alan Guth, der vorschlug, dass das frühe Universum unterkühlt sein und den Beginn eines exponentiellen Wachstums vor dem Urknall ermöglichen könnte. Andrei Linde nahm diese Theorien auf und entwickelte auf ihrer Grundlage die Theorie der „ewigen chaotischen Expansion“, nach der anstelle der Notwendigkeit eines Urknalls mit der notwendigen potentiellen Energie die Expansion an jedem Punkt im Skalarraum beginnen und ständig stattfinden kann im gesamten Multiversum.

Hier ist, was Linde sagt: „Anstelle eines Universums mit einem physikalischen Gesetz deutet die ewige chaotische Inflation auf ein sich selbst reproduzierendes und immerwährendes Multiversum hin, in dem alles möglich ist.“

Fata Morgana eines 4D-Schwarzen Lochs

Das Standard-Urknallmodell geht davon aus, dass das Universum aus einer unendlich dichten Singularität explodierte, aber das macht es angesichts der relativ kurzen Zeit (nach kosmischen Maßstäben), die seit diesem heftigen Ereignis vergangen ist, nicht einfacher, seine nahezu gleichmäßige Temperatur zu erklären. Einige glauben, dass dies eine unbekannte Energieform erklären könnte, die dazu führte, dass sich das Universum schneller als mit Lichtgeschwindigkeit ausdehnte. Ein Team von Physikern des Perimeter Institute for Theoretical Physics hat vorgeschlagen, dass das Universum im Wesentlichen eine dreidimensionale Fata Morgana sein könnte, die am Ereignishorizont eines vierdimensionalen Sterns entsteht, der in ein Schwarzes Loch kollabiert.

Niayesh Afshordi und seine Kollegen untersuchten einen im Jahr 2000 von einem Team der Ludwig-Maximilians-Universität München gemachten Vorschlag, dass unser Universum nur eine Membran sein könnte, die in einem „Massenuniversum“ mit vier Dimensionen existiert. Sie kamen zu dem Schluss, dass, wenn dieses Massenuniversum auch vierdimensionale Sterne enthielte, diese sich möglicherweise wie ihre dreidimensionalen Gegenstücke in unserem Universum verhalten würden – sie würden in Supernovae explodieren und in schwarze Löcher kollabieren.

Dreidimensionale Schwarze Löcher sind von einer kugelförmigen Oberfläche umgeben, die als Ereignishorizont bezeichnet wird. Während die Oberfläche des Ereignishorizonts eines 3D-Schwarzen Lochs zweidimensional ist, muss die Form des Ereignishorizonts eines 4D-Schwarzen Lochs dreidimensional sein – eine Hypersphäre. Als Afshordis Team den Tod eines vierdimensionalen Sterns simulierte, stellten sie fest, dass das ausgebrochene Material eine dreidimensionale Brane (Membran) um den Ereignishorizont bildete und sich langsam ausdehnte. Das Team vermutete, dass unser Universum eine Fata Morgana sein könnte, die aus Trümmern der äußeren Schichten eines vierdimensionalen kollabierenden Sterns entstanden ist.

Da das vierdimensionale Massenuniversum möglicherweise viel älter oder sogar unendlich alt ist, würde dies die in unserem Universum beobachtete einheitliche Temperatur erklären, obwohl einige neuere Erkenntnisse darauf hindeuten, dass es Abweichungen geben könnte, die das traditionelle Modell besser passen lassen.

Spiegeluniversum

Eines der verwirrenden Probleme der Physik besteht darin, dass fast alle akzeptierten Modelle, einschließlich Schwerkraft, Elektrodynamik und Relativitätstheorie, bei der Beschreibung des Universums gleich gut funktionieren, unabhängig davon, ob sich die Zeit vorwärts oder rückwärts bewegt. In der realen Welt wissen wir, dass sich die Zeit nur in eine Richtung bewegt, und die Standarderklärung dafür ist, dass unsere Zeitwahrnehmung nur ein Produkt der Entropie ist, bei der sich Ordnung in Unordnung auflöst. Das Problem dieser Theorie besteht darin, dass sie impliziert, dass unser Universum mit einem hochgeordneten Zustand und niedriger Entropie begann. Viele Wissenschaftler sind mit dem Konzept eines frühen Universums mit niedriger Entropie, das die Richtung der Zeit festlegt, nicht einverstanden.

Julian Barbour von der University of Oxford, Tim Kozlowski von der University of New Brunswick und Flavio Mercati vom Perimeter Institute for Theoretical Physics entwickelten eine Theorie, dass die Schwerkraft dafür sorgt, dass die Zeit vorwärts fließt. Sie untersuchten Computersimulationen von 1.000-Punkt-Teilchen, die unter dem Einfluss der Newtonschen Schwerkraft miteinander interagieren. Es stellt sich heraus, dass Partikel unabhängig von ihrer Größe oder Größe schließlich einen Zustand geringer Komplexität mit einer minimalen Größe und einer maximalen Dichte bilden. Dieses Partikelsystem dehnt sich dann in beide Richtungen aus und erzeugt zwei symmetrische und entgegengesetzte „Zeitpfeile“ und damit geordnetere und komplexere Strukturen auf beiden Seiten.

Dies deutet darauf hin, dass der Urknall nicht nur zur Entstehung eines, sondern zweier Universen führte, in denen die Zeit jeweils in die entgegengesetzte Richtung fließt. Laut Barbour:

„Diese Zwei-Zukunfts-Situation würde eine einzige chaotische Vergangenheit in beide Richtungen aufweisen, was bedeutet, dass es im Wesentlichen zwei Universen auf jeder Seite des Zentralstaates gäbe. Wenn sie komplex genug sind, unterstützen beide Seiten Beobachter, die den Zeitablauf rückwärts wahrnehmen können. Jedes intelligente Wesen definiert seinen Zeitpfeil als Abkehr vom Zentralstaat. Sie werden denken, dass wir jetzt in ihrer fernen Vergangenheit leben.“

Konforme zyklische Kosmologie

Sir Roger Penrose, ein Physiker an der Universität Oxford, glaubt, dass der Urknall nicht der Anfang des Universums war, sondern nur ein Übergang, der Zyklen der Expansion und Kontraktion durchlief. Penrose schlug vor, dass sich die Geometrie des Raums im Laufe der Zeit ändert und immer komplexer wird, wie durch das mathematische Konzept des Weyl-Krümmungstensors beschrieben, der bei Null beginnt und mit der Zeit zunimmt. Er glaubt, dass Schwarze Löcher dadurch wirken, dass sie die Entropie des Universums reduzieren, und wenn die Entropie das Ende ihrer Expansion erreicht, verbrauchen die Schwarzen Löcher Materie und Energie und schließlich auch einander. Wenn Materie in Schwarzen Löchern zerfällt, verschwindet sie durch den Prozess der Hawking-Strahlung, der Raum wird homogen und mit nutzloser Energie gefüllt.

Dies führt zum Konzept der konformen Invarianz, der Symmetrie von Geometrien mit unterschiedlichen Maßstäben, aber gleicher Form. Wenn das Universum seine ursprünglichen Bedingungen nicht mehr erfüllen kann, glaubt Penrose, dass eine konforme Transformation die Geometrie des Raums glätten wird und die degradierten Teilchen in einen Zustand der Null-Entropie zurückkehren werden. Das Universum kollabiert in sich selbst und ist bereit, in einen weiteren Urknall auszubrechen. Daraus folgt, dass das Universum durch einen sich wiederholenden Prozess der Expansion und Kontraktion gekennzeichnet ist, den Penrose in Perioden einteilte, die „Äonen“ genannt wurden.

Panrose und sein Partner, Vahagn (Vage) Gurzadyan vom Yerevan Physical Institute in Armenien, sammelten NASA-Satellitendaten über das CMB und sagten, sie hätten in den Daten 12 verschiedene konzentrische Ringe gefunden, die ihrer Meinung nach ein Beweis für Gravitationswellen sein könnten, die durch eine Kollision verursacht wurden supermassereiche Schwarze Löcher am Ende des vorherigen Äons. Bisher ist dies der Hauptbeweis der Theorie der konformen zyklischen Kosmologie.

Der kalte Urknall und das sich zusammenziehende Universum

Das Standard-Urknallmodell besagt, dass sich die gesamte Materie, nachdem sie aus der Singularität explodierte, zu einem heißen, dichten Universum aufblähte und über Milliarden von Jahren langsam abzukühlen begann. Diese Singularität wirft jedoch eine Reihe von Problemen auf, wenn versucht wird, sie in die Allgemeine Relativitätstheorie und die Quantenmechanik einzubinden. Daher hat der Kosmologe Kristof Wetterich von der Universität Heidelberg vorgeschlagen, dass das Universum möglicherweise als kalter, riesiger leerer Raum begann, der nur deshalb aktiv wird es zieht sich zusammen, anstatt sich gemäß dem Standardmodell auszudehnen.

In diesem Modell könnte die von Astronomen beobachtete Rotverschiebung durch die zunehmende Masse des Universums bei seiner Kontraktion verursacht werden. Das von Atomen emittierte Licht wird durch die Masse der Teilchen bestimmt, wobei mehr Energie erscheint, wenn sich das Licht in Richtung des blauen Teils des Spektrums bewegt, und weniger in Richtung des roten.

Das Hauptproblem bei Wetterichs Theorie besteht darin, dass sie nicht durch Messungen bestätigt werden kann, da wir nur die Verhältnisse verschiedener Massen vergleichen und nicht die Massen selbst. Ein Physiker beklagte, dass dieses Modell der Aussage gleichkäme, dass sich nicht das Universum ausdehnt, sondern das Lineal, mit dem wir es messen, sich zusammenzieht. Wetterich sagte, dass er seine Theorie nicht als Ersatz für den Urknall betrachte; Er bemerkte lediglich, dass dies mit allen bekannten Beobachtungen des Universums korreliere und eine „natürlichere“ Erklärung sein könnte.

Carter-Kreise

Jim Carter ist ein Amateurwissenschaftler, der eine persönliche Theorie über das Universum entwickelt hat, die auf einer ewigen Hierarchie von „Zirklonen“, hypothetischen runden mechanischen Objekten, basiert. Er glaubt, dass die gesamte Geschichte des Universums als Generationen von Zirlonen erklärt werden kann, die sich durch einen Prozess der Reproduktion und Teilung entwickelten. Zu diesem Schluss kam der Wissenschaftler, nachdem er beim Sporttauchen in den 1970er-Jahren einen perfekten Blasenring aus seinem Atemgerät beobachtet hatte, und verfeinerte seine Theorie mit Experimenten mit kontrollierten Rauchringen, Mülltonnen und Gummiplatten. Carter betrachtete sie als die physische Verkörperung eines Prozesses namens Zirlon-Synchronizität.

Er sagte, dass die zirkonische Synchronizität eine bessere Erklärung für die Entstehung des Universums sei als die Urknalltheorie. Seine Theorie eines lebenden Universums geht davon aus, dass es schon immer mindestens ein Wasserstoffatom gegeben hat. Am Anfang schwebte ein einzelnes Antiwasserstoffatom in einem dreidimensionalen Hohlraum. Dieses Teilchen hatte die gleiche Masse wie das gesamte Universum und bestand aus einem positiv geladenen Proton und einem negativ geladenen Antiproton. Das Universum befand sich in vollkommener Dualität, aber das negative Antiproton dehnte sich gravitativ etwas schneller aus als das positive Proton, was dazu führte, dass es relative Masse verlor. Sie dehnten sich aufeinander zu, bis das negative Teilchen das positive absorbierte und sie ein Antineutron bildeten.

Auch das Antineutron hatte ein Ungleichgewicht in der Masse, kehrte jedoch schließlich ins Gleichgewicht zurück, wodurch es sich in zwei neue Neutronen aus einem Teilchen und einem Antiteilchen aufspaltete. Dieser Prozess führte zu einem exponentiellen Anstieg der Zahl der Neutronen, die teilweise nicht mehr gespalten, sondern in Photonen vernichtet wurden, die die Grundlage der kosmischen Strahlung bildeten. Letztendlich wurde das Universum zu einer Masse stabiler Neutronen, die eine gewisse Zeit lang existierten, bevor sie zerfielen. Dadurch konnten sich Elektronen erstmals mit Protonen verbinden, die ersten Wasserstoffatome bilden und das Universum mit Elektronen und Protonen füllen, die aktiv miteinander interagierten und neue Atome bildeten Elemente.

Ein bisschen Wahnsinn kann nicht schaden. Die meisten Physiker halten Carters Ideen für das Delirium eines unausgeglichenen Menschen, das nicht einmal empirisch untersucht werden kann. Carters Rauchringexperimente dienten vor 13 Jahren als Beweis für die mittlerweile diskreditierte Äthertheorie.

Plasma-Universum

Während in der Standardkosmologie die Schwerkraft die wichtigste bestimmende Kraft bleibt, wird in der Plasmakosmologie (in der Theorie des elektrischen Universums) ein großer Schwerpunkt auf den Elektromagnetismus gelegt. Einer der ersten Befürworter dieser Theorie war der russische Psychiater Immanuel Velikovsky, der 1946 eine Arbeit mit dem Titel „Raum ohne Schwerkraft“ schrieb, in der er feststellte, dass die Schwerkraft ein elektromagnetisches Phänomen ist, das aus der Wechselwirkung zwischen den Ladungen der Atome, den freien Ladungen, resultiert und die Magnetfelder der Sonne und der Planeten. Diese Theorien wurden in den 70er Jahren von Ralph Jürgens weiterentwickelt, der argumentierte, dass Sterne eher auf elektrischen als auf thermonuklearen Prozessen basieren.

Es gibt viele Iterationen der Theorie, aber einige Elemente bleiben gleich. Theorien zum Plasmauniversum gehen davon aus, dass die Sonne und die Sterne durch Driftströme elektrisch angetrieben werden, dass bestimmte Merkmale der Planetenoberfläche durch „Superblitze“ verursacht werden und dass Kometenschweife, Marsstaubteufel und Galaxienbildung allesamt elektrische Prozesse sind. Diesen Theorien zufolge ist der Weltraum mit riesigen Fäden aus Elektronen und Ionen gefüllt, die sich aufgrund der Wirkung elektromagnetischer Kräfte im Weltraum verdrehen und physische Materie wie Galaxien erzeugen. Plasmakosmologen gehen davon aus, dass das Universum unendlich groß und alt ist.

Eines der einflussreichsten Bücher zu diesem Thema war „The Big Bang Never Happened“ von Eric Lerner aus dem Jahr 1991. Er argumentierte, dass die Urknalltheorie die Dichten leichter Elemente wie Deuterium, Lithium-7 und Helium-4 falsch vorhergesagt habe, dass die Hohlräume zwischen Galaxien zu groß seien, um durch den Zeitrahmen der Urknalltheorie erklärt zu werden, und dass die Oberflächenhelligkeit von Es wurde beobachtet, dass die Helligkeit entfernter Galaxien konstant ist, wohingegen diese Helligkeit in einem expandierenden Universum aufgrund der Rotverschiebung mit der Entfernung abnehmen sollte. Er argumentierte auch, dass die Urknalltheorie zu viele Hypothesen benötige (Inflation, dunkle Materie, dunkle Energie) und gegen das Gesetz der Energieerhaltung verstoße, da das Universum angeblich aus dem Nichts entstanden sei.

Im Gegenteil, sagt er, sagt die Plasmatheorie die Häufigkeit leichter Elemente, die makroskopische Struktur des Universums und die Absorption von Radiowellen, die den kosmischen Mikrowellenhintergrund verursachen, korrekt voraus. Viele Kosmologen argumentieren, dass Lerners Kritik an der Urknall-Kosmologie auf Konzepten beruht, die zum Zeitpunkt der Abfassung seines Buches als falsch galten, und auf seiner Erklärung, dass die Beobachtungen der Urknall-Kosmologen mehr Probleme mit sich bringen, als sie lösen können.

Bindu Whipshot

Bisher haben wir religiöse oder mythologische Schöpfungsgeschichten nicht berührt, machen aber für die hinduistische Schöpfungsgeschichte eine Ausnahme, da sie leicht mit wissenschaftlichen Theorien verknüpft werden kann. Carl Sagan sagte einmal, es sei „die einzige Religion, deren Zeitrahmen der modernen wissenschaftlichen Kosmologie entspricht“. Seine Zyklen reichen von unserem normalen Tag und unserer normalen Nacht bis zu Brahmas 8,64 Milliarden Jahren Tag und Nacht. Länger als die Erde oder die Sonne existiert, fast die Hälfte der Zeit seit dem Urknall.“

Der traditionellen Vorstellung vom Urknall des Universums am nächsten kommt das hinduistische Konzept von Bindu-Vipshot (wörtlich „Punktexplosion“ auf Sanskrit). In den vedischen Hymnen des alten Indien heißt es, dass der Bindu-Vipshot Schallwellen der Silbe „om“ erzeugte, was Brahman, die absolute Realität oder Gott bedeutet. Das Wort „Brahman“ hat die Sanskrit-Wurzel brh, was „großes Wachstum“ bedeutet, was laut der Schrift Shabda Brahman mit dem Urknall in Verbindung gebracht werden kann. Der erste Ton „om“ wird als Schwingung des Urknalls interpretiert, die von Astronomen in Form der kosmischen Mikrowellen-Hintergrundstrahlung nachgewiesen wurde.

Die Upanishaden erklären den Urknall als den Wunsch eines (Brahman), Viele zu werden, was er durch den Urknall als Willensanstrengung erreichte. Die Schöpfung wird oft als Lila oder „göttliches Spiel“ dargestellt, in dem Sinne, dass das Universum als Teil des Spiels erschaffen wurde und auch der Start in den Urknall ein Teil davon war. Aber wird das Spiel interessant sein, wenn es einen allwissenden Spieler gibt, der weiß, wie es ausgehen wird?


Das Universum ist ein Hologramm

Wir sind es gewohnt, die Welt dreidimensional wahrzunehmen. Wissenschaftler des Enrico Fermi National Laboratory des US-Energieministeriums haben jedoch vermutet, dass das Universum ein Hologramm ist, das heißt, es erscheint nur voluminös, tatsächlich ist es aber flach. Ihrer Hypothese zufolge kann die Raumzeit in Form winziger Blöcke dargestellt werden, wie ein aus Pixeln bestehendes Bild auf einem Bildschirm. Jeder dieser Blöcke ist so winzig, dass selbst kleinere Längen einfach keine physikalische Bedeutung haben.

Laborleiter Craig Hogan und seine Kollegen versuchen zu beweisen, dass die Raumzeit wie Materie und Energie ein Quantensystem ist und durch Wellen gebildet wird. Zu diesem Zweck bauten sie ein Gerät namens Holometer zusammen. Das Holometer sendet zwei leistungsstarke Laserstrahlen aus, die abwechselnd konvergieren und divergieren. Wenn ihre Helligkeit schwankt, bestätigt dies, dass auch die Raumzeit schwankt, also die Eigenschaften einer zweidimensionalen Welle hat. Das Experiment begann letzten Sommer und wird etwa ein Jahr dauern. Wie sich dies auf die Menschheit auswirken wird, ist schwer zu sagen. Wenn die Vermutung der Fermilab-Physiker jedoch richtig ist, dann ist die Menge an Informationen im Universum endlich und daher gibt es eine Grenze für alles, was wir messen, denken und tun können.


Quantenschaum
wie der Stoff des Universums

Die Raumzeit erscheint kontinuierlich und glatt, aber möglicherweise funktioniert es auf der Mikroebene ganz anders. 1955 schlug der Physiker John Wheeler das Konzept des Quantenschaums vor. Dieses Konzept basiert auf der Annahme, dass es neben gewöhnlichen Teilchen auch virtuelle Teilchen gibt, die aus Energie entstehen und gemäß der Heisenbergschen Unschärferelation vernichten. Diese Prozesse führen zu Quantenfluktuationen, die zu einer Krümmung der Raumzeit auf der Skala von Planck-Größen führen.

Das Konzept des Quantenschaums zeichnet erstaunliche Bilder wie winzige Schwarze Löcher und Wurmlöcher, die aus der Wechselwirkung virtueller Teilchen entstehen, und kann bei der Erklärung der Entstehung des Universums und seiner Struktur hilfreich sein. Beweisen oder widerlegen ist es allerdings bislang nicht gelungen – manche Wissenschaftler bezweifeln, dass es virtuelle Teilchen überhaupt gibt.


Unser Universum ist das Ergebnis einer Kollision dreidimensionaler Welten

Das von Paul Steinhardt und Neil Turok vorgeschlagene Modell ähnelt der Urknalltheorie. schließt aber den Urknall selbst aus. Die Forscher sind sich einig, dass sich das Universum in den letzten 15 Milliarden Jahren ausdehnte und abkühlte, glauben jedoch, dass es davor keine Singularität gab. Ihrer Meinung nach war das Universum zunächst kalt und fast leer und hoch, aber durch die Kollision zweier dreidimensionaler Welten – Branen, die sich entlang einer anderen, verborgenen Dimension bewegten – wurden ihm endliche Temperatur und Dichte verliehen. Die Kollision ereignete sich nicht an verschiedenen Punkten gleichzeitig, da das Universum heterogen ist – so könnten Galaxien entstehen.

Das ekpirotische Modell basiert auf der Stringtheorie und geht daher von der Existenz anderer Welten aus. Allerdings können wir sie nicht beobachten, da Partikel und Licht dort nicht eindringen. Im Jahr 2002 erweiterten Steinhardt und Turok ihr Modell und nannten es zyklisch. Demnach trennen sich die Branes nach einer Kollision, laufen dann wieder zusammen und so weiter bis ins Unendliche.


Die Raumzeit ist eine supraflüssige Flüssigkeit

Die Hauptaufgabe der modernen Physik besteht darin, Widersprüche zu beseitigen zwischen allgemeiner Relativitätstheorie und Quantenmechanik. Einige Forscher glauben, dass die Vorstellung, dass die Raumzeit eine supraflüssige Flüssigkeit ist, dabei helfen wird, sie loszuwerden. Der Physiker Ted Jacobson verglich die Raumzeit mit Wasser. Einzelne Wassermoleküle besitzen seine Eigenschaften nicht, definieren sie aber dennoch. Stefano Liberati und Luca Maccione beschlossen, die Hypothese mithilfe von Lichtquanten zu testen. Sie vermuteten, dass sich die Raumzeit nur in besonderen Fällen wie eine Flüssigkeit verhält, beispielsweise bei hochenergetischen Photonen. Solche Photonen sollten über weite Strecken Energie verlieren, ähnlich wie gedämpfte Wellen in anderen Medien.

Liberati und Maccione überwachten die Strahlung eines Supernova-Überrests im Krebsnebel, der 6.500 Lichtjahre von der Erde entfernt liegt. Sie fanden keine Anomalien und kamen zu dem Schluss, dass die Fluideffekte der Raumzeit entweder extrem schwach oder nicht vorhanden waren. Wenn die Photonen jedoch tatsächlich Energie verlieren würden, würde dies bedeuten, dass die Lichtgeschwindigkeit im Vakuum nicht konstant ist, was der allgemeinen Relativitätstheorie widerspricht. Liberati und Maccione haben das Konzept nicht verworfen. Allerdings hoffen selbst Befürworter der Idee, dass die Raumzeit eine supraflüssige Flüssigkeit sei, nicht wirklich auf eine Bestätigung.


Universen
in schwarzen Löchern

Mit Ausnahme der Nolan-Brüder wissen die Menschen nicht, was sich in Schwarzen Löchern befindet. Laut Nikodem Poplavsky führen sie in andere Universen. Einstein glaubte, dass Materie, die in ein Schwarzes Loch fällt, zu einer Singularität komprimiert wird. Nach den Gleichungen von Poplavsky befindet sich am anderen Ende eines Schwarzen Lochs ein Weißes Loch – ein Objekt, aus dem lediglich Materie und Licht ausgestoßen werden. Dieses Paar bildet ein Wurmloch, und alles, was von einer Seite eintritt und von der anderen wieder herauskommt, bildet eine neue Welt. Anfang der 1990er Jahre stellte der Physiker Lee Smolin eine ähnliche und etwas seltsamere Hypothese auf: Er glaubte ebenfalls an Universen auf der anderen Seite des Schwarzen Lochs, glaubte jedoch, dass sie einem Gesetz wie der natürlichen Selektion gehorchten: Sie reproduzierten und mutierten im Laufe der Zeit Evolution.

Poplavskys Theorie kann mehrere „dunkle“ Orte in der modernen Physik klären: zum Beispiel, woher die kosmologische Singularität vor dem Urknall und den Gammastrahlenausbrüchen am Rande unseres Universums kam oder warum das Universum nicht kugelförmig ist, sondern offenbar Wohnung. Kritiker des Wissenschaftlers weisen darauf hin, dass die Natur der Primärwelt, aus der alle anderen Universen entstanden sind, immer noch ein Rätsel bleibt. Allerdings halten selbst Skeptiker Poplavskys Hypothese nicht für weniger plausibel als Einsteins Vermutung über die Singularität.