Das Problem der Entwicklung wissenschaftlicher Erkenntnisse – grundlegende Ansätze. Das Problem der wissenschaftlichen Entwicklung: grundlegende Ansätze. Und kultureller Relativismus

Das Problem der Entwicklung wissenschaftlicher Erkenntnisse

Wissenschaft ist ein sich entwickelndes Phänomen. In diesem Zusammenhang werden eine Reihe von Positionen zu zentralen Problemen seiner Entwicklung hervorgehoben.

Das Konzept der kontinuierlichen sequentiellen Anhäufung neuer Fakten und Ideen findet derzeit nicht viele Befürworter.

Das Konzept von Thomas Kuhn (1922-1996) basiert auf dem Konzept eines Paradigmas, das darstellt spezieller Weg Organisation von Wissen. Dieses anerkannte System von Wissen und Errungenschaften prägt den Charakter der Weltanschauung. Das Paradigma bestimmt die Trends in der Entwicklung der wissenschaftlichen Forschung. Im Rahmen des Paradigmas werden Richtlinien, Bedingungen und Voraussetzungen im Prozess der Konstruktion und Begründung verschiedener Theorien geschaffen.

In der Wissenschaftsgeschichte identifizierte T. Kuhn Paradigmen wie die ptolemäische Astronomie, die Newtonsche Mechanik usw. Die Entwicklung von Wissen im Rahmen des Paradigmas wird als „normale Wissenschaft“ bezeichnet; der Paradigmenwechsel wird als „wissenschaftliche Revolution“ bezeichnet. Als Beispiel für Letzteres kann daher der Wechsel von der klassischen Physik (Newton) zur relativistischen Physik (Einstein) angesehen werden.

In einem kritischen Moment kann das alte Paradigma durch mehrere Optionen ersetzt werden. Die Wahl einer neuen Option hängt von einer Kombination von Umständen ab.

Das Konzept der Entwicklung der Wissenschaft von Imre Lakatos (1922-1974) geht davon aus, dass die Entwicklung der Wissenschaft auf der Grundlage einer rationalen Wahl und des Wettbewerbs von Forschungsprogrammen erfolgen sollte. Die Verdrängung eines Programms durch ein anderes ist eine wissenschaftliche Revolution .

Er schlug die folgende Struktur der Forschungsprogramme vor:

- „harter Kern“(unwiderlegbar Ausgangspunkte);

- „negative Heuristik“(Hilfshypothesen und Annahmen, die Widersprüche auflösen);

- „positive Heuristik“(Regeln für die Änderung und Weiterentwicklung des Forschungsprogramms).

Der Wettbewerb zwischen Forschungsprogrammen ist die Hauptquelle der wissenschaftlichen Entwicklung.

So verweisen sowohl T. Kuhn als auch I. Lakatos auf Schlüsselmomente in der Wissenschaftsgeschichte, wissenschaftliche Revolutionen.

Unter Berücksichtigung der Tatsache, dass wissenschaftliche Revolution- Dies ist eine Veränderung des gesamten wissenschaftlichen Weltbildes, in dem wesentliche Elemente Wissenschaftliche Erkenntnisse werden in verallgemeinerter Form dargestellt, es lassen sich drei wissenschaftliche Revolutionen unterscheiden, die zur Entstehung von drei naturwissenschaftlichen Weltbildern führten. Nach den Namen der Wissenschaftler, die bei diesen Ereignissen die größte Rolle spielten, kann man sie Aristoteliker, Newtonianer und Einsteinianer nennen. Dementsprechend wurde das antike naturwissenschaftliche Weltbild durch ein klassisches und dann durch ein nichtklassisches ersetzt.

Bei der Betrachtung der Frage nach Faktoren und Dominanten bei der Entwicklung wissenschaftlicher Erkenntnisse kann man Richtungen wie Internalismus, Externalismus und das dialektische Konzept unterscheiden.

Der Internalismus schlägt intrawissenschaftliche Faktoren als Hauptgründe für die Dynamik wissenschaftlicher Erkenntnisse vor. Die Geschichte der Wissenschaft wird als Geschichte der Ideen betrachtet. Dieses Konzept konzentriert sich auf die Analyse interner Ziele, Mittel und Muster, die wissenschaftlichen Erkenntnissen innewohnen, abstrahiert von sozialen Faktoren, da es seine eigene Logik in der Entwicklung wissenschaftlicher Ideen sieht. Wissenschaftliches Wissen als sich selbst entwickelndes System mit seiner inneren Entwicklungslogik kann nur den äußeren Einfluss soziokultureller Trends erfahren (Änderung der Geschwindigkeit, Richtung der Entwicklung), die immanente Entwicklungslogik bleibt jedoch unverändert. Prominente Vertreter des Internalismus sind A. Koyre, R. Hall, P. Rossi und später postpositivistische Wissenschaftsphilosophen wie I. Lakatos und K. Popper. So identifizierte K. Popper drei unabhängige Realitäten: die physische Welt, die mentale Welt und die Welt des Wissens, wobei letztere vom Menschen geschaffen wurde, aber ab einem bestimmten Moment zu einer Art objektiver Realität mit eigenen Entwicklungsgesetzen wird. Der Einfluss sozialer Faktoren ist seiner Meinung nach äußerlich und hat keinen Einfluss auf den eigentlichen Inhalt wissenschaftlicher Erkenntnisse.

Im Gegensatz zur ersten Richtung betrachtet der Externalismus die Geschichte der Wissenschaft als sozialer Prozess. Externalisten glauben, dass die Hauptquelle der Innovation in der Wissenschaft die sozialen Bedürfnisse und kulturellen Ressourcen der Gesellschaft, ihr materielles und spirituelles Potenzial sind. Bei der Analyse der Wissenschaft sollte sich die Forschung darauf konzentrieren, zu untersuchen, wie gesellschaftliche Anforderungen die Themen der wissenschaftlichen Forschung, die Förderung bestimmter Probleme in den Vordergrund, die Finanzierung bestimmter Bereiche der Naturwissenschaften usw. beeinflusst haben. Die Ideen des Externalismus wurden von R. Merton, D. Bernal, A. Crombie, G. Gerlak, E. Zilzel, J. Nydam und S. Lily verteidigt.

Es kam zu Diskussionen zwischen Vertretern zweier methodischer Richtungen lebhafte Diskussionen. Allerdings sind sowohl der Internalismus, der die Rolle intrawissenschaftlicher Faktoren bei der Entwicklung wissenschaftlicher Erkenntnisse verabsolutiert, als auch der Externalismus, der die Rolle soziokultureller Faktoren verabsolutiert, gleichermaßen unhaltbar. Am akzeptabelsten ist in dieser Hinsicht ein dialektisches Konzept, das die Wechselbeziehung und Interaktion intrawissenschaftlicher und soziokultureller Faktoren als gleichermaßen notwendige Determinanten der Dynamik wissenschaftlichen Wissens darstellt. Das dialektische Konzept verbreitete sich in den Ansichten von A. Einstein, M. Born, M. Planck, I.T. Frolova, P.P. Gaidenko, V.S. Stepina und andere.

Rücksichtnahme wissenschaftliche und technologische Entwicklung Als komplexer Prozess können wir einige Muster seiner soziokulturellen Dynamik identifizieren.

So verzeichneten viele Forscher (F. Richtmyer, J. Price, N. Rescher, G. Monard, G. Dobrov usw.) einst ein exponentielles Wachstum verschiedener quantitativer Indikatoren der Entwicklung der Wissenschaft. D. Price schrieb: „Seit etwa 1700 ist die Zahl der Zeitschriften natürlich um 5 Prozent pro Jahr gewachsen. Dadurch verdoppelt sich die Anordnung alle 15 Jahre und zehnmal alle 50 Jahre, was einer Gesamtzunahme von 100.000 seit 1700 entspricht“ (D. Price. The Science of Science // Bulletin of the Atomic Scientis, 1965, Okt., Nr. 8, Bd 21, S. 6).

Bei einer detaillierteren Analyse der Trends in der Entwicklung der Wissenschaft, die nicht nur quantitative Parameter, sondern auch qualitative Aspekte, die das kognitive Wesen der Wissenschaft bestimmen, berücksichtigt, wurde jedoch festgestellt, dass mit dem exponentiellen Wachstum der Massenproduktion die Zahl steigt von großen Entdeckungen, die eine Art Meilenstein in der Geschichte des einen oder anderen darstellen wissenschaftliche Disziplin, wächst nicht exponentiell, sondern nur nach einem linearen Gesetz. Ein Beispiel für die lineare Akkumulation erstklassiger Leistungen in der Wissenschaft ist die Konstanz der Zahl Nobelpreise und andere prestigeträchtige Auszeichnungen, die Jahr für Jahr verliehen werden.

Dieses Phänomen steht im Einklang mit Rousseaus Gesetz, das er im „Gesellschaftsvertrag“ formuliert hat. Nach diesem Gesetz gibt es in jeder Menge von Phänomenen derselben Art einen Eliteteil, dessen Anzahl der Quadratwurzel der Gesamtzahl der Menge entspricht.



Es sei darauf hingewiesen, dass dieser Aspekt von Rousseaus Ansichten lange Zeit keine Aufmerksamkeit verdiente und sich in der russischen Literatur praktisch nicht widerspiegelte.

Basierend auf den Ideen von Rousseau kommt Avdulov A.N. bei der Untersuchung des aktuellen Stadiums der Integration von Wissenschaft und Produktion zu dem Schluss, dass bei einem exponentiellen Anstieg der in die Entwicklung des wissenschaftlichen und technischen Bereichs investierten Ressourcen das Ergebnis, gemessen an der Anzahl der erstklassige Entdeckungen und Erfindungen, Veränderungen linear (Avdulov A.M. Die moderne Stufe der Integration von Wissenschaft und Produktion // Soziologische Forschung. – 1995. – Nr. 7, S. 18).

Die lineare Veränderung der Zahl erstklassiger Entdeckungen und Erfindungen ermöglichte es N. Rescher, das sogenannte „Gesetz der logarithmischen Rendite“ zu formulieren und es wie folgt auszudrücken:

F(t) = К 1оg R(t),

wobei F(t) ein Maß für die Gesamtzahl erstklassiger Ergebnisse ist; R(t) – Gesamtvolumen der Ressourcen; ZU - konstanter Koeffizient, dessen Wert vom spezifischen Inhalt der Variablen R abhängt. (Rescher N. Wissenschaftlicher Fortschritt. Ein philosophischer Aufsatz zur Ökonomie der naturwissenschaftlichen Forschung. Oxford, 1978. V. XIV).

Seiner Meinung nach spiegelt dieses Gesetz „die permanente und allgemeine Struktursituation in der wissenschaftlichen Produktion wider und kann zur Beurteilung dieser Situation nicht nur innerhalb der Grenzen verwendet werden, die auf den Zeitraum des exponentiellen Wachstums der wissenschaftlichen Bemühungen beschränkt sind, sondern auch über diese Grenzen hinaus.“ Es zeigt, was beobachtet wurde letzten Jahrzehnte Der exponentielle Anstieg der Parameter, die wissenschaftliche Anstrengungen charakterisieren (menschliche und materielle Ressourcen), kann als notwendige Folge des Wunsches angesehen werden, das Tempo des wissenschaftlichen Fortschritts auf einem annähernd konstanten Niveau zu halten.“ (Rescher N. Wissenschaftlicher Fortschritt. Ein philosophischer Aufsatz zur Ökonomie der naturwissenschaftlichen Forschung. Oxford, 1978. V. XIV, S. 32).

Die Entwicklung der Wissenschaft ist durch abwechselnde Kumulationsprozesse (quantitative Akkumulation) und qualitative Sprünge (wissenschaftliche Revolutionen) gekennzeichnet.

Die Geschichte der Wissenschaft veranschaulicht die Kombination von Differenzierungs- und Integrationsprozessen. Durch die Entwicklung neuer Realitätsbereiche und die Vertiefung des Wissens wird die Wissenschaft in immer spezialisiertere Wissensbereiche fragmentiert, was den Kern des Differenzierungsprozesses ausmacht. Gleichzeitig kommt die Notwendigkeit einer Synthese des Wissens immer wieder in der Tendenz zur Integration der Wissenschaft zum Ausdruck.

Die weltanschauliche Einschätzung der Wissenschaft drückt sich in den Konzepten des Szientismus und des Antiszientismus aus. Der Szientismus verabsolutiert den Stil und die allgemeinen Methoden der „exakten“ Wissenschaften. Wissenschaft wird als höchster kultureller Wert anerkannt, während sozialen, humanitären und ideologischen Fragen keine kognitive Bedeutung beigemessen wird.

Der Antiszientismus hingegen geht von der Position aus, dass die Wissenschaft bei der Lösung grundlegender menschlicher Probleme grundsätzlich begrenzt ist. In ihren extremen Ausprägungen bewerten ihre Vertreter die Wissenschaft als eine menschenfeindliche Kraft und sprechen ihr einen positiven Einfluss auf die Kultur ab.

Diese Positionen finden ihren Ausdruck in Fragen der Zukunft der Wissenschaft: Der Antiszientismus verurteilt die Wissenschaft entweder zum Aussterben oder zur ewigen Konfrontation mit dem anthropologisch interpretierten menschlichen Wesen; der Szientismus sieht in ihr die einzige Sphäre der spirituellen Kultur, die ihr „Nicht-Rationales“ absorbieren wird " Bereiche.

Diese Positionen sind als extrem einzuschätzen; heute ist eine adäquate Einschätzung der Rolle der Wissenschaft notwendig, die sich in einer Reihe moderner wissenschaftsphilosophischer Studien widerspiegelt.

Schlussfolgerungen zum Thema

Angesichts der Vielfalt der Standpunkte zum Problem der Genese wissenschaftlicher Erkenntnisse sollte man sich mit der Position befassen, die die Entstehung des ersten theoretischen Modells in der Naturwissenschaft als Kriterium für die Genese der Wissenschaft definiert. So entstand in der Neuzeit die Wissenschaft mit ihren spezifischen rationalen Erkenntnismethoden.

Wenn man Wissenschaft als sich entwickelndes Phänomen betrachtet, kann man eine Reihe kultureller und historischer Typen unterscheiden, die mit der sogenannten Vorwissenschaft verbunden sind – der Zeit der Entstehung wissenschaftlicher Erkenntnisse selbst (vor dem 17. Jahrhundert). Die Wissenschaft als integrales Phänomen entsteht in der Neuzeit und durchläuft folgende Phasen: klassisch (17.-19. Jahrhundert); nicht-klassisch (erste Hälfte des 20. Jahrhunderts); post-nicht-klassisch (beginnt ab der zweiten Hälfte des 20. Jahrhunderts).

Allgemeine Modelle der Wissenschaftsentwicklung werden durch das paradigmatische Konzept (T. Kuhn) und das Konzept der Forschungsprogramme (I. Lakatos) repräsentiert.

Bei der Betrachtung der Frage nach Faktoren und Dominanten bei der Entwicklung wissenschaftlicher Erkenntnisse verabsolutiert der Internalismus die Rolle intrawissenschaftlicher Faktoren, der Internalismus – soziokulturelle. Die akzeptabelste allgemeine Theorie zur Entwicklung wissenschaftlicher Erkenntnisse ist das dialektische Konzept.

Fragen zur Selbstkontrolle

1. Analysieren Sie die wichtigsten Standpunkte zum Problem der Entstehung wissenschaftlicher Erkenntnisse.

2. Beschreiben Sie die wichtigsten historischen und kulturellen Arten der Wissenschaft.

3. Heben Sie die Besonderheiten der post-nichtklassischen Periode in der Entwicklung der Wissenschaft hervor.

4. Enthüllen Sie die Muster der Dynamik wissenschaftlicher Erkenntnisse.

5. Was ist die Essenz des paradigmatischen Konzepts von T. Kuhn?

6. Analysieren Sie das Konzept der Forschungsprogramme von I. Lakatos.

7. Welche Rolle spielt die wissenschaftliche Revolution bei der Entwicklung wissenschaftlicher Erkenntnisse?

8. Was ist der Unterschied? methodische Ansätze Internalismus und Externalismus? Bewerten Sie die vorgestellten Konzepte.

Abstrakte Themen

1. Die Bedeutung und Ursprünge wissenschaftlicher Revolutionen.

2. Probleme der Periodisierung der Wissenschaftsgeschichte.

3. Klassische und nichtklassische Wissenschaft. Merkmale des Denkstils in der Wissenschaft des 20. Jahrhunderts.

4. Moderne Prozesse der wissenschaftlichen Wissensübersetzung.

5. Szientismus und Antiszientismus bei der Beurteilung der Rolle der Wissenschaft.

6. Differenzierung und Integration in der Wissenschaft. Methodische Einheit und Vielfalt der modernen Wissenschaft.

7. Die Beziehung zwischen wissenschaftlichen und technischen Revolutionen.

In der Definition zentrales Problem Es gibt einige Diskrepanzen in der Wissenschaftsphilosophie. Laut dem berühmten Wissenschaftsphilosophen F. Frank „ist das zentrale Problem der Wissenschaftsphilosophie die Frage, wie wir von Aussagen des gewöhnlichen gesunden Menschenverstandes zu allgemeinen Aussagen gelangen.“ wissenschaftliche Grundsätze„K. Popper glaubte, dass das zentrale Problem der Wissensphilosophie, zumindest beginnend mit der Reformation, darin bestand, wie es möglich ist, die weitreichenden Ansprüche konkurrierender Theorien oder Überzeugungen zu begründen oder zu bewerten.“ „Ich“, schrieb K. Popper „Nennen Sie ihr erstes Problem. Es führte historisch gesehen zu dem zweiten Problem: Wie können wir unsere Theorien und Überzeugungen rechtfertigen (rechtfertigen)? eindeutig oder durch denselben Satz experimenteller Daten bestimmt, kann zu verschiedenen allgemeinen Bestimmungen führen? Wie kann man wissenschaftlich von nichtwissenschaftlich unterscheiden? Was sind die Kriterien für die Wissenschaftlichkeit, die Möglichkeit der Rechtfertigung? Wie finden wir die Gründe, an die wir glauben? dass eine Theorie besser ist als eine andere? Was ist die Logik wissenschaftlichen Wissens? Was sind die Modelle seiner Entwicklung? All diese und viele andere Formulierungen sind organisch in das Gefüge der philosophischen Reflexion über die Wissenschaft eingewoben und, was noch wichtiger ist, erwachsen daraus zentrales Problem der Wissenschaftsphilosophie – das Problem des Wachstums wissenschaftlicher Erkenntnisse.

Alle Probleme der Wissenschaftsphilosophie lassen sich in drei Untertypen einteilen. Die ersten umfassen Probleme, die von der Philosophie zur Wissenschaft kommen und deren Richtungsvektor auf den Besonderheiten basiert philosophisches Wissen. Denn die Philosophie strebt nach einem universellen Verständnis der Welt und ihrer Erkenntnis allgemeine Grundsätze, dann werden diese Absichten von der Wissenschaftsphilosophie geerbt. IN in diesem Kontext Die Wissenschaftsphilosophie befasst sich mit der Reflexion der Wissenschaft in ihren tiefsten Tiefen und wahren Ursprüngen. Hier wird der konzeptionelle Apparat der Philosophie voll ausgenutzt, es ist eine bestimmte ideologische Position erforderlich.

Die zweite Gruppe entsteht innerhalb der Wissenschaft selbst und benötigt einen kompetenten Schiedsrichter, dessen Rolle die Philosophie ist. In dieser Gruppe sind die Probleme der kognitiven Aktivität als solche, die Reflexionstheorie, kognitive Prozesse und die eigentlichen „philosophischen Tipps“ zur Lösung paradoxer Probleme sehr eng miteinander verknüpft.

Die dritte Gruppe umfasst Probleme der Interaktion zwischen Wissenschaft und Philosophie unter Berücksichtigung ihrer grundlegenden Unterschiede und organischen Verflechtungen auf allen möglichen Anwendungsebenen. Die wissenschaftsgeschichtliche Forschung hat überzeugend gezeigt, wie das geht große Rolle spielt eine philosophische Weltanschauung in der Entwicklung der Wissenschaft. Der radikale Einfluss der Philosophie macht sich besonders in der Ära der sogenannten wissenschaftlichen Revolutionen bemerkbar, die mit der Entstehung der antiken Mathematik und Astronomie verbunden sind, der kopernikanischen Revolution – dem heliozentrischen System von Kopernikus, der Bildung eines klassischen wissenschaftlichen Bildes durch die Mikrophysik von Galileo -Newton, die Revolution in der Naturwissenschaft an der Wende vom 19. zum 20. Jahrhundert. usw. Mit diesem Ansatz umfasst die Wissenschaftsphilosophie Erkenntnistheorie, Methodologie und Soziologie des wissenschaftlichen Wissens, wobei die so skizzierten Grenzen der Wissenschaftsphilosophie nicht als endgültig, sondern als tendenziell zur Klärung und Veränderung zu betrachten sind.

Ein Paradigma in der Methodologie der Wissenschaft ist eine Reihe von Werten, Methoden, Ansätzen, technischen Fähigkeiten und Werkzeugen, die in der wissenschaftlichen Gemeinschaft im Rahmen einer etablierten wissenschaftlichen Tradition in einem bestimmten Zeitraum übernommen wurden.

Die Wissenschaft ist angekommen Hauptgrund eine so schnell verlaufende wissenschaftliche und technologische Revolution, der Übergang zu einer postindustriellen Gesellschaft, die flächendeckende Einführung Informationstechnologien, Aussehen " Neue Wirtschaft", für die die Gesetze der klassischen Wirtschaftstheorie, der Beginn der Übertragung menschlichen Wissens auf elektronisches Formular, so praktisch für die Speicherung, Systematisierung, Suche und Verarbeitung und vieles mehr.

All dies beweist überzeugend, dass die wichtigste Form des menschlichen Wissens – die Wissenschaft – heutzutage immer wichtiger und wesentlicher Teil der Realität wird.

Allerdings wäre die Wissenschaft nicht so produktiv, wenn sie nicht über ein so entwickeltes System von Methoden, Prinzipien und Wissensimperativen verfügen würde. Es ist die richtig gewählte Methode, gepaart mit dem Talent des Wissenschaftlers, die ihm hilft, den tiefen Zusammenhang von Phänomenen zu verstehen, ihr Wesen zu offenbaren, Gesetze und Gesetzmäßigkeiten zu entdecken. Die Zahl der Methoden, die die Wissenschaft entwickelt, um die Realität zu verstehen, nimmt ständig zu.

Spezifität und Struktur wissenschaftlicher Erkenntnisse.

Die Struktur des wissenschaftlichen Wissens umfasst die Grundelemente des wissenschaftlichen Wissens, den Wissensstand und die Grundlagen der Wissenschaft. Als Elemente wissenschaftlicher Erkenntnisse fungieren verschiedene Organisationsformen wissenschaftliche Informationen. Wissenschaftliche Erkenntnisse werden in speziellen Forschungsaktivitäten verwirklicht, einschließlich verschiedener Methoden zur Untersuchung eines Objekts, die wiederum in zwei Wissensebenen unterteilt sind – empirische und theoretische. Und schließlich gelten als wichtigster Punkt in der Struktur wissenschaftlichen Wissens derzeit die Grundlagen der Wissenschaft, die als deren theoretische Grundlage dienen.

Wissenschaftliches Wissen ist ein komplex organisiertes System, das vereint verschiedene Formen Organisation wissenschaftlicher Informationen: wissenschaftliche Konzepte und wissenschaftliche Fakten, Gesetze, Ziele, Prinzipien, Konzepte, Probleme, Hypothesen, Wissenschaftsprogramme usw. Das zentrale Bindeglied wissenschaftlichen Wissens ist die Theorie.

Je nach Eindringtiefe in das Wesen der untersuchten Phänomene und Prozesse werden zwei Ebenen wissenschaftlicher Erkenntnisse unterschieden – empirische und theoretische.

Zwischen theoretischem und empirischem Wissen besteht eine enge Beziehung und Wechselwirkung, die sich wie folgt zusammensetzt: Theoretisches Wissen basiert weitgehend auf empirisches Material Daher hängt der Entwicklungsstand der Theorie weitgehend vom Entwicklungsstand der empirischen Grundlagen der Wissenschaft ab; Andererseits wird die Entwicklung der empirischen Forschung maßgeblich von den Zielen und Vorgaben bestimmt, die durch theoretisches Wissen vorgegeben werden.

Bevor wir uns der Betrachtung der Methodik zuwenden, wollen wir kurz das dritte Element in der Struktur wissenschaftlichen Wissens charakterisieren – seine Grundlagen. Die Grundlagen wissenschaftlicher Erkenntnisse sind: 1) Ideale, Normen und Prinzipien der Forschung, 2) das wissenschaftliche Weltbild, 3) philosophische Ideen und Prinzipien. Sie bilden die theoretische Grundlage der Wissenschaft, auf der ihre Gesetze, Theorien und Hypothesen basieren.

Die Ideale und Normen der Forschung stellen Anforderungen an die in der Wissenschaft anerkannte wissenschaftliche Rationalität dar, die sich in der Gültigkeit und Evidenz wissenschaftlicher Aussagen sowie in Methoden der Beschreibung und wissenschaftlichen Erklärung, Konstruktion und Organisation von Wissen ausdrücken. Historisch gesehen haben sich diese Normen und Ideale aufgrund von verändert qualitative Veränderungen in der Wissenschaft (wissenschaftliche Revolutionen). Somit ist die wichtigste Norm der Rationalität wissenschaftlichen Wissens seine Systematik und Organisation. Dies kommt darin zum Ausdruck, dass jeder neues Ergebnis in der Wissenschaft basiert auf seinen bisherigen Leistungen; jede neue Position in der Wissenschaft wird auf der Grundlage bereits bewährter Aussagen und Bestimmungen abgeleitet. Als Ideale und Normen wissenschaftlicher Erkenntnisse fungieren eine Reihe von Prinzipien, zum Beispiel: das Prinzip der Einfachheit, das Prinzip der Genauigkeit, das Prinzip der Ermittlung der Mindestanzahl von Annahmen bei der Konstruktion einer Theorie, das Prinzip der Kontinuität in der Entwicklung und Organisation von wissenschaftliche Erkenntnisse in einem einzigen System.

Die logischen Normen des wissenschaftlichen Denkens haben einen langen Entwicklungsweg durchlaufen. Im 18. Jahrhundert G.V. Leibniz formulierte das Prinzip der hinreichenden Vernunft in der Logik, das nach den drei von Aristoteles abgeleiteten Gesetzen des richtigen Denkens zum vierten Gesetz der Logik wurde – dem Gesetz der Identität (Bewahrung der Bedeutung eines Begriffs oder einer These während der gesamten Argumentation), dem Prinzip der Konsistenz im Denken und im Gesetz der ausgeschlossenen Mitte, das besagt, dass es über ein und dasselbe Objekt in derselben Beziehung (Sinn) entweder ein bejahendes oder ein negatives Urteil geben kann, während eines davon wahr ist, das andere falsch ist, und der dritte ist nicht angegeben). Alle Ideale und Normen der Wissenschaft sind in den Methoden der wissenschaftlichen Forschung verkörpert, die in dem einen oder anderen vorherrschen historische Ära.

Das wissenschaftliche Weltbild ist ein ganzheitliches System von Vorstellungen darüber allgemeine Eigenschaften und die Gesetze der Natur und der Gesellschaft, die als Ergebnis der Verallgemeinerung und Synthese der Grundprinzipien und Errungenschaften der Wissenschaft in einer bestimmten historischen Ära entstehen. Das Weltbild spielt die Rolle der Systematisierung wissenschaftlicher Konzepte und Prinzipien in der Kognition, wodurch es heuristische und prädiktive Funktionen erfüllen und interdisziplinäre Probleme erfolgreicher lösen kann. Das wissenschaftliche Weltbild ist eng mit den ideologischen Leitlinien der Kultur verbunden, hängt maßgeblich vom Denkstil der Epoche ab und hat wiederum maßgeblichen Einfluss auf diese und fungiert somit als Leitfaden für die Forschungstätigkeit der Wissenschaftler die Rolle eines Grundkörpers erfüllen Forschungsprogramm.

Die Bedeutung der philosophischen Grundlagen der Wissenschaft ist groß. Bekanntlich war die Philosophie in den frühen Stadien ihrer Entstehung die Wiege der Wissenschaft. Im Rahmen der philosophischen Reflexion wurden die Ursprünge der wissenschaftlichen Rationalität gelegt. Die Philosophie legte allgemeine ideologische Leitlinien für die Wissenschaft fest und verstand als Reaktion auf die Bedürfnisse der Entwicklung der Wissenschaft selbst ihre methodischen und erkenntnistheoretischen Probleme. In den Tiefen des philosophischen Wissens bildete sich eine Tradition der dialektischen Welterkenntnis, verkörpert in den Werken von Hegel, Marx und Engels in der Wissenschaft der dialektischen Methode des Studiums von Natur, Gesellschaft und Denken selbst. In der Entwicklungsgeschichte der Gesellschaft lässt sich die gegenseitige Beeinflussung philosophischer und wissenschaftlicher Weltbilder beobachten: Veränderungen in den Grundlagen und Inhalten des wissenschaftlichen Weltbildes haben immer wieder Einfluss auf die Entwicklung der Philosophie.

Grundlegende Methoden empirischer und theoretischer Erkenntnis

In der Wissenschaft wird zwischen der empirischen und der theoretischen Forschungsebene (Kognition) unterschieden. Empirische Forschung ist direkt auf den Untersuchungsgegenstand ausgerichtet und wird durch Beobachtungen und Experimente umgesetzt. Bei der theoretischen Forschung geht es um die Verallgemeinerung von Ideen, Gesetzen, Hypothesen und Prinzipien. „Dieser Unterschied beruht erstens auf der Unähnlichkeit der Methoden (Methoden) der kognitiven Aktivität selbst und zweitens auf der Art des Erreichten.“ wissenschaftliche Ergebnisse" Einige allgemeine wissenschaftliche Methoden werden nur auf empirischer Ebene (Beobachtung, Experiment, Messung) verwendet, andere – nur auf theoretischer Ebene (Idealisierung, Formalisierung) und einige (z. B. Modellierung) – sowohl auf empirischer als auch auf theoretischer Ebene. Daten aus empirischen und theoretische Forschung werden in Form von Aussagen mit empirischen und theoretischen Begriffen erfasst. Der Unterschied zwischen ihnen besteht darin, dass die Wahrheit von Aussagen, die empirische Begriffe enthalten, experimentell überprüft werden kann, die Wahrheit von Aussagen, die theoretische Begriffe enthalten, jedoch nicht. Die empirische Ebene wissenschaftlicher Erkenntnisse ist durch die direkte Untersuchung real existierender, sensorischer Objekte gekennzeichnet. Die besondere Rolle der Empirie in der Wissenschaft liegt darin, dass wir uns erst auf dieser Forschungsebene mit der direkten Interaktion einer Person mit der untersuchten Natur oder natürlichen Objekten befassen. Sozialeinrichtungen. Hier dominiert die lebendige Kontemplation ( Sinneswahrnehmung), das rationale Moment und seine Formen (Urteile, Begriffe etc.) sind hier vorhanden, haben aber eine untergeordnete Bedeutung. Daher spiegelt sich das untersuchte Objekt in erster Linie in seinen äußeren Verbindungen und Erscheinungsformen wider, die der lebendigen Betrachtung und dem Ausdruck zugänglich sind interne Beziehungen. Auf dieser Ebene erfolgt der Prozess der Sammlung von Informationen über die untersuchten Objekte und Phänomene durch die Durchführung von Beobachtungen, die Durchführung verschiedener Messungen und die Durchführung von Experimenten.

Das theoretische Niveau wissenschaftlicher Erkenntnisse ist durch die Vorherrschaft des rationalen Elements – Konzepte, Theorien, Gesetze und andere Formen und „mentale Operationen“ – gekennzeichnet. Das Fehlen einer direkten praktischen Interaktion mit Objekten bestimmt die Besonderheit, dass ein Objekt auf einem bestimmten wissenschaftlichen Erkenntnisstand nur indirekt, in einem Gedankenexperiment, nicht jedoch in einem realen Experiment untersucht werden kann. Allerdings wird die lebendige Kontemplation hier nicht eliminiert, sondern wird zu einem untergeordneten (aber sehr wichtigen) Aspekt des Erkenntnisprozesses. Auf dieser Ebene werden durch die Verarbeitung empirischer Wissensdaten die tiefgreifendsten wesentlichen Aspekte, Zusammenhänge und Muster der untersuchten Objekte und Phänomene aufgedeckt. Diese Verarbeitung erfolgt unter Verwendung von Abstraktionssystemen „höherer Ordnung“ – wie Konzepten, Schlussfolgerungen, Gesetzen, Kategorien, Prinzipien usw. Bei der Identifizierung dieser beiden unterschiedlichen Ebenen in der wissenschaftlichen Forschung sollten sie jedoch nicht voneinander getrennt werden dagegen. Schließlich sind der empirische und der theoretische Wissensstand miteinander verbunden. Die empirische Ebene fungiert als Grundlage, als Fundament des Theoretischen. Im Prozess des theoretischen Verstehens werden Hypothesen und Theorien gebildet wissenschaftliche Fakten, statistische Daten, die auf empirischer Ebene gewonnen wurden. Außerdem theoretisches Denken ist zwangsläufig auf sensorisch-visuelle Bilder (einschließlich Diagramme, Grafiken etc.) angewiesen, mit denen sich die empirische Ebene der Forschung befasst. Die wichtigste Aufgabe des theoretischen Wissens besteht darin, objektive Wahrheit in ihrer ganzen Spezifität und Vollständigkeit des Inhalts zu erreichen. In diesem Fall werden kognitive Techniken und Mittel wie Abstraktion, Idealisierung, Analyse und Synthese, Induktion und Deduktion und andere besonders häufig verwendet. Diese Methodenklasse wird in allen Wissenschaften aktiv eingesetzt.

Schauen wir uns die wichtigsten Methoden an empirische Forschung. Der wichtigste Bestandteil der empirischen Forschung ist das Experiment. Das Wort „Experiment“ kommt vom lateinischen „experement“, was „Test“, „Erfahrung“ bedeutet. Ein Experiment ist ein Test der untersuchten Phänomene in kontrollierter und kontrollierter Form kontrollierte Bedingungen. Ein Experiment ist eine aktive, zielgerichtete Erkenntnismethode, die in der wiederholt reproduzierbaren Beobachtung eines Objekts unter speziell geschaffenen und kontrollierten Bedingungen besteht. Das Experiment gliedert sich in folgende Phasen:

· Sammlung von Informationen

· Beobachtung eines Phänomens

· Entwicklung einer Hypothese zur Erklärung des Phänomens

· Entwicklung einer Theorie zur Erklärung eines Phänomens auf der Grundlage von Annahmen im weiteren Sinne.

In der modernen Wissenschaft nimmt das Experimentieren einen hohen Stellenwert ein zentraler Ort und fungiert als Bindeglied zwischen dem Empirischen und dem theoretische Ebenen Wissen. Die Hauptaufgabe des Experiments besteht darin, die von Theorien aufgestellten Hypothesen und Vorhersagen zu testen. Wert experimentelle Methode ist, dass es nicht nur auf kognitive, sondern auch auf anwendbar ist praktische Tätigkeiten Person.

Zu anderen wichtige Methode Empirisches Wissen ist Beobachtung. Gemeint ist hier nicht die Beobachtung als Stufe eines Experiments, sondern die Beobachtung als eine Möglichkeit, verschiedene Phänomene zu untersuchen. Beobachtung ist die sinnliche Wahrnehmung von Tatsachen der Realität, um Erkenntnisse darüber zu gewinnen Außenseiten, Eigenschaften und Merkmale des betreffenden Objekts. Das Ergebnis der Beobachtung ist eine Beschreibung des Objekts, aufgezeichnet mithilfe von Sprache, Diagrammen, Grafiken, Diagrammen, Zeichnungen und digitalen Daten. Der Unterschied zwischen Experiment und Beobachtung besteht darin, dass während des Experiments seine Bedingungen kontrolliert werden und während der Beobachtung die Prozesse dem natürlichen Ablauf der Ereignisse überlassen werden. Einen wichtigen Platz im Prozess der Beobachtung (wie auch des Experiments) nimmt der Messvorgang ein. Messung ist die Bestimmung des Verhältnisses einer (gemessenen) Größe zu einer anderen, als Maßstab genommenen Größe. Da die Ergebnisse der Beobachtung in der Regel in Form verschiedener Zeichen, Grafiken, Kurven auf einem Oszilloskop, Kardiogrammen usw. vorliegen, ist die Interpretation der gewonnenen Daten ein wichtiger Bestandteil der Studie. Besonders schwierig ist die Beobachtung in den Sozialwissenschaften, wo ihre Ergebnisse weitgehend von der Persönlichkeit des Beobachters und seiner Einstellung zu den untersuchten Phänomenen abhängen.

Betrachten wir die oben aufgeführten Mittel des theoretischen Wissens genauer.

· Abstraktion ist eine Methode zur mentalen Trennung des kognitiv Wertvollen vom kognitiv Unwichtigen am untersuchten Objekt. Objekte, Phänomene und Prozesse haben viele verschiedene Eigenschaften und Merkmale, von denen nicht alle in einer bestimmten kognitiven Situation wichtig sind. Die Abstraktionsmethode wird sowohl im alltäglichen als auch im wissenschaftlichen Wissen eingesetzt.

· Analyse und Synthese sind miteinander verbundene Erkenntnismethoden, die ganzheitliches Wissen über ein Objekt liefern. Analyse ist die mentale Aufteilung eines Objekts in seine Bestandteile, um Selbststudium. Diese Aufteilung erfolgt nicht willkürlich, sondern entsprechend der Struktur des Objekts. Nachdem die Teile, aus denen ein Objekt besteht, separat untersucht wurden, ist es notwendig, das erworbene Wissen zusammenzuführen und die Integrität wiederherzustellen. Dies geschieht während der Synthese – die Kombination zuvor identifizierter Merkmale, Eigenschaften und Aspekte zu einem einzigen Ganzen.

· Induktion und Deduktion sind gängige Methoden der Erkenntnisgewinnung sowohl im Alltag als auch im wissenschaftlichen Erkenntnisverlauf. Induktion ist logischer Trick Erwerb allgemeiner Kenntnisse aus vielen besonderen Bereichen. Der Nachteil der Induktion besteht darin, dass die Erfahrung, auf der sie beruht, niemals vervollständigt werden kann und daher auch induktive Verallgemeinerungen nur eine begrenzte Gültigkeit haben. Deduktion ist schlussfolgerndes Wissen. Im Zuge der Deduktion werden aus den allgemeinen Prämissen Schlussfolgerungen besonderer Art abgeleitet (abgeleitet). Die Wahrheit des inferentiellen Wissens hängt in erster Linie von der Verlässlichkeit der Prämissen sowie von der Einhaltung der Regeln der logischen Schlussfolgerung ab. Induktion und Deduktion sind organisch miteinander verbunden und ergänzen sich gegenseitig. Die Induktion führt zu Annahmen über die Ursachen und allgemeinen Muster der beobachteten Phänomene, und die Deduktion ermöglicht es, aus diesen Annahmen empirisch überprüfbare Konsequenzen abzuleiten und diese Annahmen dadurch zu bestätigen oder zu widerlegen.

· Die Analogiemethode ist eine logische Technik, mit deren Hilfe aus der Ähnlichkeit von Gegenständen nach einem Merkmal auf deren Ähnlichkeit nach anderen Merkmalen geschlossen wird. Analogie ist keine willkürliche logische Konstruktion, sondern basiert auf den objektiven Eigenschaften und Beziehungen von Objekten. Die Regel des Analogieschlusses lautet wie folgt: Wenn zwei einzelne Objekte in bestimmten Merkmalen ähnlich sind, können sie in anderen Merkmalen, die in einem der verglichenen Objekte gefunden werden, ähnlich sein. Basierend auf Analogieschlüssen wird eine Modellierungsmethode entwickelt, die in der modernen Wissenschaft weit verbreitet ist. Modellierung ist eine Methode zur Untersuchung eines Objekts durch die Konstruktion und Untersuchung seines Analogons (Modells). Die beim Studium des Modells gewonnenen Erkenntnisse werden aufgrund der Analogie zum Modell auf das Original übertragen. Modellierung kommt dort zum Einsatz, wo eine Untersuchung des Originals unmöglich oder schwierig ist und mit hohen Kosten und Risiken verbunden ist. Typische Technik Unter Modellierung versteht man die Untersuchung der Eigenschaften neuer Flugzeugkonstruktionen anhand ihrer verkleinerten Modelle, die in einem Windkanal platziert werden. Die Modellierung kann thematisch, physikalisch, mathematisch, logisch und symbolisch sein. Es hängt alles von der Wahl des Charakters des Modells ab. Mit dem Aufkommen und der Entwicklung von Computern hat sich die Computermodellierung weit verbreitet spezielle Programme.

Neben universellen und allgemeinen wissenschaftlichen Methoden gibt es spezielle Forschungsmethoden, die in bestimmten Wissenschaften eingesetzt werden. Dazu gehört die Methode Spektralanalyse in Physik und Chemie, statistische Modellierungsmethode im Studium komplexe Systeme und andere.

Das Problem der Entwicklung wissenschaftlicher Erkenntnisse.

Es gibt einige Diskrepanzen bei der Definition des zentralen Problems der Wissenschaftsphilosophie. Laut dem berühmten Wissenschaftsphilosophen F. Frank „ist das zentrale Problem der Wissenschaftsphilosophie die Frage, wie wir von Aussagen des gewöhnlichen gesunden Menschenverstandes zu allgemeinen wissenschaftlichen Prinzipien gelangen.“ K. Popper glaubte, dass das zentrale Problem der Erkenntnisphilosophie zumindest seit der Reformation darin bestehe, wie es möglich sei, die weitreichenden Ansprüche konkurrierender Theorien oder Überzeugungen zu begründen oder zu bewerten. „Ich“, schrieb K. Popper, „nenne es das erste Problem. Historisch gesehen hat es zum zweiten Problem geführt: Wie können wir unsere Theorien und Überzeugungen rechtfertigen? Gleichzeitig ist das Spektrum der wissenschaftsphilosophischen Probleme recht breit; dazu gehören Fragen wie: Sind die allgemeinen Bestimmungen der Wissenschaft eindeutig bestimmt oder können ein und derselbe Satz experimenteller Daten zu unterschiedlichen allgemeinen Bestimmungen führen? Wie kann man wissenschaftliches von nichtwissenschaftlichem unterscheiden? Was sind die Kriterien der Wissenschaftlichkeit, die Möglichkeit der Rechtfertigung? Wie finden wir Gründe zu der Annahme, dass eine Theorie besser ist als eine andere? Was ist die Logik wissenschaftlichen Wissens? Was sind die Modelle seiner Entwicklung? Alle diese und viele andere Formulierungen sind organisch in das Gefüge der philosophischen Reflexion über die Wissenschaft eingebunden und erwachsen, was noch wichtiger ist, aus dem zentralen Problem der Wissenschaftsphilosophie – dem Problem des Wachstums wissenschaftlicher Erkenntnisse.

Alle Probleme der Wissenschaftsphilosophie lassen sich in drei Untertypen einteilen. Zu den ersten gehören Probleme aus der Philosophie zur Wissenschaft, deren Richtung auf den Besonderheiten des philosophischen Wissens basiert. Da die Philosophie ein universelles Verständnis der Welt und die Kenntnis ihrer allgemeinen Prinzipien anstrebt, erbt die Wissenschaftsphilosophie diese Absichten. In diesem Zusammenhang beschäftigt sich die Wissenschaftsphilosophie mit der Reflexion der Wissenschaft in ihren letzten Tiefen und wahren Ursprüngen. Hier wird der konzeptionelle Apparat der Philosophie voll ausgenutzt, es ist eine bestimmte ideologische Position erforderlich.

Die zweite Gruppe entsteht innerhalb der Wissenschaft selbst und benötigt einen kompetenten Schiedsrichter, dessen Rolle die Philosophie ist. In dieser Gruppe sind Probleme der kognitiven Aktivität als solche, die Reflexionstheorie, kognitive Prozesse und die eigentlichen „philosophischen Tipps“ zur Lösung paradoxer Probleme sehr eng miteinander verknüpft.

Die dritte Gruppe umfasst Probleme der Interaktion zwischen Wissenschaft und Philosophie unter Berücksichtigung ihrer grundlegenden Unterschiede und organischen Verflechtungen auf allen möglichen Anwendungsebenen. Die wissenschaftsgeschichtliche Forschung hat überzeugend gezeigt, welch enorme Rolle die philosophische Weltanschauung für die Entwicklung der Wissenschaft spielt. Der radikale Einfluss der Philosophie macht sich besonders in der Ära der sogenannten wissenschaftlichen Revolutionen bemerkbar, die mit der Entstehung der antiken Mathematik und Astronomie verbunden sind, der kopernikanischen Revolution – dem heliozentrischen System von Kopernikus, der Bildung eines klassischen wissenschaftlichen Bildes durch die Mikrophysik von Galileo -Newton, die Revolution in der Naturwissenschaft an der Wende vom 19. zum 20. Jahrhundert. usw. Mit diesem Ansatz umfasst die Wissenschaftsphilosophie Erkenntnistheorie, Methodologie und Soziologie des wissenschaftlichen Wissens, wobei die so skizzierten Grenzen der Wissenschaftsphilosophie nicht als endgültig, sondern als tendenziell zur Klärung und Veränderung zu betrachten sind.

Abschluss

Das traditionelle Modell der Struktur wissenschaftlichen Wissens beinhaltet eine Bewegung entlang der Kette: Feststellung empirischer Tatsachen – primäre empirische Verallgemeinerung – Erkennung von von der Regel abweichenden Tatsachen – Erfindung einer theoretischen Hypothese mit einem neuen Erklärungsschema – logische Schlussfolgerung (Ableitung) aus der Hypothese aller beobachteten Tatsachen, die ihre Wahrheitsüberprüfung darstellt.

Die Bestätigung einer Hypothese macht sie zu einem theoretischen Gesetz. Dieses Modell wissenschaftlichen Wissens wird hypothetisch-deduktiv genannt. Man geht davon aus, dass die meisten modernen wissenschaftlichen Erkenntnisse auf diese Weise aufgebaut sind.

Theorie wird nicht durch direkte induktive Verallgemeinerung von Erfahrung aufgebaut. Das bedeutet natürlich nicht, dass Theorie überhaupt nicht mit Erfahrung verbunden ist. Der erste Anstoß für die Schaffung einer theoretischen Konstruktion kommt genau von dort praktische Erfahrung. Und die Wahrheit theoretischer Schlussfolgerungen wird erneut durch ihre praktische Anwendung bestätigt. Der Prozess der Theoriebildung selbst und seine weitere Entwicklung erfolgt relativ praxisunabhängig.

Allgemeine Kriterien bzw. wissenschaftliche Normen fließen stets in den Standard wissenschaftlicher Erkenntnisse ein. Spezifischere Normen, die die Muster der Forschungstätigkeit bestimmen, hängen von den Fachgebieten der Wissenschaft und vom soziokulturellen Kontext der Entstehung einer bestimmten Theorie ab.

Wir können das Gesagte zusammenfassen: Unser „kognitiver Apparat“ verliert seine Zuverlässigkeit, wenn er sich in Bereiche der Realität bewegt, die weit von der Alltagserfahrung entfernt sind. Wissenschaftler scheinen einen Ausweg gefunden zu haben: Um eine der Erfahrung unzugängliche Realität zu beschreiben, griffen sie auf die Sprache abstrakter Notationen und der Mathematik zurück.

Verweise:

1. Moderne Wissenschaftsphilosophie: Leser. - M.: Handelshochschule, 1994.

2. Kezin A.V. Wissenschaft im Spiegel der Philosophie. – M.: MSU, 1990.

3. Philosophie und Methodik der Wissenschaft. – M.: Aspect-Press, 1996.

ABSCHNITT I.

PHILOSOPHIE DER WISSENSCHAFT, BEVOR SIE NEUE WEGE WÄHLEN

E.A.Mamchur

Relativismus in der Interpretation wissenschaftlicher Erkenntnisse

und Kriterien wissenschaftlicher Rationalität

Die Frage ist, inwieweit und in welcher Hinsicht alle kritischen Argumente Gehör finden In letzter Zeit an die klassische Rationalität gerichtet, stellt ein ziemlich komplexes Problem dar, das einer unabhängigen Analyse bedarf. In diesem Artikel interessieren wir uns nur für Parameter der klassischen Rationalität wie die Objektivität wissenschaftlicher Erkenntnisse und die relative Autonomie der Wissenschaft. Sie stehen derzeit in der Kritik. Die These des Relativismus wird bekräftigt und gepredigt. Diese These selbst weist zwei für die Wissenschaft bedeutsame Dimensionen auf: die synchrone und die diachrone. Das Wesen der synchronen Komponente ist die Negation des Standpunkts des „absoluten Beobachters“ in der wissenschaftlichen Erkenntnis. Aus dieser Sicht ist die Wahrheit immer relativ zur Meinung einer bestimmten wissenschaftlichen Schule, Gruppe oder sogar eines einzelnen Forschers. Es gibt viele Konzepte, Theorien, Interpretationen, Diskurse und sie alle haben eine Daseinsberechtigung, argumentieren Relativisten. Es gibt so viele wissenschaftliche Gruppen und Schulen – so viele Meinungen. Und es besteht keine Notwendigkeit, hinter dieser Vielfalt und Diversität nach dem einzig richtigen Diskurs, dem richtigen Konzept oder der wahren Theorie zu suchen. Und es ist sinnlos zu suchen – einen solchen Diskurs und ein solches Konzept gibt es einfach nicht.

In der diachronen Dimension bedeutet die These des Relativismus die Leugnung der Autonomie wissenschaftlicher Erkenntnisse. Befürworter dieses Aspekts der relativistischen These bestreiten die Möglichkeit einer eigenen Theorie

Geschichte des wissenschaftlichen Wissens, relativ unabhängig von der Geschichte seines kulturellen Umfelds. Der Relativismus reduziert die Geschichte der Wissenschaft auf die Geschichte des kulturellen Kontextes, in den die Wissenschaft eingebettet ist.

Da sich der synchrone Relativismus hauptsächlich auf die Frage der Objektivität wissenschaftlicher Erkenntnisse bezieht, nennen wir ihn kognitiv. Die zweite Art des Relativismus kann treffend als kultureller Relativismus beschrieben werden. Obwohl der kulturelle Relativismus hauptsächlich mit einem solchen Standard der klassischen Rationalität wie der relativen Autonomie der Wissenschaft in Verbindung gebracht wird, steht er auch in direktem Zusammenhang mit der Objektivität wissenschaftlichen Wissens: Autonomie ist im Wesentlichen Objektivität, historisch betrachtet, im Hinblick auf die Funktionsweise und Entwicklung des Wissens im System historisch aufeinanderfolgender Systeme der menschlichen Kultur als relativ unabhängig von diesen Kulturen. Gleiches gilt jedoch auch für die Objektivität als Hauptparameter wissenschaftlicher Rationalität, die im Rahmen des kognitiven Relativismus geleugnet wird: Objektivität bedeutet die Autonomie wissenschaftlichen Wissens im Sinne der Unabhängigkeit des Wissens von den Meinungen wissenschaftlicher Schulen, Gruppen usw einzelne Wissenschaftler.

Diskussionen über die These des Relativismus in der Interpretation wissenschaftlicher Erkenntnisse sind für die Wissenschaftsphilosophie kein neues Phänomen. Eine Art Höhepunkt dieser Diskussionen in der zweiten Hälfte des 20. Jahrhunderts. fällt in die 60er und 70er Jahre, als sich Wissenschaftsphilosophen gegenüberstanden und die Möglichkeit behaupteten, die Entwicklung wissenschaftlichen Wissens als objektives und autonomes Unterfangen zu rekonstruieren, und Vertreter der damals aufkommenden Wissenssoziologie, die eine solche Möglichkeit bestritten. Wissenssoziologen sahen die treibenden Kräfte und letzten Grundlagen der Wissensentwicklung nicht in kognitiven, sondern in sozialen und kulturellen Faktoren und verteidigten damit unwissentlich den Relativismus.

In jüngster Zeit hat sich jedoch der Ton der kritischen Argumentation geändert. Galt früher die These des Relativismus als umstritten und galt die Frage nach der Rolle soziokultureller Faktoren in der Entwicklung der Wissenschaft als problematisch und analysebedürftig, so halten viele Autoren diese These heute einfach für gegeben, als Postulat. Der Effekt ist, dass wir zunehmend in die Atmosphäre der Postmoderne eintauchen. Das Banner dieser intellektuellen Bewegung ist „Pluralismus“. Die Postmoderne predigt, begrüßt und verteidigt den Pluralismus

in all seinen Formen und Erscheinungsformen. Pluralismus ist der Gott und das Idol der Postmoderne. Und aus der Position der Postmoderne wir reden überüber fundamentalen Pluralismus, da davon ausgegangen wird, dass es nicht möglich ist, aus der gesamten Vielfalt der Diskurse den richtigen Diskurs herauszusuchen, auf das Vorhandensein einer richtigen Meinung hinzuweisen oder wahres Konzept. In Bezug auf die Wissenschaft nimmt diese Mentalität gerade die Form von Thesen des kulturellen und kognitiven Relativismus an, die die Objektivität der Wissenschaft leugnen. Betrachten wir diese Thesen genauer.

GIBT ES IN DER WISSENSCHAFT NOCH EINEN STANDPUNKT?

„ABSOLUTER BEOBACHTER“?

Nein, es existiert nicht, antwortet der Relativist. Wir können unseren eigenen Kopf nicht verlassen, um unsere Gedanken von außen betrachten und mit der Realität vergleichen zu können. R. Rorty, ein amerikanischer Philosoph, der in unserem Land für eine Reihe von von uns übersetzten Werken bekannt ist, drückt diesen Standpunkt wie folgt aus: „Was wir wirklich nicht können, ist, uns über alle menschlichen Gemeinschaften zu erheben, ob real oder potenziell.“ Wir haben keinen Skyhook, der uns von einer bloßen Übereinstimmung über etwas zu so etwas wie „Übereinstimmung mit der Realität, wie sie ist“ erheben kann.“ Es gibt keinen Gottesstandpunkt, und selbst wenn er existierte, könnten wir ihn nicht haben. Anstelle der unerreichbaren „Objektivität“ ist Rorty der Ansicht, dass das Konzept der Zustimmung, der „Solidarität“, in den Mittelpunkt der Erkenntnistheorie gestellt werden sollte. „Die Gewohnheit, sich mehr auf Überzeugung als auf Gewalt zu verlassen, auf Respekt vor der Meinung ihrer Kollegen, Neugier und ein leidenschaftlicher Wunsch nach neuen Daten sind die einzigen Tugenden von Wissenschaftlern“, sagt Rorty. „Über diese moralischen Qualitäten hinaus gibt es keine anderen intellektuellen Tugenden, wie zum Beispiel ‚Rationalität‘.“ Entgegen einer weit verbreiteten Meinung verfügen Wissenschaftler überhaupt nicht über die Fähigkeit, eine besondere „Objektivität“ zu erreichen, die sie angeblich von Vertretern anderer Kulturbereiche unterscheidet, sagt Rorty. Die wirklichen Vorteile seien, sagt er wissenschaftliche Institute, da sie Beispiele für die in ihnen erreichte „nicht gewaltsame Einwilligung“ sind.

Eine ähnliche Ansicht vertritt der einheimische Forscher N.N. Moiseev. „...Die Art und Weise, in der sich der moderne Rationalismus... vom klassischen Rationalismus des 18. Jahrhunderts unterscheidet, besteht nicht nur darin, dass anstelle der klassischen Ideen von Euklid und Newton eine unermesslich komplexere Vision der Welt entstanden ist... Die Der Hauptunterschied besteht vor allem im Verständnis des grundsätzlichen Fehlens eines externen „Absoluten Beobachters“, dem die Absolute Wahrheit nach und nach zugänglich wird, sowie der Absoluten Wahrheit selbst.“ Moiseev verbindet das Fehlen des Standpunkts eines absoluten Beobachters direkt mit dem Meinungspluralismus. „Nachdem wir Konzepte wie „Absolutes Wissen“ und „Absoluter Beobachter“ aus unserem Vokabular ausgeschlossen haben, kommen wir unweigerlich auf die Idee einer Pluralität von Verständnissen, da jedes von ihnen mit den einzigartigen Eigenschaften bestimmter Beobachter verbunden ist – nicht so sehr mit den Instrumente, die sie benutzen, sondern ihr Verstand.“

Viele, die diesen Standpunkt teilen, beziehen sich auf der Suche nach Argumenten und Rechtfertigungen auf die Quantenmechanik. So argumentiert N. Moiseev, dass die neue Rationalität, die mit der Aufgabe der Suche nach der absoluten Wahrheit verbunden ist, ihre Grundlage in der Quantenmechanik hat. „Die Erfolge der Physik und vor allem... der Wissenschaft der Mikrowelt, der Quantenmechanik, spielten eine entscheidende Rolle bei der Herausbildung einer neuen rationalistischen Weltanschauung.“ Dank dieser Entdeckungen hörte der Mensch auf, ein äußerer Beobachter zu sein: Es stellte sich heraus, dass er die Welt von innen betrachtet.“

Der berühmte amerikanische Philosoph H. Putnam greift auf eine ähnliche Argumentation zurück. Er wirft auch die Frage nach der Möglichkeit auf, in der Wissenschaft den Standpunkt des absoluten Beobachters zu erreichen – in seiner Terminologie die „göttliche Vision des Universums“. Putnam stellt fest, dass die klassische Wissenschaft von der bedingungslosen Anerkennung der Möglichkeit einer solchen Position in jeder kognitiven Situation ausging, und argumentiert, dass sich die Situation in der nichtklassischen Wissenschaft radikal verändert hat. Hier „muss man den großen Traum aufgeben; der Traum von einer Beschreibung der physischen Realität als außerhalb des Betrachters existierend, einer Beschreibung, die ein Objekt im Sinne von Existenz ist, ohne Bezug auf einen „besonderen Standpunkt“.

Befürworter dieser Ansicht verweisen auf die Besonderheiten der Vermessung von Objekten in der Mikrowelt. In der klassischen Physik glaubte man, dass der Einfluss des Versuchsaufbaus auf das Verhalten eines Mikroobjekts vernachlässigt werden kann, und wir messen

Parameter des Objekts oder Phänomens selbst. In der Quantentheorie geht man davon aus, dass ein Phänomen im Prozess der Messung entsteht; es existiert nicht vor dem Vorgang der Messung. Es stellt sich heraus, dass die Gewinnung von Informationen über ein Objekt von der Art des Versuchsaufbaus abhängt, und in diesem Sinne wird die Art der erhaltenen Informationen vom Beobachter bestimmt.

Auf dieser Grundlage argumentieren sie, dass die Quantenmechanik die Rechtfertigung für den grundlegenden Pluralismus und damit (wir würden hinzufügen) für den Relativismus sei. „Mit dieser Denkweise wird die Frage bedeutungslos: Wie ist es wirklich? – schreibt N. Moiseev, – d.h. die Frage, die sich der klassische Wissenschaftler immer stellte, wenn er mit einer Vielzahl von Konzepten und Standpunkten konfrontiert wurde.“

Wie wahr sind jedoch die Aussagen über die Unvermeidlichkeit des Zusammenhangs zwischen Pluralismus, Relativismus und Quantenmechanik? Es scheint uns, dass diejenigen, die die Existenz eines solchen Zusammenhangs behaupten, keinen Unterschied zwischen beiden machen verschiedene Probleme. Eines davon ist das Problem des Realismus, oder genauer gesagt, eine Reihe von Fragen, die mit dem Problem des Realismus verbunden sind. Ein weiteres Problem ist die Objektivität der Beschreibung. Nur dieses zweite Problem steht in direktem Zusammenhang mit dem Relativismus.

Aber gerade im Hinblick auf dieses Problem lässt sich meiner Meinung nach argumentieren, dass es kein Problem gibt besonderer Unterschied Bei der Beantwortung der darin enthaltenen Frage gibt es keinen Unterschied zwischen klassischer und nichtklassischer Physik. Die Position des „absoluten Beobachters“ ist in der nichtklassischen Physik im Sinne der Objektivität des Wissens, seiner Unabhängigkeit von Meinungen, Schulen, Gruppen usw. im gleichen Maße erreichbar (oder nicht erreichbar) wie in der klassischen Physik. Sowohl hier als auch hier unter Berücksichtigung der historischen Grenzen und Relativität dieses Standpunkts, bedingt durch den Stand des bestehenden Wissenssystems, die experimentellen Möglichkeiten der damaligen Zeit usw. Es kann argumentiert werden, dass eine solche Sichtweise erreicht werden kann. Zumindest sind uns keine Argumente bekannt, die auf eine Widersprüchlichkeit dieser Aussage schließen lassen. Zwar unterscheiden sich die Methoden zur Erlangung dieses Wissens von den Methoden der klassischen Physik. Aber die Anwendung dieser Methoden hat das gleiche Ziel wie in der klassischen Wissenschaft: die Erlangung objektiver Erkenntnisse.

Eine andere Sache ist die Frage, ob das resultierende Bild realistisch oder antirealistisch ist. Die orthodoxe Interpretation der Quantenmechanik geht davon aus, dass das Phänomen

entsteht im Prozess der Messung, dass es vor dem Akt der Beobachtung nicht existiert. Beispielsweise hat ein Elektron weder Position noch Impuls, bevor Positions- und Impulsmessungen durchgeführt werden. In der klassischen Physik offenbaren Beobachtungen die Realität. Im Quantum erschaffen sie es, so Bohr, irgendwie. In diesem Sinne ist die orthodoxe Interpretation der Quantenmechanik unrealistisch.

Dennoch hängt eine umfassende Antwort auf die Frage nach dem Realismus davon ab, welche Bedeutung dem Begriff des Realismus selbst beigemessen wird. Wenn man, wie zum Beispiel J. Brown, behauptet, dass Realismus der Glaube ist, dass alle Eigenschaften eines Objekts ihm innewohnen, bevor es gemessen wird, dann ist die orthodoxe Interpretation tatsächlich antirealistisch. Aber es gibt noch ein anderes Verständnis von Realismus: Realismus ist der Glaube an die Existenz der Außenwelt und damit der vom menschlichen Bewusstsein unabhängigen Objekte der Mikrowelt des Beobachters. Dann ist die Quantenmechanik genauso realistisch wie die klassische Mechanik. Es scheint, dass niemand, auch Bohr selbst nicht, daran gezweifelt hat, dass die Mikrorealität unabhängig vom Bewusstsein des Beobachters existiert. Dass etwas existiert. Und wenn wir das von I. Hacking gegebene Kriterium der Realität theoretischer Objekte verwenden: „Wenn man Elektronen abscheidet, sind sie real“ 0, können wir sagen, dass Quantenobjekte wirklich existieren. Aber die Mittel ihres Wissens unterscheiden sich stark von den klassischen. Es ist notwendig, zwei Arten von Versuchsaufbauten zu verwenden, deren Verwendung dem Forscher zwei Arten sich gegenseitig ausschließender Informationen liefert, die sich dennoch in gewisser Weise ergänzen.

Exotisches Bild. Dennoch sind Physiker, zumindest diejenigen, die an der Kopenhagener Interpretation festhalten, davon überzeugt, dass dieses Bild richtig ist, dass es, so seltsam es auch sein mag, die Mikrorealität so einfängt, wie sie wirklich ist, unabhängig von der Sichtweise des einen oder anderen Forschers. Schule oder Richtung, dass es ihnen gelingt, nachdem sie dieses Bild erhalten haben, den Standpunkt des „absoluten“ (in diesem Sinne) Beobachters zu erkennen. Ebenso wie die Vertreter der klassischen Wissenschaft an ihre Theorien und an ihre Bilder der Wirklichkeit glaubten.

Die kürzlich erhaltene experimentelle Bestätigung der Verletzung der bekannten Bell-Ungleichungen war ein sehr starkes Argument dafür, die Kopenhagener Interpretation der Quantenmechanik als realitätsadäquat einzuschätzen.

Ändert sich also die klassische Rationalität im Hinblick auf die Objektivität wissenschaftlicher Erkenntnisse oder ändert sie sich nicht? Die Antwort auf diese Frage hängt davon ab, was unter wissenschaftlicher Rationalität zu verstehen ist. Normalerweise wird unter rational eine Aktivität verstanden, die auf ein bewusst gesetztes Ziel abzielt, und um dieses Ziel zu erreichen, werden angemessene, d. bedeutet, zu diesem Ziel zu führen. Wissenschaftliche Tätigkeit als eine Art rationaler Tätigkeit hat die Erlangung objektiv wahrer Erkenntnisse zum Ziel, d.h. einfach den Standpunkt des „absoluten Beobachters“ erreichen. Die Mittel sind die Methoden, die angewendet werden. Vor diesem Hintergrund lässt sich argumentieren, dass beim Übergang von der klassischen zur nichtklassischen Wissenschaft das Ziel wissenschaftlicher Tätigkeit unverändert bleibt. Die Wissenschaft würde aufhören, Wissenschaft zu sein, wenn sie ihr Ziel aufgeben würde – die Realität so zu begreifen, wie sie wirklich ist. Unter Verwendung der kantischen Terminologie können wir sagen, dass die Erlangung des Standpunkts des „absoluten Beobachters“ ein Bedürfnis der Vernunft selbst ist. Der Geist „strebt“ leidenschaftlich nach diesem Ziel und wird ein Gefühl von intellektuellem Unbehagen verspüren, bis er es erreicht. Ganz gleich, welche Wechselfälle die Wissenschaft auch erlebt, sie wird dieses Ziel nicht aufgeben. Das Bedürfnis nach Wahrheit wurzelt in den Besonderheiten der Psychologie des transzendentalen Subjekts der Erkenntnis, die durch einige Merkmale der Struktur selbst bestimmt werden können menschliches Gehirn.

Eine andere Sache ist, dass das überlegte Bedürfnis des Geistes nie vollständig befriedigt wird: Das resultierende Bild erweist sich nur teilweise als richtig. Tatsächlich bleibt das eigentliche Ziel der Wissenschaft nur das kantische Regulierungsprinzip, das die kognitive Aktivität des Wissenschaftlers leitet. Aber ohne dieses Prinzip wäre wissenschaftliches Handeln unmöglich. Gerade die Parteilichkeit des Bildes und das anhaltende Gefühl des Unbehagens erweisen sich als die wichtigsten Treiber der menschlichen Kognition.

Was sich im Verlauf der historischen Entwicklung der Wissenschaft wirklich verändert, sind die Mittel zur Erreichung dieses Ziels, die Methoden, die eingesetzt werden. Putnam charakterisiert den Erkenntnisprozess der Mikrowelt und beschreibt ihn als deutlich komplexer im Vergleich zu einem ähnlichen Prozess in der klassischen Physik. „Wir müssen verschiedene klassische Gemälde „zusätzlich“ verwenden, sie in verschiedenen experimentellen Situationen testen, Teilgemälde testen

Hintergrund anderer..." Dennoch gibt er selbst zu, dass alle diese Verfahren darauf abzielen, „die Idee einer einzigen Darstellung zu entwickeln, die alle Situationen beschreibt“.

Wird sich die Vernunft mit der Exotik der Quantenmechanik in ihrer orthodoxen Interpretation und ihren Schlussfolgerungen, die dem gesunden Menschenverstand widersprechen, auseinandersetzen? Die Antwort auf diese Frage bleibt unklar. Jetzt, nach einer gewissen Flaute, ist eine Lawine neuer Interpretationen über Physiker und Wissenschaftsphilosophen hereingebrochen, die versuchen, den antirealistischen Charakter der Beschreibung zu überwinden. Die Überwindung des Antirealismus ist mit einer Rückkehr zum klassischen Bild verbunden. Ob der Wunsch nach klassischer Malerei und Realismus der Vernunft ebenso innewohnt wie der Wunsch, den Standpunkt des „absoluten Beobachters“ zu erlangen, wird die Zeit zeigen. Aber die Tatsache, dass diese beiden Bestrebungen zwei unterschiedliche Eigenschaften der Psychologie des transzendentalen Subjekts charakterisieren, liegt auf der Hand. Anders als der erste Anspruch charakterisiert der zweite nicht alle Physiker: Schließlich haben die meisten von ihnen die orthodoxe Interpretation bereits akzeptiert und sich mit ihrem antirealistischen Charakter abgefunden. Vielleicht ist der Wunsch nach Realismus keine so tiefe Eigenschaft der Psychologie des transzendentalen Subjekts wie der Wunsch nach Wahrheit. Es kann durchaus sein, dass der zweite Wunsch nicht erfüllt wird und das antirealistische Bild als Standpunkt des absoluten Beobachters anerkannt wird.

In dieser Hinsicht ist die in Putnams Werk enthaltene Interpretation des Konzepts der „Parallelwelten“, eine der Interpretationen der Quantentheorie von Everett und de Witt, charakteristisch. Putnam argumentiert, dass Everetts Parallelwelten dazu dienen, jeder Welt die Möglichkeit zu geben, die „göttliche Vision“ der Realität in ihrer Gesamtheit zu verwirklichen. Es scheint, dass auch hier wieder zwei verschiedene (bereits oben erwähnte) Aspekte des Problems nicht unterschieden werden. Es scheint, dass Putnam tatsächlich zwei Dinge vereint verschiedene Aufgaben: 1) Erreichen der „Göttlichen Vision“ – des Standpunkts des „Absoluten Beobachters“ und 2) Erhalten eines ganzheitlichen und realistischen Bildes der Quantenrealität, das es einem ermöglicht, die Paradoxien der quantenmechanischen Rekonstruktion der Realität zu vermeiden. Die Autoren des Konzepts der Parallelwelten verfolgten natürlich das Ziel, beide Probleme zu lösen. In jeder der möglichen Welten wurde die zweite Aufgabe gelöst – ein ganzheitliches und realistisches Bild des klassischen Typs zu erreichen, in dem es keine Paradoxien der Quantenrealität geben würde: die Bewegung eines Mikroobjekts entlang zweier Linien gleichzeitig

Pfade in einem Doppelspaltexperiment; die Existenz eines Quantenobjekts vor dem Messvorgang in einer Überlagerung aller möglichen Zustände, die seine Wellenfunktion zulässt (E. Schrödinger veranschaulichte dieses Merkmal der Mikrowelt hervorragend, indem er das bekannte Paradoxon mit der Katze formulierte, als a Eine Katze kann sich unter bestimmten Bedingungen in einer Überlagerung von Zuständen von Leben und Tod, Sein und Lebendigkeit und Tod gleichzeitig befinden) usw. Aus der Sicht des Konzepts der Vielheit der Welten hat in jeder der Welten ein Quantenobjekt seine eigene Flugbahn; ist entweder ein Teilchen oder eine Welle und nicht gleichzeitig Teilchen und Welle, wie in der orthodoxen Interpretation der Quantenmechanik; befindet sich in einem einzigen Zustand und nicht in einer Überlagerung aller möglichen Zustände, und um Informationen über diesen Zustand zu erhalten, ist nicht der Zusammenbruch des Wellenpakets erforderlich (in der Terminologie des Schrödinger-Katzenparadoxons – in einer Welt lebt die Katze, in ein anderer ist tot) usw.

Was die „göttliche Vision“ betrifft, die die Autoren des Konzepts der mehreren Welten erreichen wollten, so bezieht sie sich nicht auf eine separate Parallelwelt: Es muss durch das Gesamtkonzept als Ganzes verwirklicht werden. Und die Bestätigung der „Göttlichkeit“ (wenn auch relativ) dieser Vision hängt davon ab, inwieweit sie experimentell bestätigt werden kann. Leider, wie einer der Physiker, die das Konzept entwickelt haben, feststellt: „Derzeit erlaubt uns die Technologie nicht, die Hypothese der Existenz „anderer“ Welten zu testen“3.

Dies ist, so scheint es uns, die Situation mit Objektivität als einer der Anforderungen der klassischen Rationalität. Kommen wir nun zum Ideal der Autonomie wissenschaftlichen Wissens und der damit direkt verbundenen These des Kulturrelativismus.

THESE DER INKOMMESIURABILITÄT

UND KULTURRELATIVISMUS

In der Philosophie der Naturwissenschaften fand der Relativismus seine erkenntnistheoretische Stütze im heute weithin bekannten Konzept der Inkommensurabilität. Die Autoren dieses Konzepts sind N.R. Hanson (er war der erste, der den Begriff „Gestaltwechsel“ prägte und die Idee von Veränderungen in theoretischen Weltanschauungen als Gestaltwechsel formulierte), T. Kuhn und P. Feyerabend. Betrachtet man den Kern der Inkommensurabilitätsthese, so wurde bereits erwähnt

Die Inkommensurabilität von Problemen (Themen) bedeutet, dass jede nachfolgende grundlegende Theorie zwar den Anspruch erhebt, dieselben Fakten wie die vorherige zu beschreiben und zu erklären, in Wirklichkeit jedoch andere Probleme untersuchen, neue Konzepte verwenden und andere Anwendungen als die vorherige haben kann. Die Art und Weise, wie Phänomene erkannt und klassifiziert werden, stimmt möglicherweise nicht mit dem alten Ansatz überein. Beispielsweise erwies sich Lavoisiers Sauerstofftheorie der Verbrennung zunächst als nicht auf alle Phänomene anwendbar, die durch die Phlogiston-Theorie gut erklärt werden konnten. Die Inkommensurabilität von Problemen macht E. Nagels Konzept der Wissensentwicklung unzureichend, wonach die neue Theorie die alte subsumiert (d. h. einbezieht). Richtiges Teil alte Theorie und schließt die falsche aus), wodurch sich beide Theorien als vergleichbar erweisen.

Die Diskrepanz besteht darin, dass lange Zeiträume und erhebliche Änderungen in der Theorie dazu führen können, dass frühere Arbeiten für ein späteres wissenschaftliches Publikum unverständlich werden. Ein wichtiger Umstand sollte beachtet werden. Eine alte Theorie mag in Vergessenheit geraten, aber für einen modernen Wissenschaftler, der bereit ist, sich die Zeit zu nehmen, sie zu studieren, immer noch verständlich. Im Falle von Uneinigkeit sprechen wir davon, dass mehr frühe Theorie kann völlig unverständlich sein für den modernen Leser, weil es völlig andere Argumentationsmethoden als unsere verwendet. Als Beispiel nennt Ya. Hacking Aussagen und Theoretische Konzepte Paracelsus. Syphilis, schrieb Paracelsus, muss mit Quecksilbersalbe sowie durch Einnahme dieses Metalls behandelt werden, da Quecksilber ein Zeichen des Planeten Merkur ist, der wiederum als Zeichen des Marktes dient und Syphilis auf dem Markt gefangen wird .

„Das Problem ist nicht, dass wir denken, dass Paracelsus Unrecht hatte“, schreibt Hacking. – Es ist so, dass wir der Gesamtheit seiner Sätze weder Wahrheit noch Falschheit zuschreiben können. Der Stil seiner Argumentation ist uns fremd.“

Die dritte Art der Inkommensurabilität ist die Inkommensurabilität der Bedeutungen der Begriffe von Theorien. Es ist bekannt, dass die Bedeutung der Begriffe einer Theorie durch theoretische Sätze bestimmt wird. Die Bedeutung einzelner Begriffe wird durch ihre Stellung im Gesamtgefüge der Theorie bestimmt. Wenn sich Theorien ändern, kann sich in dieser Hinsicht die Bedeutung derselben (namentlich) Begriffe auf radikalste Weise ändern. Hacking zeigt, welche offensichtlich katastrophalen Konsequenzen für die Möglichkeit des Vergleichs früherer und nachfolgender Theorien die These der Inkommensurabilität von Bedeutungen mit sich bringt, wenn sie wahr ist; spricht über einige Bedeutungskonzepte, die Rückschlüsse auf ihre Inkommensurabilität vermeiden.

Eine davon – die sogenannte kausale Bedeutungstheorie – gehört H. Putnam. Wir werden hier jedoch nicht darauf eingehen und den Leser auf das Originalwerk von Putnam selbst oder auf ein qualifiziertes Werk über Putnams Philosophie verweisen, in dem man etwas finden kann Detaillierte Analyse dieses Konzept und seine Bewertung.

Es ist uns wichtig, hier noch etwas anderes anzumerken. Bei der Erörterung des Konzepts der Inkommensurabilität bemerkte Ya. Hacking keinen weiteren Aspekt davon, nämlich das Fehlen gemeinsamer Kriterien für die Bewertung von Theorien in zwei sich sukzessive ersetzenden Paradigmen. Nach der Inkommensurabilitätsthese sind die Kriterien zur Bewertung von Theorien und damit die Standards der Rationalität (da z Westliche Philosophie Wissenschaft, die Kriterien der Wissenschaftlichkeit sind die Standards der Rationalität) sind paradigmenabhängig und verändern sich mit dem Wandel der Theorien. Hacking diskutiert diesen Aspekt des von ihm diskutierten Konzepts nicht, weil er für seine Zwecke nicht wichtig ist. Aber für unser Thema ist es gerade das Wichtigste, denn hier liegt die Quelle des Relativismus, der von postmodernen Wissenschaftsforschern postuliert und gepredigt wird. Alle von Hacking betrachteten Aspekte der Inkommensurabilität führen nur zu einem radikalen Unterschied zwischen aufeinanderfolgenden Theorien, implizieren aber noch keinen Relativismus. Die Grundlagen der relativistischen These liegen in der paradigmatischen Abhängigkeit der Rationalitätskriterien. Wenn es in der Wissenschaft einige übergreifende oder überparadigmatische Kriterien zur Bewertung von Theorien oder Paradigmen gibt, wird es möglich, zwischen konkurrierenden Grundtheorien zu wählen, zu sehen, in welche Richtung die fortschreitende Entwicklung stattfindet, und zu entscheiden, welche davon der Wahrheit näher kommt . Das Fehlen solcher Kriterien und

Standards führen dazu, dass wissenschaftliche Paradigmen Spenglers Zivilisationen ähneln, von denen jede eine völlig unabhängige Einheit ist, die für Vertreter anderer Kulturen und Zivilisationen in ihrem Wesen unverständlich und unzugänglich ist. Die paradigmatische Abhängigkeit der Rationalitätskriterien führt dazu, dass die Wahrheit des Wissens nur noch lokalen Charakter zu haben beginnt. Was von Anhängern eines bestimmten Paradigmas als wahr angesehen wird, wird wahr, wodurch sich herausstellt, dass es so viele Wahrheiten wie Paradigmen gibt. Von einer Bewegung hin zu einer vollständigeren und angemesseneren Beschreibung und einem umfassenderen Verständnis der Welt kann keine Rede sein.

Ist dieser Standpunkt jedoch richtig? Um zu versuchen, diese Frage zu beantworten, ist es notwendig, sich den Kriterien der Rationalität (Wissenschaftlichkeit) zuzuwenden, die in wissenschaftlichen Erkenntnissen funktionieren.

HISTORISCHE VARIABILITÄT

KRITERIEN DER RATIONALITÄT UND DES RELATIVISMUS

Für Anhänger des Konzepts der Inkommensurabilität erweist sich das wichtigste Kriterium zur Bewertung von Theorien – das Experiment – ​​als paradigmatisch abhängig. Und hier geht es nicht so sehr um die theoretische Belastung des experimentellen Ergebnisses, die bereits in aller Munde ist. Das Hauptproblem besteht darin, dass die Interpretation empirischer Fakten, die als Tests für eine Theorie dienen, auch die zu testende Theorie selbst einschließt. Es entsteht eine Art Teufelskreis, der offensichtliche Hindernisse für das Verständnis schafft, wie eine empirische Überprüfung und empirische Begründung von Theorien überhaupt möglich ist.

Um nicht unbegründet zu sein, nenne ich nur ein Beispiel: ein Experiment, um einen der von der Allgemeinen Relativitätstheorie (GTR) vorhergesagten Effekte zu testen – nämlich den Effekt der Winkelverschiebung von Sternen. Es wird angenommen, dass dieses Experiment eine der überzeugendsten Bestätigungen der Allgemeinen Relativitätstheorie war. Die Idee des Experiments war kurz gesagt wie folgt. Der Winkel zwischen den Lichtstrahlen, die von einem Stern kommen, der so „nahe“ an der Sonne liegt, dass seine Strahlen (an einer bestimmten Position der Sonne) die Sonnenscheibe „berühren“, und einem anderen Stern, der von der Sonne entfernt ist, wurde mit verglichen der Winkel zwischen den Strahlen desselben Sterns an einem anderen Sonnenstand, wenn er nicht so „nah“ am Stern ist.

Der Stern, der sich „am Rand der Sonnenscheibe“ befindet, ist offensichtlich nur während einer Sonnenfinsternis zu sehen. Wenn man ein Foto des entsprechenden Teils des Himmels, das während einer Sonnenfinsternis aufgenommen wurde, mit einem Foto desselben Teils des Himmels bei Nacht vergleicht, kann man eine Veränderung im Abstand zwischen den Sternen feststellen. Die Ergebnisse der während der Fertigstellung durchgeführten Beobachtungen Sonnenfinsternisse, demonstrierte überzeugend das Phänomen der Winkelverschiebung von Sternen und die Nähe des erhaltenen Ergebnisses zu dem auf der Grundlage der Allgemeinen Relativitätstheorie berechneten Ergebnis.

Das erzielte Ergebnis wurde, wie bereits erwähnt, als „dramatische“ Bestätigung von Einsteins Theorie gewertet. Es ist jedoch nicht schwer zu erkennen, dass die Interpretation dieses Experiments die Ideen der am meisten getesteten Theorie beinhaltet: Die Winkelverschiebung von Sternen im Rahmen der allgemeinen Relativitätstheorie wird durch die Tatsache erklärt, dass die Sonne eine negative Krümmung in der Raumzeit erzeugt . Die Interpretation des betrachteten Ergebnisses beinhaltet daher die Annahme, dass die Geometrie nichteuklidisch ist. Diese Annahme ist jedoch eine der Hypothesen, auf denen die GTR beruht, da sie sich direkt aus dem starken Äquivalenzprinzip ergibt – einer der „Säulen“ der GTR.

Einer der ausländischen Wissenschaftsphilosophen, G. Hooker, beschrieb das betrachtete Phänomen als „innere Globalität“ der grundlegenden wissenschaftlichen Theorie.

Das Phänomen der inneren Globalität einer grundlegenden wissenschaftlichen Theorie schafft die Voraussetzungen für die Prüfung experimentelles Ergebnis wurde als „Bestätigung“ sowohl der aufeinanderfolgenden als auch der konkurrierenden Theorien angesehen. Natürlich Anhänger von jedem von ihnen. (Das oben diskutierte Experiment zum Testen des Vorhandenseins einer Winkelverschiebung von Sternen im Rahmen der klassischen Gravitationstheorie könnte durch die Ablenkung eines Lichtstrahls unter dem Einfluss erklärt werden Schwerkraftfeld Sonne. Bekanntlich gibt es in der Allgemeinen Relativitätstheorie kein Konzept der Schwerkraft und die Winkelverschiebung von Sternen wird durch die negative Krümmung der nichteuklidischen Raumzeit erklärt. Was die Wahl zwischen ihnen aus experimentellen Gründen zweifellos problematisch macht.

Viele Forscher spüren nicht, was hier wirklich existiert echtes Problem. Mit Verweis auf die Wissenschaftsgeschichte weisen die Gegner darauf hin, dass in der realen Erkenntnis eine Bewertung und ein Vergleich von Theorien stattfände und nicht klar sei, worum es in der Auseinandersetzung gehe. Sie denken, dass Kuhn ein Problem schafft Freiraum:

Schließlich ist es für jeden offensichtlich, dass in der realen Erkenntnis das Verfahren zur Bewertung von Theorien irgendwie durchgeführt wird, Theorien verglichen und ausgewählt werden. Und im Allgemeinen sind solche Verfahren recht effektiv, da dadurch die Theorie ausgewählt wird, die der Realität wirklich am besten entspricht; Wissenschaft als Ganzes ist ein objektives Unternehmen; Seine Erkenntnisse sind im Bereich der Technik anwendbar und werden erfolgreich zum Wohle der Menschen eingesetzt. Das ist alles wahr. Natürlich sehen und verstehen Kuhn und andere Anhänger der Inkommensurabilitätsthese das alles. Aber indem sie die Tatsachen des Vergleichs von Theorien aufzeichnen und die Existenz einer Kontinuität zwischen sich sukzessiv ersetzenden Paradigmen entdecken, stellen sie die Kantische Frage: Wie sind sie möglich? Wie ist es möglich, Theorien angesichts eines radikalen Wandels in der Bedeutung von Konzepten, Veränderungen in den untersuchten Problemen, möglicher Uneinigkeit und des Fehlens gemeinsamer Vergleichskriterien aufeinanderfolgender Theorien zu vergleichen? Über das Problem der Kontinuität und Kommunikation im wissenschaftlichen Wissen sagte Kuhn: „Meine Kritiker weichen oft von der These, dass Kommunikation in der Wissenschaft stattfindet, zu der Behauptung ab, dass es mit der Kommunikation keine Probleme gebe.“ Um es anders auszudrücken: Er könnte dasselbe über das Problem der Bewertung und des Vergleichs von Theorien sagen.

Wir müssen Kuhn Anerkennung zollen: Er hat die Existenz methodischer Kriterien und Standards für die Bewertung von Theorien in der wissenschaftlichen Erkenntnis nicht geleugnet. Darunter nennt er die Genauigkeit der Vorhersagen der Theorie, die Breite ihres Anwendungsbereichs, die mathematische Genauigkeit und die vergleichende Einfachheit. Sie bilden aus Sicht von T. Kuhn die wissenschaftliche Methode zur Etablierung von Rationalität in Naturwissenschaften. Doch in außergewöhnlichen, revolutionären Perioden der Entwicklung wissenschaftlicher Erkenntnisse, d.h. Gerade wenn die Kriterien für eine rationale Theoriewahl besonders gefragt sind, nutzt jeder Wissenschaftler sie auf seine Weise und bringt sein eigenes Verständnis in sie ein. Rationale Überlegungen seien in diesem Fall, so Kuhn, nicht allgemeingültiger Natur. Und deshalb vollzieht sich der Übergang von einer Grundtheorie zur anderen eher als „Gestaltwechsel“ denn als rationale Wahl einer theoretischen Perspektive.

Es scheint, dass der amerikanische Wissenschaftsphilosoph hier der Wahrheit sehr nahe kommt. Wenn man sich der Geschichte des physikalischen Wissens zuwendet, kann man beobachten, dass in jenen Phasen der Entwicklung wissenschaftlicher Erkenntnisse, in denen man sich zwischen einer bestehenden, aber mit Schwierigkeiten konfrontierten und einer neu aufgestellten, konkurrierenden Theorie entscheiden muss, Wissenschaftler scheinbar von der Wenn Sie dieselben wissenschaftlichen Anforderungen an die Theorie stellen, treffen Sie unterschiedliche Entscheidungen.

Sowohl Einstein als auch Bohr führten eine langfristige Diskussion über eine angemessene theoretische Rekonstruktion der Mikrowelt und ließen sich von der Tatsache leiten, dass die Theorie die Realität beschreiben sollte. Aber gleichzeitig gingen sie, wie sich herausstellte, davon aus unterschiedliches Verständnis davon, was physische Realität ist. Einstein konnte als Definition der Realität kein Verständnis davon akzeptieren, das die Realität einer bestimmten physikalischen Größe vom Prozess ihrer Messung abhängig macht. „Keine vernünftige Definition der Realität“, argumentierte er, „kann dies zugeben.“ Aber genau dieses Verständnis der Realität lag der Quantentheorie von N. Bohr zugrunde. Echt ist hier, was während des Messvorgangs aufgezeichnet wird.

Paradigmen in der Physik: Als Wissenschaftler an die Existenz direkter Verbindungen zwischen Theorie und Realität glaubten, glaubten sie, dass die Einfachheit wissenschaftlicher Erkenntnisse eine Folge der Einfachheit der Natur sei. Damals war die Formulierung des Prinzips der Einfachheit als Voraussetzung für die Ökonomie theoretischer Einheiten unter Bezugnahme auf die Einfachheit der Natur üblich (I. Newton). Im 20. Jahrhundert gaben die Naturwissenschaftler angesichts eines ungewöhnlich erweiterten, hochabstrakten Theorieapparats diesen naiven Glauben auf. Die Notwendigkeit einer experimentellen Kontrolle dieses Apparats wird zunehmend erkannt, und daher beginnt das Prinzip der Einfachheit mit dem Kriterium der empirischen Überprüfung einer Theorie zu konvergieren. (Einfache Hypothesen sollten bevorzugt werden, da sie besser überprüfbar und leichter zu falsifizieren sind, argumentierte K. Popper).

Auch ein methodisches Prinzip wie der Beginn der fundamentalen Beobachtbarkeit entwickelt sich direkt vor unseren Augen weiter. Wenn in den Anfangsstadien der Entwicklung der modernen Physik Beobachtbarkeit die obligatorische Fähigkeit bedeutete, ein Mikroobjekt in einem freien Zustand zu isolieren, moderne Physik Er gewöhnt sich immer mehr daran, mit Objekten zu operieren, denen eine solche Möglichkeit grundsätzlich fehlt (Quarks). Symmetrieverletzungen in der Physik haben das Vertrauen in die apodiktische Natur des Symmetrieprinzips als methodischen Erkenntnisregulators erschüttert. Usw.

Ich hoffe, dass es dem Autor gelungen ist, den Leser davon zu überzeugen, dass sich die methodischen Kriterien, die im wissenschaftlichen Wissen auftauchen, mit der Veränderung der spezifischen kognitiven Situation in der Wissenschaft und mit einem Paradigmenwechsel ändern. Wie bereits erwähnt, gibt die Tatsache der paradigmatischen Abhängigkeit der Rationalitätskriterien Anlass für soziologisch orientierte Wissenschaftsforscher, die Möglichkeit einer unabhängigen Bewertung grundlegender wissenschaftlicher Theorien, die die theoretische Grundlage von Paradigmen bilden, zu leugnen. Das bedeutet, ihre Gleichheit und damit ihren Relativismus zu behaupten.

Ist der Relativismus unvermeidlich?

Viele – sowohl inländische als auch ausländische – Forscher glauben, dass sie den Teufelskreis durchbrechen können, der durch die „innere Globalität“ entsteht, wenn sie im kognitiven Prozess selbst bleiben.

grundlegende wissenschaftliche Theorien sind unmöglich, weshalb Relativismus unvermeidlich ist. Sie glauben, dass die Überwindung des Relativismus nur im Prozess des Überschreitens der Grenzen des Wissens, in den Bereich der materiellen und praktischen Tätigkeit der Menschen, in den Bereich möglich ist technologische Anwendungen Theorien. Kurz gesagt, in die Praxis. An dieser Lösung des Problems ist grundsätzlich nichts auszusetzen. Allerdings ist ein einfacher Verweis auf die Praxis, ohne Analyse dieses Kriteriums, ohne den Versuch herauszufinden, was Praxis ist, welche Struktur dieses Kriterium hat, in Wirklichkeit ein Verweis auf die gesamte prägende Zeit. Es verdammt die Methodik zur Passivität. Ihr Hauptmotiv: Lass alles so laufen, wie es in der Wissenschaft läuft, die Zeit wird irgendwann alles an seinen Platz bringen.

Diese passive Position wird jedoch von der jüngeren Generation der Wissenschaftsphilosophen kritisiert und nicht akzeptiert. Im Gegensatz zu Vertretern der älteren Generation (K. Popper, I. Lakatos), die eine Art ahistorisches Modell der Wissensentwicklung aufbauen wollten, verstehen und berücksichtigen diese Philosophen die sich entwickelnde Natur vollständig wissenschaftliche Methode. Dennoch glauben sie, dass der Relativismus überwunden werden kann. Und sie versuchen, es auf dem Weg zur Festlegung eines bestimmten Metakriteriums zu überwinden. Ein solches Superkriterium, das über die „Langzeit“ von Theorien wirkt, ist in den betrachteten Konzepten entweder die zunehmende Wahrhaftigkeit von Theorien (W. Newton-Smith) oder ihr pragmatischer Erfolg (M. Hesse) oder die Fähigkeit von Theorien Probleme lösen (L. Laudan) . Bewertungen in wissenschaftlichen Erkenntnissen können subjektiv und paradigmenabhängig sein, aber all dies führt nicht zum Relativismus, argumentieren Befürworter der betrachteten Sichtweise, wenn es ein Metakriterium gibt, in dessen Lichte die methodischen Prinzipien und Kriterien der Wissenschaftlichkeit berücksichtigt werden Bewertet werden Methoden, die bei der Beurteilung einer bestimmten Theorie oder eines bestimmten Paradigmas verwendet werden. Die experimentelle Bestätigbarkeit von Theorien sowie ihre anhaltende Fähigkeit, Probleme zu lösen, gelten als Zeichen dafür, dass die Methode eines Paradigmas zur Auswahl und zum Vergleich von Theorien korrekt ist.

Es scheint, dass dieser Ansatz grundsätzlich richtig ist. Ohne einige, wenn auch nicht sehr klare und definierte, paradigmatische (und interkulturelle) Kriterien für Rationalität wäre der Relativismus nicht zu vermeiden gewesen. Weder kulturell noch kognitiv. Nur solche Kriterien können bestimmen, um welche der möglichen kulturellen oder kognitiven Welten es sich handelt

hervorgehoben. Und wir sollten uns offenbar darüber einig sein, dass ein empirisches Kriterium die Rolle eines dieser Metakriterien spielen kann.

Hier könnte der aufmerksame Leser Verwirrung äußern: Zu Beginn des Artikels wurde festgestellt, dass das experimentelle Kriterium selbst paradigmenabhängig ist. Hier besteht jedoch kein Widerspruch. Tatsache ist, dass sich das Problem gerade mit dem empirischen Kriterium als lösbar erweist. Wie der Autor dieses Artikels zu zeigen versuchte, ist das Studium der Struktur empirische Ebene Wissen ermöglicht es, den Teufelskreis zu durchbrechen, der durch die interne Globalität der grundlegenden wissenschaftlichen Theorie in Bezug auf experimentelle Ergebnisse entsteht. Eine solche Analyse ermöglicht es, die internen wissenschaftlichen Grundlagen für die Rekonstruktion des Verfahrens zur experimentellen Überprüfung einer Theorie als theoretisch unabhängig und in diesem Sinne objektiv zu identifizieren.

In der Struktur der theoretischen Interpretation empirischer Daten lassen sich zwei relativ unabhängige Komponenten (Unterebenen) des empirischen Wissensstandes unterscheiden. Eine davon ist eine Darstellung des Versuchsergebnisses und kann als „Interpretation-Beschreibung“ bezeichnet werden. Die andere besteht aus einer theoretischen Erklärung des auf der ersten Unterebene aufgezeichneten Ergebnisses und kann als „Interpretation-Erklärung“ bezeichnet werden. Für einen Forscher der realen wissenschaftlichen Praxis erscheinen diese beiden Unterebenen als etwas Untrennbares, das zu einem Ganzen verschmilzt. Wenn man jedoch hinter der scheinbaren Integrität eines theoretisch interpretierten Ergebnisses nicht dessen innere Differenzierung sieht, wird es in der Tat unmöglich sein zu verstehen, wie die experimentelle Überprüfung einer Theorie durchgeführt wird und wie die Objektivität und theoretische Unabhängigkeit einer solchen Überprüfung erreicht wird.

Eine solche Überprüfung wird aufgrund der Existenz einer „Interpretation-Beschreibung“ und ihrer relativen Unabhängigkeit von „Interpretation-Erklärung“ durchgeführt. Obwohl die Interpretationsbeschreibung die Verwendung voraussetzt theoretisches Material(Die Aussage selbst, die das experimentelle Ergebnis angibt, ist nur die Oberfläche des „Eisbergs“, eingetaucht in ein Meer aus theoretischem Material, und das ist der Unterschied zu den „Protokollvorschlägen“ des logischen Positivismus), dieses Material hat eines Merkmal: es wird aus anderen gebildet,- unterscheidet sich von dem, der überprüft wird, Theorien. Somit ist Interpretation-Beschreibung eine Sprache der Beobachtung,

die zwar theoretisch belastet ist, sich aber dennoch als theoretisch neutral (in Bezug auf die zu prüfende Theorie) erweist. Und seine Existenz ist eine ausreichende Grundlage, um zu verstehen, wie eine völlig zuverlässige und unabhängige empirische Überprüfung der Theorie durchgeführt wird.

Das Experiment zur Überprüfung der Winkelverschiebung von Sternen könnte tatsächlich als Bestätigung der Allgemeinen Relativitätstheorie dienen, da sein Ergebnis in der Form einer Aussage formuliert werden kann: „Die Winkelverschiebung von Sternen wird tatsächlich beobachtet.“ Diese Aussage beinhaltet nicht die theoretischen Annahmen der Allgemeinen Relativitätstheorie.

Somit kann (und spielt) das experimentelle Kriterium durchaus die Rolle eines Metakriteriums in Bezug auf paradigmenabhängige Standards und Kriterien der Rationalität spielen. Es gibt offenbar noch andere Kriterien. Sie können entdeckt werden, indem die methodischen Prinzipien, die in der realen wissenschaftlichen Erkenntnis in verschiedenen Entwicklungsstadien der Wissenschaft wirken, analysiert und ihr invarianter Inhalt erfasst wird, der trotz des Paradigmenwechsels unverändert bleibt. Es gibt andere Lösungsansätze für das Problem. Die bereits erwähnte Hilary Putnam spricht beispielsweise von der Existenz einer bestimmten idealen Rationalität, die offenbar die Rolle eines Mechanismus zur Bestimmung der ausgewählten theoretischen Welt im Meer bestehender und vorgeschlagener theoretischer Modelle spielt. Aber all dies ist Gegenstand unabhängiger Forschung.

Brown J.R. Das Labor des Geistes. L.; N.Y., 1991. S. 131.

Hacking I. Präsentation und Intervention. M., 1998. S. 38.

Wenn also das Ziel darin besteht, einen Fluss zu überqueren, dann ist sein Verhalten rational, wenn eine Person ein Boot sucht und versucht, es zu benutzen oder dies durch Schwimmen zu erreichen; Wenn er sich dem Ufer nähert und anfängt, mit den Armen zu fuchteln und zu fliegen, um den Fluss zu überqueren, ist sein Verhalten eindeutig irrational.

Putnam H. Dekret. op. S. 468.

Vaidman L.Über die schizophrene Erfahrung des Neutrons oder warum wir an das MWI der Quantentheorie glauben sollten // Internationale Studien zur Wissenschaftstheorie. Bd. 12. Nr. 3. 1998. S. 246.

Zu den ersten Hausarbeiten, die sich mit diesem Problem befassen, gehören: Mamchur E.A. Das Problem der Verhältnismäßigkeit von Theorien // Physikalische Theorie(Philosophische und methodische Analyse). M., 1980; Porus V.N. // Uspekhi-Physik. Wissenschaft. 1970. T. 102, Ausgabe. 2. S. 270.

Fresnel A. Memoire couronnee sur la diffraction // Oeuvres. Bd. I. Paris, 1966. R. 248.

Mamchur E.A. Probleme der soziokulturellen Bestimmung wissenschaftlichen Wissens M., 1987. S. 55 ff.

Dieses wissenschaftsphilosophische Problem hat drei Aspekte (Fragen).

Erste. Was ist das Wesen der Dynamik der Wissenschaft? Das ist einfach evolutionärer Wandel(Erweiterung des Umfangs und Inhalts wissenschaftlicher Wahrheiten) oder Entwicklung (Veränderung durch Sprünge, Revolutionen, qualitative Meinungsunterschiede zum gleichen Thema)?

Zweite Frage. Ist die Dynamik der Wissenschaft als Ganzes ein Prozess, der kumulativ (akkumulativ) oder antikumulativ ist (was die ständige Ablehnung früherer Ansichten als inakzeptabel und unverhältnismäßig mit den neuen, die sie ersetzen, einschließt)?

Dritte Frage. Kann die Dynamik wissenschaftlicher Erkenntnisse nur durch ihre Selbstveränderung erklärt werden oder auch? maßgeblichen Einfluss durch außerwissenschaftliche (soziokulturelle) Faktoren beeinflusst?

Offensichtlich können die Antworten auf diese Fragen nicht allein auf der Grundlage von erhalten werden Philosophische Analyse Strukturen des Bewusstseins. Es ist auch notwendig, Material aus der realen Wissenschaftsgeschichte einzubeziehen. Es ist jedoch ebenso offensichtlich, dass die Geschichte der Wissenschaft nicht „für sich selbst“ sprechen kann. Die Diskussion der oben formulierten Fragen nahm in den Werken der Postpositivisten (K. Popper, T. Kuhn, I. Lakatos, St. Toulmin, P. Feyerabend, M. Polanyi etc.) im Gegensatz zu ihren Vorgängern einen zentralen Platz ein - logische Positivisten, die als einzigen „legitimen“ Gegenstand der Wissenschaftsphilosophie die logische Analyse der Struktur etablierter („fertiger“) wissenschaftlicher Erkenntnisse betrachteten. Die von Postpositivisten vorgeschlagenen Modelle der Dynamik wissenschaftlichen Wissens basierten jedoch nicht nur auf der Geschichte der Wissenschaft, sondern schlugen auch eine bestimmte Vision davon vor („auferlegte“).

Wenn man über die Natur wissenschaftlicher Veränderungen spricht, muss betont werden, dass sie zwar alle im wissenschaftlichen Bewusstsein und mit seiner Hilfe durchgeführt werden, ihr Inhalt jedoch nicht nur und nicht so sehr vom Bewusstsein abhängt, sondern von den Ergebnissen der Interaktion wissenschaftliches Bewusstsein mit einer bestimmten objektiven Realität außerhalb davon, die es zu begreifen versucht. Darüber hinaus sind die in ihr stattfindenden kognitiven Veränderungen, wie die wahre Geschichte der Wissenschaft überzeugend zeigt, evolutionärer Natur, d. h. gerichtet und irreversibel. Das bedeutet zum Beispiel, dass die allgemeine Riemannsche Geometrie nicht vor der Euklidischen Geometrie hätte erscheinen können, und die Relativitätstheorie und die Quantenmechanik konnten nicht gleichzeitig mit ihr entstanden sein klassische Mechanik. Manchmal wird dies vom Standpunkt der Interpretation der Wissenschaft als einer Verallgemeinerung von Tatsachen erklärt; dann wird die Entwicklung wissenschaftlicher Erkenntnisse als eine Bewegung hin zu immer größeren Verallgemeinerungen interpretiert und der Wandel wissenschaftlicher Theorien als Wandel von einer weniger allgemeinen zu einer allgemeineren Theorie verstanden.

Ansehen wissenschaftliches Wissen als Verallgemeinerung und über ihre Entwicklung als Steigerung des Allgemeinheitsgrades aufeinanderfolgender Theorien – dies ist natürlich ein induktivistisches Konzept der Wissenschaft und ihrer Geschichte. Der Induktivismus war bis zur Mitte des 20. Jahrhunderts das vorherrschende Paradigma in der Wissenschaftsphilosophie. Als Argument zu seiner Verteidigung wurde das sogenannte Korrespondenzprinzip angeführt, wonach das Verhältnis zwischen Alt und Neu wissenschaftliche Theorie(sollte) so sein, dass alle Bestimmungen der vorherigen Theorie als Sonderfall in der neuen Theorie, die sie ersetzt, abgeleitet werden. Als Beispiele wurden üblicherweise einerseits die klassische Mechanik und andererseits die Relativitätstheorie und die Quantenmechanik angeführt; synthetische Evolutionstheorie in der Biologie als Synthese darwinistischer Konzepte und der Genetik; Arithmetik natürlicher Zahlen einerseits und Arithmetik rationaler oder reeller Zahlen andererseits, euklidische und nichteuklidische Geometrie usw. Allerdings mit einer genaueren, strengeren Analyse der Beziehung zwischen den Konzepten der oben genannten Theorien , es gibt keinen „Sonderfall“ oder gar „Grenzfall“ in der Beziehung zwischen ihnen funktioniert nicht.

Es ist klar, dass der Ausdruck „Grenzfall“ eine sehr lose und eher metaphorische Bedeutung hat. Es ist offensichtlich, dass die Masse eines Körpers bei der Bewegung entweder ihren Wert ändert oder nicht. Es gibt kein Drittes. Die klassische Mechanik sagt das Eine, die relativistische Mechanik sagt das genaue Gegenteil. Sie sind inkompatibel und, wie Postpositivisten gezeigt haben, inkommensurabel, weil sie keine gemeinsame neutrale empirische Grundlage haben. Sie sagen unterschiedliche und manchmal unvereinbare Dinge über dasselbe (Masse, Raum, Zeit usw.). Streng genommen ist es auch falsch zu sagen, dass die Arithmetik der reellen Zahlen eine Verallgemeinerung der Arithmetik der rationalen Zahlen und diese wiederum eine Verallgemeinerung der Arithmetik der natürlichen Zahlen sei. Man sagt, dass die Menge der natürlichen Zahlen in die Menge der rationalen Zahlen „isomorph eingebettet“ werden kann. Das Gegenteil ist nicht der Fall. Aber „isomorph verschachtelt“ zu sein bedeutet nicht, dass es sich um einen „Sonderfall“ handelt. Betrachten wir abschließend die Beziehung zwischen euklidischen und nichteuklidischen Geometrien. Letztere stellen keine Verallgemeinerung ersterer dar, da sich viele ihrer Aussagen syntaktisch einfach gegenseitig widersprechen. Von einer Verallgemeinerung der Geometrien Lobatschewskis und Riemanns in Bezug auf die Geometrie Euklids muss nicht gesprochen werden, da sie dieser einfach widersprechen. Kurz gesagt, das Konzept des „Grenzfalls“ soll den qualitativen Unterschied zwischen ihnen verbergen verschiedene Phänomene, denn wenn gewünscht, kann man alles als „Grenzfall“ eines anderen bezeichnen.

Daher kann das Korrespondenzprinzip mit seinem Rückgriff auf den „Grenzfall“ nicht als adäquater Mechanismus für die rationale Rekonstruktion der Entwicklung wissenschaftlicher Erkenntnisse angesehen werden. Der darauf basierende theoretische Kumulativeismus ist eigentlich eine reduktionistische Version der Evolution der Wissenschaft, die qualitative Sprünge im Wandel grundlegender wissenschaftlicher Theorien leugnet.

Es muss auch betont werden, dass die Unvereinbarkeit der alten und neuen Theorien nicht vollständig, sondern nur teilweise ist. Das bedeutet erstens, dass sich viele ihrer Aussagen nicht nur nicht widersprechen, sondern völlig übereinstimmen. Zweitens bedeutet dies, dass die alten und neue Theorie sind teilweise vergleichbar, da sie einige Konzepte (und die entsprechenden Objekte) auf genau die gleiche Weise einführen. Neue Theorien leugnen die alten nicht vollständig, sondern nur teilweise, was im Allgemeinen erheblich ist Ein neues Aussehen zum gleichen Themengebiet.

Die Entwicklung wissenschaftlicher Erkenntnisse ist also ein kontinuierlicher Prozess, der durch qualitative Sprünge in der Vision desselben Fachgebiets gekennzeichnet ist. Daher ist die Entwicklung der Wissenschaft im Allgemeinen nicht kumulativ. Auch wenn mit der Weiterentwicklung der Wissenschaft die Menge an empirischen und theoretischen Informationen ständig zunimmt, wäre es sehr voreilig, daraus den Schluss zu ziehen, dass es Fortschritte beim wahren Inhalt der Wissenschaft gibt. Mit Sicherheit lässt sich nur sagen, dass die alten und die an ihre Stelle tretenden Grundtheorien die Welt nicht nur deutlich anders, sondern oft auch umgekehrt sehen. Eine fortschrittliche Sicht auf die Entwicklung theoretischen Wissens ist nur möglich, wenn die philosophischen Lehren des Präformationismus und Teleologismus in Bezug auf die Entwicklung der Wissenschaft akzeptiert werden.

In der modernen Philosophie und Wissenschaftsgeschichte gibt es zwei Konzepte treibende Faktoren- Internalismus und Externalismus. Das internalistische Konzept wird am ausführlichsten in den Werken von A. Koyré dargestellt. Der Name „Internalismus“ selbst wird durch die Tatsache bestimmt, dass in diesem Konzept intrawissenschaftlichen Faktoren die Hauptbedeutung beigemessen wird. Da Wissenschaft laut Koyre eine spirituelle Tätigkeit ist, kann sie nur aus sich selbst erklärt werden, zumal die theoretische Welt völlig autonom und durch einen Abgrund von der realen Welt getrennt ist.

Ein anderer Ansatz zum Verständnis der treibenden Kräfte der Entwicklung der Wissenschaft – der Externalismus – basiert auf der Anerkennung der führenden Rolle externe Wissenschaft Faktoren, vor allem sozioökonomischer Natur. Externalisten versuchten, dies abzuleiten komplexe Elemente Wissenschaft, wie Inhalte, Themen, Methoden, Ideen und Hypothesen, direkt aus wirtschaftlichen Gründen, wobei die Merkmale der Wissenschaft als spirituelle Produktion, spezifische Aktivitäten zur Erlangung, Begründung und Überprüfung objektiv wahrer Erkenntnisse ignoriert werden.

In frühen menschlichen Gesellschaften waren kognitive und produktive Aspekte untrennbar miteinander verbunden, das anfängliche Wissen war praktischer Natur und diente als eine Art Orientierung bestimmte Typen Menschliche Aktivität. Der Aufbau dieses Wissens war eine wichtige Voraussetzung Zukunftswissenschaft. Für die Entstehung der eigentlichen Wissenschaft waren entsprechende Bedingungen erforderlich: ein gewisser Entwicklungsstand der Produktion und Öffentlichkeitsarbeit, die Aufteilung der geistigen und körperlichen Arbeit und das Vorhandensein breiter Kulturelle Traditionen, um die Wahrnehmung der Errungenschaften anderer Völker und Kulturen sicherzustellen.

Die entsprechenden Bedingungen entwickelten sich erstmals in Antikes Griechenland, wo im 6. Jahrhundert die ersten theoretischen Systeme entstanden. Chr. Denker wie Thales und Demokrit erklärten die Realität bereits durch natürliche Prinzipien und nicht durch Mythologie. Der antike griechische Wissenschaftler Aristoteles beschrieb als erster die Gesetze der Natur, der Gesellschaft und des Denkens und stellte dabei die Objektivität von Wissen, Logik und Überzeugungskraft in den Vordergrund. Im Moment der Erkenntnis wurde ein System abstrakter Konzepte eingeführt, der Grundstein für eine evidenzbasierte Methode der Materialpräsentation gelegt; Es begannen sich einzelne Wissenszweige abzuspalten: Geometrie (Euklid), Mechanik (Archimedes), Astronomie (Ptolemaios).

Zahlreiche Wissensgebiete wurden im Mittelalter durch Wissenschaftler bereichert Arabischer Osten Und Zentralasien: Ibn Sta oder Avicenna (980–1037), Ibn Rushd (1126–1198), Biruni (973–1050). In Westeuropa wurde aufgrund der Dominanz der Religion eine spezifische philosophische Wissenschaft geboren – die Scholastik, und es entwickelten sich auch Alchemie und Astrologie. Die Alchemie trug zur Schaffung der Grundlagen der Wissenschaft im modernen Sinne des Wortes bei, da sie auf der experimentellen Untersuchung natürlicher Substanzen und Verbindungen beruhte und den Boden für die Entwicklung der Chemie bereitete. Die Astrologie war mit der Beobachtung von Himmelskörpern verbunden, die auch die experimentelle Grundlage für die zukünftige Astronomie bildete.

Die wichtigste Etappe Die Entwicklung der Wissenschaft wurde zum New Age - XVI-XVII Jahrhundert. Dabei spielten die Bedürfnisse des entstehenden Kapitalismus eine entscheidende Rolle. In dieser Zeit wurde die Dominanz des religiösen Denkens untergraben und das Experiment (Erfahrung) als führende Forschungsmethode etabliert, die zusammen mit der Beobachtung den Umfang der erkennbaren Realität radikal erweiterte. Zu dieser Zeit begann man, theoretisches Denken mit der praktischen Erforschung der Natur zu verbinden, was die kognitiven Fähigkeiten der Wissenschaft stark steigerte. Wissenschaftliche Revolution des 17. Jahrhunderts. mit der Revolution in der Naturwissenschaft verbunden. Die wissenschaftliche Revolution durchlief mehrere Phasen und ihre Entstehung dauerte eineinhalb Jahrhunderte. Es begann mit N. Copernicus und seinen Anhängern Bruno, Galileo, Kepler. Im Jahr 1543 veröffentlichte der polnische Wissenschaftler N. Copernicus (1473-1543) das Buch „Über die Umdrehungen der Himmelssphären“, in dem er die Idee begründete, dass sich die Erde wie die anderen Planeten des Sonnensystems um die Sonne dreht , der zentrale Körper des Sonnensystems. Kopernikus stellte fest, dass die Erde kein außergewöhnlicher Himmelskörper ist, was dem Anthropozentrismus und religiösen Legenden, denen zufolge die Erde angeblich eine zentrale Position im Universum einnimmt, einen Schlag versetzte. Das geozentrische System des Ptolemäus wurde abgelehnt. Galileo besitzt die größten Errungenschaften auf dem Gebiet der Physik und der Entwicklung des grundlegendsten Problems – der Bewegung; seine Errungenschaften in der Astronomie sind enorm: Rechtfertigung und Anerkennung heliozentrisches System, die Entdeckung der vier größten der 13 derzeit bekannten Monde des Jupiter; Entdeckung der Phasen der Venus, einer außergewöhnlichen Art des Planeten Saturn, die, wie man heute weiß, aus Ringen besteht, die die Gesamtheit darstellen Feststoffe; eine große Anzahl von Sternen, die für das bloße Auge unsichtbar sind. Galilei erzielte wissenschaftliche Erfolge vor allem deshalb, weil er Beobachtungen und Erfahrungen als Ausgangspunkt für die Naturerkenntnis erkannte.

Newton schuf die Grundlagen der Mechanik, entdeckte das Gesetz der universellen Gravitation und entwickelte auf dieser Grundlage die Theorie der Bewegung von Himmelskörpern. Diese wissenschaftliche Entdeckung machte Newton für immer berühmt. Er besitzt Errungenschaften auf dem Gebiet der Mechanik wie die Einführung der Konzepte von Kraft, Energie und die Formulierung der drei Gesetze der Mechanik; auf dem Gebiet der Optik - die Entdeckung der Brechung, Dispersion, Interferenz, Beugung von Licht; im Bereich Mathematik - Algebra, Geometrie, Interpolation, Differential- und Integralrechnung.

Im 18. Jahrhundert machten I. Kant (172-4-1804) und Platas (1749-1827) sowie in der Chemie revolutionäre Entdeckungen in der Astronomie – ihr Beginn ist mit dem Namen AL. Lavoisier (1743-) verbunden. 1794). Die Aktivitäten von M.V. reichen bis in diese Zeit zurück. Lomonossow (1711-1765), der die spätere Entwicklung der Naturwissenschaften weitgehend vorwegnahm.

Im 19. Jahrhundert erlebte die Wissenschaft in allen Bereichen der Naturwissenschaften kontinuierlich revolutionäre Umbrüche. Die Abhängigkeit der modernen Wissenschaft von Experimenten und der Entwicklung der Mechanik legte den Grundstein für die Herstellung einer Verbindung zwischen Wissenschaft und Produktion. Gleichzeitig zu Anfang des 19. Jahrhunderts V. Die von der Wissenschaft in bestimmten Bereichen gesammelten Erfahrungen und Materialien passen nicht mehr in den Rahmen einer mechanistischen Erklärung von Natur und Gesellschaft. Erforderlich neue Runde wissenschaftliche Erkenntnisse und eine tiefere und umfassendere Synthese, die die Ergebnisse einzelner Wissenschaften vereint.

ZU Wende XIX-XX Jahrhunderte In den Grundlagen des wissenschaftlichen Denkens kam es zu großen Veränderungen, das mechanistische Weltbild erschöpfte sich, was die klassische Wissenschaft der Neuzeit in eine Krise führte. Dies wurde zusätzlich zu den oben genannten durch die Entdeckung des Elektrons und der Radioaktivität erleichtert. Als Ergebnis der Lösung der Krise kam es zu einer neuen wissenschaftlichen Revolution, die in der Physik begann und alle Hauptzweige der Wissenschaft erfasste. Sie ist vor allem mit dem Namen A. Einstein (1879-1955) verbunden. Die Entdeckung von Das Elektron, das Radium, die Umwandlung chemischer Elemente, die Entstehung der Relativitätstheorie und der Quantentheorie markierten den Durchbruch auf dem Gebiet der Mikrowelt und der hohen Geschwindigkeiten. Fortschritte in der Physik beeinflussten die Chemie. Quantentheorie, Erklärung der Natur chemische Bindungen, offen für Wissenschaft und Produktion reichlich Möglichkeiten chemische Umwandlung von Materie; Das Eindringen in den Mechanismus der Vererbung begann, die Genetik entwickelte sich und die Chromosomentheorie wurde gebildet.