1 empirische Methoden. Empirische Forschungsmethoden. Methoden der empirischen Forschung

Die empirische Methode basiert auf Sinneswahrnehmungen und Messungen mit komplexen Instrumenten. Empirische Methoden sind neben theoretischen ein wichtiger Bestandteil der wissenschaftlichen Forschung. Ohne diese Techniken könnte sich keine einzige Wissenschaft entwickeln, sei es Chemie, Physik, Mathematik oder Biologie.

Was bedeutet empirische Methode?

Die empirische oder sensorische Methode ist die wissenschaftliche Kenntnis der umgebenden Realität durch Erfahrung, die die Interaktion mit dem Untersuchungsgegenstand durch Experimente und Beobachtungen beinhaltet. Empirische Forschungsmethoden helfen dabei, objektive Gesetze zu identifizieren, nach denen die Entwicklung bestimmter Phänomene erfolgt. Das sind komplexe und komplexe Schritte, aus denen sich neue wissenschaftliche Erkenntnisse ergeben.

Arten empirischer Methoden

Die empirische Kenntnis einer Wissenschaft oder eines Faches basiert auf über die Zeit bewährten Standardmethoden, die für alle Disziplinen gleich sind, aber in jedem spezifischen Bereich ihre eigenen Besonderheiten haben, die für die Wissenschaft charakteristisch sind. Empirische Methoden, Typen:

  • Überwachung:
  • Experiment;
  • Messung;
  • Gespräch;
  • Umfrage;
  • Umfrage;
  • Gespräch.

Empirische Methoden – Vor- und Nachteile

Methoden der empirischen Erkenntnis weisen im Gegensatz zu theoretischen Methoden eine minimale Wahrscheinlichkeit von Fehlern und Mängeln auf, vorausgesetzt, das Experiment wurde viele Male wiederholt und lieferte ähnliche Ergebnisse. Jede empirische Methode nutzt die menschlichen Sinne, die ein zuverlässiges Werkzeug zum Verständnis der Welt um uns herum sind – und das ist der Hauptvorteil dieser Methode.

Empirische Methoden

Empirische Methoden wissenschaftlicher Erkenntnis sind für die Wissenschaft nicht weniger wichtig als theoretische Prämissen. Muster werden empirisch aufgebaut, Hypothesen bestätigt oder widerlegt, daher trägt die empirische Methode als eine Reihe von Methoden, die auf Sinneswahrnehmungen und mit Messgeräten gewonnenen Daten basieren, dazu bei, den Horizont der Wissenschaft zu erweitern und neue Ergebnisse zu erzielen.

Empirische Forschungsmethoden in der Pädagogik

Empirische Methoden der pädagogischen Forschung basieren auf denselben Grundkomponenten:

  • pädagogische Beobachtung – eine bestimmte Aufgabe wird übernommen, ein Zustand, in dem es notwendig ist, Schüler zu beobachten und die Ergebnisse der Beobachtung aufzuzeichnen;
  • Umfragen (Befragungen, Gespräche, Interviews) – helfen, Informationen zu einem bestimmten Thema, persönlichen Merkmalen der Studierenden zu erhalten;
  • Studium studentischer Arbeiten (grafisch, in verschiedenen Disziplinen geschrieben, kreativ) – geben Aufschluss über die Individualität des Studenten, seine Neigung zu einem bestimmten Fach und den Erfolg bei der Aneignung von Wissen;
  • Das Studium der Schuldokumentation (Tagebücher, Klassenzeitschriften, Personalakten) ermöglicht es Ihnen, den Erfolg des pädagogischen Prozesses als Ganzes zu bewerten.

Empirische Methoden in der Psychologie

Die psychologische Wissenschaft entwickelte sich aus der Philosophie und die grundlegendsten Werkzeuge zum Verständnis der mentalen Realität eines anderen waren die Methoden, mit denen man die Manifestationen der Psyche im Außen klar erkennen kann – das sind Experimente. Die physiologische Psychologie, dank derer sich die Psychologie als Ganzes als Wissenschaft entwickelte, wurde vom Psychologen und Physiologen W. Wundt gegründet. Sein Labor für experimentelle Psychologie wurde 1832 eröffnet. Die von Wundt verwendeten empirischen Forschungsmethoden in der Psychologie werden in der klassischen experimentellen Psychologie verwendet:

  1. Beobachtungsmethode. Die Untersuchung von Verhaltensreaktionen und -handlungen eines Individuums unter natürlichen Bedingungen und unter experimentellen Bedingungen mit vorgegebenen Variablen. Zwei Arten der Beobachtung: Introspektion (Selbstbeobachtung, Blick nach innen) – ein notwendiges Element der Selbsterkenntnis und der Verfolgung von Veränderungen in sich selbst, und objektive Beobachtung – ein Beobachter (Psychologe) überwacht und zeichnet Reaktionen, Emotionen, Handlungen der beobachteten Person auf Gruppe von Leuten.
  2. Experimentelle Methode. Im Labor (Laborexperiment) werden besondere Bedingungen geschaffen, die notwendig sind, um eine psychologische Hypothese zu bestätigen oder zu verwerfen. Mithilfe spezieller Geräte und Sensoren werden verschiedene physiologische Parameter erfasst (Puls, Atmung, Gehirnaktivität, Pupillenreaktionen, Verhaltensänderungen). Ein natürliches Experiment wird unter Bedingungen durchgeführt, die dem Menschen vertraut sind, wobei die gewünschte Situation geschaffen wird.
  3. Umfrage– die Bereitstellung von Informationen durch eine Person durch Beantwortung einer Reihe von Fragen.
  4. Gespräch– eine empirische Methode, die auf verbaler Kommunikation basiert und bei der der Psychologe die psychologischen Eigenschaften des Individuums notiert.
  5. Tests– speziell entwickelte Techniken, die eine Reihe von Fragen, unvollendete Sätze und die Arbeit mit Bildern umfassen. Tests zu bestimmten Themen helfen Psychologen, Persönlichkeitsmerkmale zu identifizieren.

Empirische Methode in der Wirtschaftswissenschaft

Die empirische oder experimentelle Methode in der Wirtschaftswissenschaft beinhaltet die Kenntnis der Realität der wirtschaftlichen Lage in der Welt, dies geschieht mit Hilfe von Werkzeugen:

  1. Wirtschaftsüberwachung– wird von Ökonomen zur gezielten Wahrnehmung wirtschaftlicher (ökonomischer) Tatsachen durchgeführt, ohne dass ein aktiver Einfluss auf diese Tatsachen besteht; Beobachtung ist wichtig für die Erstellung theoretischer Modelle der Wirtschaft.
  2. Wirtschaftsexperiment– hier ist eine aktive Beeinflussung eines Wirtschaftsphänomens bereits enthalten, im Rahmen des Experiments werden verschiedene Bedingungen simuliert und der Einfluss untersucht.

Wenn wir ein separates Segment der Wirtschaft betrachten – den Handelsumsatz, dann lauten die empirischen Methoden der Warenwissenschaft wie folgt:

  • Messungen mit technischen Geräten oder Sinnesorganen (Messverfahren, organoleptische Verfahren;
  • Markterhebung und -überwachung (Methoden-Aktionen).

Überwachung. Beobachtung ist eine deskriptive psychologische Forschungsmethode, die die gezielte und organisierte Wahrnehmung und Aufzeichnung des Verhaltens des untersuchten Objekts beinhaltet. Die Beobachtung gilt neben der Selbstbeobachtung als die älteste psychologische Methode. Wissenschaftliche Beobachtung wurde häufig in den Bereichen des wissenschaftlichen Wissens eingesetzt, in denen die Erfassung der Merkmale menschlichen Verhaltens unter verschiedenen Bedingungen von besonderer Bedeutung ist. Auch wenn es unmöglich oder unzulässig ist, in den natürlichen Ablauf des Prozesses einzugreifen.

Die Beobachtung kann entweder direkt durch den Forscher oder durch Beobachtungsgeräte und Aufzeichnung der Ergebnisse erfolgen. Dazu gehören Audio-, Foto- und Videogeräte, einschließlich Überwachungskarten.

Hat mehrere Optionen.
Bei der Außenbeobachtung handelt es sich um eine Möglichkeit, Daten über die Psychologie und Persönlichkeit einer Person zu sammeln, indem man sie direkt von außen beobachtet.
Von innerer Beobachtung oder Selbstbeobachtung spricht man, wenn sich ein Forschungspsychologe die Aufgabe stellt, ein für ihn interessantes Phänomen in der Form zu untersuchen, in der es ihm direkt vor Augen steht. Der Psychologe nimmt das entsprechende Phänomen innerlich wahr, beobachtet es sozusagen (z. B. seine Bilder, Gefühle, Gedanken, Erfahrungen) oder nutzt ähnliche Daten, die ihm von anderen Menschen mitgeteilt werden, die auf seine Anweisung hin selbst Selbstbeobachtung betreiben.

Für die freie Beobachtung gibt es keinen vorab festgelegten Rahmen, kein Programm oder Verfahren zu ihrer Umsetzung. Es kann das Subjekt oder Objekt der Beobachtung, seine Natur während der Beobachtung selbst verändern, je nach den Wünschen des Beobachters.

Die standardisierte Beobachtung hingegen ist vordefiniert und hinsichtlich des Beobachteten klar begrenzt. Sie erfolgt nach einem bestimmten, vorher durchdachten Programm und folgt diesem strikt, unabhängig davon, was während des Beobachtungsprozesses mit dem Objekt oder dem Beobachter selbst passiert.

Bei der teilnehmenden Beobachtung agiert der Forscher als direkter Teilnehmer an dem von ihm beobachteten Prozess. Eine weitere Möglichkeit der teilnehmenden Beobachtung: Während der Untersuchung von Beziehungen zwischen Menschen kann der Experimentator mit den beobachteten Personen kommunizieren und gleichzeitig die Beziehungsentwicklung zwischen ihnen und diesen Personen weiterhin beobachten.

Die Beobachtung durch Dritte impliziert im Gegensatz zur teilnehmenden Beobachtung nicht die persönliche Beteiligung des Beobachters an dem von ihm untersuchten Prozess.

Jede dieser Beobachtungsarten hat ihre eigenen Eigenschaften und wird dort eingesetzt, wo sie die zuverlässigsten Ergebnisse liefern kann. Die Fremdbeobachtung beispielsweise ist weniger subjektiv als die Selbstbeobachtung und kommt meist dort zum Einsatz, wo die zu beobachtenden Merkmale von außen leicht isoliert und beurteilt werden können. Die interne Beobachtung ist unersetzlich und stellt oft die einzige verfügbare Methode zur Erhebung psychologischer Daten dar, wenn keine zuverlässigen externen Anzeichen für das für den Forscher interessante Phänomen vorliegen.

Eine freie Beobachtung empfiehlt sich in Fällen, in denen es unmöglich ist, genau zu bestimmen, was beobachtet werden soll, wenn dem Forscher die Anzeichen des untersuchten Phänomens und sein wahrscheinlicher Verlauf nicht im Voraus bekannt sind. Im Gegensatz dazu ist eine standardisierte Beobachtung am besten geeignet, wenn der Forscher über eine genaue und ziemlich vollständige Liste von Merkmalen verfügt, die mit dem untersuchten Phänomen zusammenhängen.

Die teilnehmende Beobachtung ist dann nützlich, wenn ein Psychologe ein Phänomen nur dann richtig einschätzen kann, wenn er es selbst erlebt. Wenn jedoch unter dem Einfluss der persönlichen Beteiligung des Forschers seine Wahrnehmung und sein Verständnis des Ereignisses verzerrt werden können, ist es besser, auf die Beobachtung durch Dritte zurückzugreifen, deren Verwendung eine objektivere Beurteilung dessen ermöglicht, was ist beobachtet wird.

Die Beobachtung nach Systematik ist unterteilt in:
- Nichtsystematische Beobachtung, bei der es darum geht, ein verallgemeinertes Bild des Verhaltens eines Individuums oder einer Gruppe von Individuen unter bestimmten Bedingungen zu erstellen und nicht darauf abzielt, kausale Abhängigkeiten zu erfassen und Phänomene streng zu beschreiben.
- (Systematische Beobachtung, die nach einem bestimmten Plan durchgeführt wird und bei der der Forscher die Merkmale des Erscheinungsbilds erfasst und Umweltbedingungen klassifiziert.

Bei der Feldforschung erfolgt eine systematische Beobachtung. Ergebnis: Erstellung eines verallgemeinerten Bildes des Verhaltens einer Einzelperson oder Gruppe unter bestimmten Bedingungen. Die systematische Beobachtung erfolgt nach einem bestimmten Plan. Ergebnis: Erfassung von Verhaltensmerkmalen (Variablen) und Klassifizierung von Umweltbedingungen.

Die Beobachtung fester Objekte kann sein:
- Kontinuierliche Beobachtung. Der Forscher versucht, alle Verhaltensmerkmale zu erfassen.
- Selektive Beobachtung. Der Forscher erfasst nur bestimmte Arten von Verhaltenshandlungen oder Verhaltensparametern.

Die Beobachtung hat mehrere Vorteile:
- Durch Beobachtung können Sie Verhaltenshandlungen direkt erfassen und aufzeichnen.
- Durch Beobachtung können Sie gleichzeitig das Verhalten mehrerer Personen zueinander oder zu bestimmten Aufgaben, Objekten usw. erfassen.
- Die Beobachtung ermöglicht die Durchführung von Forschungen unabhängig von der Bereitschaft der beobachteten Probanden.
- Durch die Beobachtung können Sie eine mehrdimensionale Abdeckung erreichen, also mehrere Parameter gleichzeitig erfassen – zum Beispiel verbales und nonverbales Verhalten.
- Effizienz der Informationsbeschaffung.
- Relative Billigkeit der Methode.

Allerdings gibt es gleichzeitig auch Nachteile. Zu den Nachteilen der Beobachtung gehören:
- Zahlreiche irrelevante Störfaktoren können die Beobachtungsergebnisse beeinflussen:
- die Stimmung des Betrachters;
- die soziale Stellung des Beobachters im Verhältnis zum Beobachteten;
- Beobachtervoreingenommenheit;
- Komplexität der beobachteten Situationen;
- Wirkung des ersten Eindrucks;
- Ermüdung des Beobachters und des Beobachteten;
- Fehler in Schätzungen („Halo-Effekt“, „Nachsichtseffekt“, Mittelungsfehler, Modellierungsfehler, Kontrastfehler).
- Das einmalige Eintreten beobachteter Umstände, was dazu führt, dass auf der Grundlage einzelner beobachteter Tatsachen keine allgemeine Schlussfolgerung gezogen werden kann.
- Die Notwendigkeit, Beobachtungsergebnisse zu klassifizieren.
- Geringe Repräsentativität für große Allgemeinbevölkerungen.
- Schwierigkeiten bei der Aufrechterhaltung der betrieblichen Gültigkeit.

Befragung. Das Fragen ist ebenso wie das Beobachten eine der häufigsten Forschungsmethoden in der Psychologie. Fragebogenumfragen werden in der Regel anhand von Beobachtungsdaten durchgeführt, die (zusammen mit Daten, die durch andere Forschungsmethoden gewonnen wurden) zur Erstellung von Fragebögen verwendet werden.

Es gibt drei Haupttypen von Fragebögen, die in der Psychologie verwendet werden:
- besteht aus direkten Fragen und zielt darauf ab, die wahrgenommenen Qualitäten der Probanden zu ermitteln.
- selektive Fragebögen, bei denen den Probanden auf jede Frage des Fragebogens mehrere vorgefertigte Antworten angeboten werden; Die Aufgabe des Probanden besteht darin, die am besten geeignete Antwort auszuwählen.
- Fragebögen-Skalen; Bei der Beantwortung von Fragen in Skalenfragebögen muss der Proband nicht nur die richtigste der vorgefertigten Antworten auswählen, sondern auch die Richtigkeit der vorgeschlagenen Antworten analysieren (in Punkten bewerten).

Skalenfragebögen sind der am stärksten formalisierte Fragebogentyp, da sie eine genauere quantitative Analyse der Umfragedaten ermöglichen.

Ein unbestreitbarer Vorteil der Erhebungsmethode ist die schnelle Erfassung von Massenmaterial.

Der Nachteil der Fragebogenmethode besteht darin, dass sie in der Regel nur die Offenlegung der obersten Ebene von Faktoren ermöglicht: Materialien, die Fragebögen und Fragebögen (bestehend aus direkten Fragen an die Probanden) verwenden, können dem Forscher keine Vorstellung von vielen vermitteln Muster und kausale Abhängigkeiten im Zusammenhang mit der Psychologie. Befragen ist ein Mittel der ersten Orientierung, ein Mittel der Vorerkundung. Um die festgestellten Mängel von Fragebögen auszugleichen, sollte der Einsatz dieser Methode mit dem Einsatz aussagekräftigerer Forschungsmethoden sowie wiederholten Fragebögen, der Verschleierung der wahren Zwecke der Befragungen vor den Probanden usw. kombiniert werden.

Konversation ist eine psychologisch spezifische Methode zur Untersuchung menschlichen Verhaltens, da in anderen Naturwissenschaften eine Kommunikation zwischen Subjekt und Forschungsgegenstand unmöglich ist.

Bei der Konversationsmethode handelt es sich um einen Dialog zwischen zwei Personen, bei dem eine Person die psychologischen Eigenschaften der anderen offenbart.

Das Gespräch wird als zusätzliche Methode in den Aufbau des Experiments in der ersten Phase einbezogen, wenn der Forscher Primärinformationen über das Thema sammelt, ihm Anweisungen gibt, motiviert usw. und in der letzten Phase – in Form eines Post- experimentelles Interview.

Die Einhaltung aller notwendigen Voraussetzungen für die Gesprächsführung beinhaltet die Sammlung vorläufiger Informationen zu den Themen, was diese Methode zu einem sehr effektiven Mittel der psychologischen Forschung macht. Daher ist es ratsam, das Gespräch unter Berücksichtigung von Daten zu führen, die durch Methoden wie Beobachtung und Fragebögen gewonnen wurden. In diesem Fall kann es zu seinen Zielen gehören, vorläufige Schlussfolgerungen zu überprüfen, die sich aus den Ergebnissen der psychologischen Analyse ergeben und durch die Verwendung dieser Methoden der primären Orientierung an den psychologischen Merkmalen der untersuchten Probanden gewonnen werden.

Eine Umfrage ist eine Methode, bei der eine Person eine Reihe von Fragen beantwortet, die ihr gestellt werden. Es gibt mehrere Umfragemöglichkeiten und jede davon hat ihre eigenen Vor- und Nachteile.

Mündliche Befragungen kommen dann zum Einsatz, wenn es wünschenswert ist, das Verhalten und die Reaktionen des Befragten zu beobachten. Diese Art der Befragung ermöglicht einen tieferen Einblick in die menschliche Psychologie als eine schriftliche Befragung, erfordert jedoch eine besondere Vorbereitung, Schulung und in der Regel viel Zeit für die Durchführung der Befragung. Die im Rahmen eines mündlichen Interviews erhaltenen Antworten der Probanden hängen maßgeblich von der Persönlichkeit des Interviewenden, von den individuellen Eigenschaften des Fragenden und vom Verhalten beider Personen in der Interviewsituation ab.

Mit einer schriftlichen Umfrage können Sie mehr Menschen erreichen. Die häufigste Form ist ein Fragebogen. Der Nachteil besteht jedoch darin, dass es bei der Verwendung eines Fragebogens nicht möglich ist, die Reaktionen des Befragten auf den Inhalt seiner Fragen im Voraus zu berücksichtigen und diese darauf aufbauend zu ändern.

Bei einer kostenlosen Befragung handelt es sich um eine Form der mündlichen oder schriftlichen Befragung, bei der der Katalog der gestellten Fragen und möglichen Antworten darauf nicht vorab auf einen bestimmten Rahmen beschränkt ist. Eine solche Umfrage ermöglicht es Ihnen, die Recherchetaktik und den Inhalt der gestellten Fragen flexibel zu ändern und ungewöhnliche Antworten darauf zu erhalten.

Standardisierte Umfrage – Fragen und die Art der möglichen Antworten darauf werden im Voraus festgelegt und sind in der Regel auf einen relativ engen Rahmen beschränkt, was sie zeit- und materialwirtschaftlicher macht als eine kostenlose Umfrage.

Tests sind spezialisierte Methoden der psychodiagnostischen Untersuchung, mit denen Sie eine genaue quantitative oder qualitative Charakterisierung des untersuchten Phänomens erhalten können. Tests unterscheiden sich von anderen Forschungsmethoden dadurch, dass sie ein klares Verfahren zur Erhebung und Verarbeitung von Primärdaten sowie die Originalität ihrer anschließenden Interpretation erfordern. Mithilfe von Tests können Sie die Psychologie verschiedener Menschen untersuchen und vergleichen sowie differenzierte und vergleichbare Einschätzungen abgeben.

Der Testfragebogen basiert auf einem System vorüberlegter, sorgfältig ausgewählter und auf ihre Validität und Verlässlichkeit geprüfter Fragen, deren Antworten zur Beurteilung der psychologischen Qualitäten der Probanden herangezogen werden können.

Bei der Testaufgabe geht es darum, die Psychologie und das Verhalten einer Person anhand ihrer Handlungen zu beurteilen. Bei Tests dieser Art wird dem Probanden eine Reihe spezieller Aufgaben gestellt, anhand deren Ergebnisse er das Vorhandensein oder Nichtvorhandensein und den Entwicklungsstand der untersuchten Qualität beurteilt.

Der Testfragebogen und die Testaufgabe sind auf Menschen unterschiedlichen Alters, unterschiedlicher Kulturangehörigkeit, unterschiedlichen Bildungsniveaus, unterschiedlicher Berufe und unterschiedlicher Lebenserfahrungen anwendbar. Das ist ihre positive Seite.

Der Nachteil von Tests besteht darin, dass bei ihrer Verwendung... Der Studierende kann die erzielten Ergebnisse bewusst und nach Belieben beeinflussen, insbesondere wenn er im Voraus weiß, wie der Test aufgebaut ist und wie anhand seiner Ergebnisse Psychologie und Verhalten beurteilt werden. Darüber hinaus sind der Testfragebogen und die Testaufgabe nicht anwendbar, wenn psychologische Eigenschaften und Merkmale untersucht werden, deren Existenz der Proband nicht vollständig sicher sein kann, die er nicht erkennt oder deren Vorhandensein nicht bewusst akzeptieren möchte sich selbst. Zu diesen Merkmalen zählen beispielsweise viele negative persönliche Eigenschaften und Verhaltensmotive. In diesen Fällen wird üblicherweise die dritte Art von Tests verwendet – projektive.

Projektive Tests. Projektive Tests basieren auf dem Mechanismus der Projektion, wonach eine Person dazu neigt, ihre unbewussten Eigenschaften, insbesondere Mängel, anderen Menschen zuzuschreiben. Projektive Tests sollen die psychologischen und Verhaltensmerkmale von Menschen untersuchen, die negative Einstellungen hervorrufen. Mit Tests dieser Art wird die Psychologie des Probanden danach beurteilt, wie er Situationen wahrnimmt und bewertet, die Psychologie und das Verhalten von Menschen, welche persönlichen Eigenschaften, Motive positiver oder negativer Natur er ihnen zuschreibt.

Mithilfe eines projektiven Tests führt der Psychologe die Versuchsperson in eine imaginäre, handlungsundefinierte Situation ein, die einer willkürlichen Interpretation unterliegt.

Projektive Typtests stellen erhöhte Anforderungen an den Bildungsstand und die intellektuelle Reife der Testteilnehmer, was die wesentliche praktische Einschränkung ihrer Anwendbarkeit darstellt. Darüber hinaus erfordern solche Tests eine umfangreiche Spezialausbildung und hohe fachliche Qualifikation des Psychologen selbst.

Experiment. Die Besonderheit eines Experiments als Methode der psychologischen Forschung besteht darin, dass es gezielt und durchdacht eine künstliche Situation schafft, in der die untersuchte Eigenschaft am besten hervorgehoben, manifestiert und bewertet wird. Der Hauptvorteil des Experiments besteht darin, dass es zuverlässiger als alle anderen Methoden ermöglicht, Rückschlüsse auf die Ursache-Wirkungs-Beziehungen des untersuchten Phänomens mit anderen Phänomenen zu ziehen und den Ursprung des Phänomens und seine Entwicklung wissenschaftlich zu erklären .

Es gibt zwei Haupttypen von Experimenten: natürliche und Laborexperimente.

Ein natürliches Experiment wird unter normalen Lebensbedingungen organisiert und durchgeführt, wobei der Experimentator praktisch nicht in den Ablauf der Ereignisse eingreift und sie aufzeichnet, während sie sich von selbst entwickeln.

Bei einem Laborexperiment geht es darum, eine künstliche Situation zu schaffen, in der die untersuchte Eigenschaft am besten untersucht werden kann.

Die in einem natürlichen Experiment gewonnenen Daten entsprechen am besten dem typischen Lebensverhalten eines Individuums, der tatsächlichen Psychologie von Menschen, sind jedoch nicht immer genau, da der Experimentator nicht in der Lage ist, den Einfluss verschiedener Faktoren auf die untersuchte Eigenschaft streng zu kontrollieren . Im Gegensatz dazu sind die Ergebnisse eines Laborexperimentes von höherer Genauigkeit, aber von geringerer Natürlichkeit – Übereinstimmung mit dem Leben.

Modellierung als Methode wird verwendet, wenn die Untersuchung eines für einen Wissenschaftler interessanten Phänomens durch einfache Beobachtung, Umfrage, Test oder Experiment aufgrund der Komplexität oder Unzugänglichkeit schwierig oder unmöglich ist. Anschließend erstellen sie ein künstliches Modell des untersuchten Phänomens und wiederholen dessen Hauptparameter und erwartete Eigenschaften. Dieses Modell wird verwendet, um dieses Phänomen im Detail zu untersuchen und Rückschlüsse auf seine Natur zu ziehen.

Modelle können technisch, logisch, mathematisch oder kybernetisch sein.

Ein mathematisches Modell ist ein Ausdruck oder eine Formel, die Variablen und Beziehungen zwischen ihnen umfasst und Elemente und Beziehungen im untersuchten Phänomen reproduziert.

Bei der technischen Modellierung geht es darum, ein Gerät oder Gerät zu erstellen, das in seiner Wirkung dem ähnelt, was untersucht wird.

Die kybernetische Modellierung basiert auf der Verwendung von Konzepten aus der Informatik und Kybernetik als Modellelemente.

Die Logikmodellierung basiert auf den Ideen und der Symbolik der mathematischen Logik. Die bekanntesten Beispiele mathematischer Modellierung in der Psychologie sind Formeln, die die Gesetze von Bouguer-Weber, Weber-Fechner und Stevens ausdrücken. Logische Modellierung wird häufig verwendet, um menschliches Denken zu untersuchen und es mit der Problemlösung per Computer zu vergleichen.

Zusätzlich zu den oben genannten Methoden zur Sammlung primärer Informationen verwendet die Psychologie in großem Umfang verschiedene Methoden und Techniken zur Verarbeitung dieser Daten, ihrer logischen und mathematischen Analyse, um sekundäre Ergebnisse zu erhalten, d.h. Fakten und Schlussfolgerungen, die sich aus der Interpretation der verarbeiteten Primärinformationen ergeben. Hierzu kommen insbesondere verschiedene Methoden der mathematischen Statistik zum Einsatz, ohne die es oft nicht möglich ist, verlässliche Informationen über die untersuchten Phänomene zu erhalten, sowie Methoden der qualitativen Analyse.

Zu den Methoden der empirischen Forschung in Wissenschaft und Technik gehören unter anderem Beobachtung, Vergleich, Messung und Experiment.

Unter Beobachtung versteht man eine systematische und zielgerichtete Wahrnehmung eines Objekts, das uns aus irgendeinem Grund interessiert: Dinge, Phänomene, Eigenschaften, Zustände, Aspekte des Ganzen – sowohl materieller als auch idealer Natur.

Dies ist die einfachste Methode, die in der Regel als Teil anderer empirischer Methoden fungiert, obwohl sie in einer Reihe von Wissenschaften unabhängig oder als Hauptmethode fungiert (wie in der Wetterbeobachtung, beobachtenden Astronomie usw.). Die Erfindung des Teleskops ermöglichte es dem Menschen, die Beobachtung auf einen bisher unzugänglichen Bereich der Megawelt auszudehnen; die Schaffung des Mikroskops markierte eine Invasion der Mikrowelt. Ein Röntgengerät, Radar, Ultraschallgenerator und viele andere technische Beobachtungsmittel haben zu einer beispiellosen Steigerung des wissenschaftlichen und praktischen Werts dieser Forschungsmethode geführt. Darüber hinaus gibt es Methoden und Techniken zur Selbstbeobachtung und Selbstkontrolle (in der Psychologie, Medizin, Sport und Sport etc.).

Der Begriff der Beobachtung selbst erscheint in der Erkenntnistheorie im Allgemeinen in Form des Begriffs „Kontemplation“ und ist mit den Kategorien Aktivität und Aktivität des Subjekts verbunden.

Um fruchtbar und produktiv zu sein, muss die Beobachtung die folgenden Anforderungen erfüllen:

beabsichtigt sein, d. h. durchgeführt werden, um klar definierte Probleme im Rahmen der allgemeinen Ziele der wissenschaftlichen Tätigkeit und Praxis zu lösen; -

systematisch, das heißt, aus Beobachtungen zu bestehen, die einem bestimmten Plan oder Muster folgen, das sich aus der Art des Objekts sowie den Zielen und Vorgaben der Studie ergibt; -

zielgerichtet, das heißt, die Aufmerksamkeit des Beobachters nur auf die Objekte zu richten, die ihn interessieren, und sich nicht auf diejenigen zu konzentrieren, die außerhalb der Beobachtungsaufgaben liegen. Die Beobachtung, die auf die Wahrnehmung einzelner Details, Seiten, Aspekte, Teile eines Objekts abzielt, wird als Fixierung bezeichnet, und die Abdeckung des Ganzen unter der Bedingung wiederholter Beobachtung (Rückkehr) wird als Schwankung bezeichnet. Die Kombination dieser Beobachtungsarten ergibt letztlich ein ganzheitliches Bild des Objekts; -

aktiv sein, das heißt, wenn der Beobachter gezielt unter einer bestimmten Menge von Objekten nach für seine Aufgaben notwendigen Objekten sucht, einzelne Eigenschaften und Aspekte dieser Objekte berücksichtigt, die ihn interessieren, und dabei auf seinen eigenen Wissens-, Erfahrungs- und Fähigkeitsbestand zurückgreift; -

systematisch, das heißt, wenn der Beobachter seine Beobachtung kontinuierlich und nicht zufällig und sporadisch (wie bei der einfachen Kontemplation) nach einem bestimmten, vorher durchdachten Schema unter verschiedenen oder genau festgelegten Bedingungen durchführt.

Die Beobachtung als Methode der wissenschaftlichen Erkenntnis und Praxis liefert uns Fakten in Form einer Reihe empirischer Aussagen über Objekte. Diese Fakten bilden primäre Informationen über die Objekte der Erkenntnis und des Studiums. Beachten wir, dass es in der Realität selbst keine Fakten gibt: Sie existiert einfach. Fakten liegen in den Köpfen der Menschen. Die Beschreibung wissenschaftlicher Sachverhalte erfolgt auf der Grundlage einer bestimmten wissenschaftlichen Sprache, Ideen, Weltbildern, Theorien, Hypothesen und Modellen. Sie bestimmen die primäre Schematisierung der Idee eines bestimmten Objekts. Tatsächlich entsteht gerade unter solchen Bedingungen der „Gegenstand der Wissenschaft“ (der nicht mit dem Gegenstand der Realität selbst verwechselt werden sollte, da der zweite eine theoretische Beschreibung des ersten ist!).

Viele Wissenschaftler entwickelten gezielt ihre Beobachtungsfähigkeit, also die Beobachtung. Charles Darwin sagte, dass er seine Erfolge der Tatsache verdankte, dass er diese Qualität in sich selbst intensiv weiterentwickelte.

Der Vergleich ist eine der gebräuchlichsten und universellsten Erkenntnismethoden. Der bekannte Aphorismus: „Alles erkennt man durch Vergleich“ ist der beste Beweis dafür. Vergleich ist die Feststellung von Ähnlichkeiten (Identitäten) und Unterschieden zwischen Objekten und Phänomenen verschiedener Art, ihren Aspekten usw., im Allgemeinen Untersuchungsobjekten. Durch den Vergleich wird festgestellt, was zwei oder mehr Objekte gemeinsam haben – im Moment oder in ihrer Geschichte. In den Wissenschaften historischer Natur wurde der Vergleich auf die Ebene der Hauptforschungsmethode entwickelt, die als vergleichende Geschichtswissenschaft bezeichnet wurde. Die Identifizierung des Allgemeinen, Wiederkehrenden in den Phänomenen ist bekanntlich ein Schritt auf dem Weg zur Erkenntnis des Natürlichen.

Damit ein Vergleich fruchtbar ist, muss er zwei Grundvoraussetzungen erfüllen: Es sollten nur solche Aspekte und Aspekte, Objekte als Ganzes, verglichen werden, zwischen denen eine objektive Gemeinsamkeit besteht; Der Vergleich sollte auf den wichtigsten und signifikantesten Merkmalen einer bestimmten Forschung oder anderen Aufgabe basieren. Ein Vergleich auf der Grundlage unwichtiger Merkmale kann nur zu falschen Vorstellungen und Irrtümern führen. In dieser Hinsicht muss man vorsichtig sein, wenn man „analoge“ Schlussfolgerungen zieht. Die Franzosen sagen sogar: „Vergleich ist kein Beweis!“

Objekte, die für einen Forscher, Ingenieur oder Designer von Interesse sind, können entweder direkt oder indirekt – über ein drittes Objekt – verglichen werden. Im ersten Fall erhält man qualitative Einschätzungen der Art: mehr – weniger, heller – dunkler, höher – tiefer, näher – weiter usw. Allerdings kann man auch hier die einfachsten quantitativen Merkmale erhalten: „doppelt so hoch“, „ „doppelt so schwer“ usw. Wenn zusätzlich ein dritter Gegenstand in der Rolle eines Maßstabs, Maßes, Maßstabs auftritt, erhält man besonders wertvolle und genauere quantitative Merkmale. Ich nenne einen solchen Vergleich durch ein Zwischenobjekt eine Messung. Der Vergleich bereitet auch die Grundlage für eine Reihe theoretischer Methoden. Sie selbst basiert oft auf Analogieschlüssen, die wir weiter diskutieren werden.

Die Messung hat sich historisch aus Beobachtung und Vergleich entwickelt. Im Gegensatz zu einem einfachen Vergleich ist er jedoch effektiver und genauer. Moderne Naturwissenschaft, die mit Leonardo da Vinci, Galileo und Newton begann. Es blühte aufgrund der Verwendung von Messungen auf. Es war Galileo, der das Prinzip einer quantitativen Herangehensweise an Phänomene verkündete, wonach die Beschreibung physikalischer Phänomene auf Größen basieren sollte, die ein quantitatives Maß haben – die Zahl. Er sagte, dass das Buch der Natur in der Sprache der Mathematik geschrieben sei. Technik, Design und Konstruktion führen diese Linie in ihren Methoden fort. Im Gegensatz zu anderen Autoren, die Messung und Experiment kombinieren, betrachten wir hier die Messung als eigenständige Methode.

Messung ist ein Verfahren zur Bestimmung des numerischen Werts einer Eigenschaft eines Objekts durch Vergleich mit einer Maßeinheit, die von einem bestimmten Forscher oder allen Wissenschaftlern und Praktikern als Standard akzeptiert wird. Bekanntlich gibt es internationale und nationale Maßeinheiten für die Grundeigenschaften verschiedener Objektklassen, wie Stunde, Meter, Gramm, Volt, Bit usw.; Tag, Pud, Pfund, Werst, Meile usw. Die Messung setzt das Vorhandensein der folgenden Grundelemente voraus: ein Messobjekt, eine Maßeinheit, also eine Skala, ein Maß, ein Standard; Messgerät; Messmethode; Beobachter.

Messungen können direkt oder indirekt erfolgen. Bei der direkten Messung wird das Ergebnis direkt aus dem Messvorgang selbst gewonnen (z. B. durch Längen-, Zeit-, Gewichtsmaße usw.). Bei der indirekten Messung wird der gewünschte Wert rechnerisch anhand anderer zuvor durch direkte Messung gewonnener Werte ermittelt. So erhält man beispielsweise das spezifische Gewicht, die Fläche und das Volumen von Körpern regelmäßiger Form, die Geschwindigkeit und Beschleunigung des Körpers, die Leistung usw.

Die Messung ermöglicht es uns, empirische Gesetze und grundlegende Weltkonstanten zu finden und zu formulieren. In dieser Hinsicht kann es als Quelle für die Bildung sogar ganzer wissenschaftlicher Theorien dienen. Langzeitmessungen der Planetenbewegung durch Tycho de Brahe ermöglichten es Kepler später, Verallgemeinerungen in Form der bekannten drei empirischen Gesetze der Planetenbewegung zu erstellen. Die Messung der Atomgewichte in der Chemie war eine der Grundlagen für Mendelejews Formulierung seines berühmten periodischen Gesetzes in der Chemie usw. Die Messung liefert nicht nur genaue quantitative Informationen über die Realität, sondern ermöglicht uns auch die Einführung neuer qualitativer Überlegungen in die Theorie. Dies geschah letztendlich mit Michelsons Messung der Lichtgeschwindigkeit während der Entwicklung von Einsteins Relativitätstheorie. Die Beispiele können fortgesetzt werden.

Der wichtigste Indikator für den Wert einer Messung ist ihre Genauigkeit. Dadurch können Fakten entdeckt werden, die nicht mit den derzeit bestehenden Theorien übereinstimmen. Einst konnten beispielsweise Abweichungen des Perihels des Merkur vom berechneten Wert (also im Einklang mit den Gesetzen von Kepler und Newton) um 13 Sekunden pro Jahrhundert nur durch die Schaffung eines neuen, relativistischen Weltbildes erklärt werden die allgemeine Relativitätstheorie.

Die Genauigkeit der Messungen hängt von den verfügbaren Instrumenten, ihren Fähigkeiten und Qualität, den verwendeten Methoden und der Ausbildung des Forschers ab. Messungen kosten oft viel Geld, nehmen oft viel Zeit in der Vorbereitung in Anspruch, nehmen viele Personen in Anspruch und die Ergebnisse können entweder null oder nicht eindeutig sein. Oftmals sind Forscher nicht bereit für die erzielten Ergebnisse, weil sie ein bestimmtes Konzept oder eine bestimmte Theorie teilen, dieses Ergebnis jedoch nicht einschließen kann. So testete der Wissenschaftler Landolt zu Beginn des 20. Jahrhunderts das Gesetz der Gewichtserhaltung von Stoffen in der Chemie sehr genau und war von seiner Gültigkeit überzeugt. Wenn seine Technik verbessert würde (und die Genauigkeit um 2 bis 3 Größenordnungen erhöht würde), wäre es möglich, Einsteins berühmte Beziehung zwischen Masse und Energie abzuleiten: E = mc. Aber hätte dies die damalige wissenschaftliche Welt überzeugt? Kaum! Die Wissenschaft war dafür noch nicht bereit. Als der englische Physiker F. Aston im 20. Jahrhundert durch die Bestimmung der Massen radioaktiver Isotope durch Ablenkung eines Ionenstrahls Einsteins theoretische Schlussfolgerung bestätigte, wurde dies in der Wissenschaft als natürliches Ergebnis angesehen.

Bitte beachten Sie, dass bestimmte Anforderungen an die Genauigkeit gestellt werden. Sie muss der Art der Objekte und den Anforderungen der kognitiven, gestalterischen, ingenieurtechnischen oder ingenieurwissenschaftlichen Aufgabe entsprechen. In der Technik und im Bauwesen beschäftigt man sich also ständig mit der Messung von Masse (also Gewicht), Länge (Größe) usw. Aber in den meisten Fällen ist Präzision und Genauigkeit hier nicht erforderlich; außerdem würde es im Allgemeinen komisch aussehen, wenn es beispielsweise um das Gewicht geht Die Stützsäule für das Gebäude wurde auf Tausendstel oder sogar kleinere Bruchteile eines Gramms geprüft! Hinzu kommt das Problem der Schüttgutmessung, das mit zufälligen Abweichungen verbunden ist, wie es bei großen Gesteinskörnungen der Fall ist. Ähnliche Phänomene sind typisch für Objekte der Mikrowelt, für biologische, soziale, wirtschaftliche und andere ähnliche Objekte. Hier kommen die Suche nach einem statistischen Mittelwert und speziell auf die Verarbeitung von Zufälligkeiten und deren Verteilungen ausgerichtete Methoden in Form probabilistischer Methoden usw. in Frage.

Um zufällige und systematische Messfehler zu eliminieren, um Fehler und Irrtümer zu identifizieren, die mit der Natur der Instrumente und des Beobachters (Mensch) verbunden sind, wurde eine spezielle mathematische Fehlertheorie entwickelt.

Im 20. Jahrhundert erlangten Messmethoden unter Bedingungen schneller Prozesse, in aggressiven Umgebungen, in denen die Anwesenheit eines Beobachters ausgeschlossen ist usw., im Zusammenhang mit der Entwicklung der Technologie eine besondere Bedeutung. Abhilfe schafften hier Methoden der Auto- und Elektrometrie sowie der computergestützten Informationsverarbeitung und Steuerung von Messprozessen. Bei ihrer Entwicklung spielten die Entwicklungen von Wissenschaftlern des Nowosibirsker Instituts für Automatisierung und Elektrometrie SB RAS sowie der NSTU (NETI) eine herausragende Rolle. Das waren Weltklasse-Ergebnisse.

Die Messung wird neben Beobachtung und Vergleich häufig auf der empirischen Ebene der Erkenntnis und der menschlichen Aktivität im Allgemeinen eingesetzt; sie ist Teil der am weitesten entwickelten, komplexesten und bedeutendsten Methode – der experimentellen.

Unter einem Experiment versteht man eine Methode zur Untersuchung und Transformation von Objekten, wenn ein Forscher sie aktiv beeinflusst, indem er künstliche Bedingungen schafft, die erforderlich sind, um für ihn interessante Eigenschaften, Merkmale oder Aspekte zu identifizieren, den Verlauf natürlicher Prozesse bewusst verändert und dabei Regulierungen und Messungen durchführt und Beobachtungen. Die wichtigsten Mittel zur Schaffung solcher Bedingungen sind verschiedene Instrumente und künstliche Geräte, auf die wir im Folgenden eingehen werden. Ein Experiment ist die komplexeste, umfassendste und effektivste Methode zur empirischen Erkenntnis und Transformation von Objekten unterschiedlicher Art. Aber sein Wesen liegt nicht in der Komplexität, sondern in der Zweckmäßigkeit, Intentionalität und Intervention durch Regulierung und Management während der untersuchten und transformierten Prozesse und Zustände von Objekten.

Galileo gilt als Begründer der experimentellen Wissenschaft und der experimentellen Methode. Erfahrung als Hauptweg der Naturwissenschaft wurde erstmals Ende des 16. und Anfang des 17. Jahrhunderts vom englischen Philosophen Francis Bacon identifiziert. Erfahrung ist der Hauptweg für Ingenieurwesen und Technologie.

Die besonderen Merkmale eines Experiments sind die Möglichkeit, ein Objekt in relativ reiner Form zu untersuchen und umzuwandeln, wenn alle Nebenfaktoren, die das Wesen der Sache verschleiern, fast vollständig eliminiert werden. Dies ermöglicht die Untersuchung von Objekten der Realität unter extremen Bedingungen, also bei extrem niedrigen und extrem hohen Temperaturen, Drücken und Energien, Prozessgeschwindigkeiten, elektrischen und magnetischen Feldstärken, Wechselwirkungsenergien usw.

Unter diesen Bedingungen ist es möglich, von gewöhnlichen Objekten unerwartete und überraschende Eigenschaften zu erhalten und dadurch tiefer in ihr Wesen und ihre Transformationsmechanismen einzudringen (extremes Experiment und Analyse).

Beispiele für Phänomene, die unter extremen Bedingungen entdeckt wurden, sind Supraflüssigkeit und Supraleitung bei niedrigen Temperaturen. Der wichtigste Vorteil eines Experiments ist seine Wiederholbarkeit, wenn Beobachtungen, Messungen und Tests der Eigenschaften von Objekten wiederholt unter unterschiedlichen Bedingungen durchgeführt werden, um die Genauigkeit, Zuverlässigkeit und praktische Bedeutung zuvor erzielter Ergebnisse zu erhöhen und deren Existenz zu überprüfen eines neuen Phänomens im Allgemeinen.

Auf das Experiment wird in den folgenden Situationen zurückgegriffen: -

wenn sie versuchen, bisher unbekannte Eigenschaften und Eigenschaften eines Objekts zu entdecken – das ist ein Forschungsexperiment; -

wenn die Richtigkeit bestimmter theoretischer Positionen, Schlussfolgerungen und Hypothesen überprüft wird – ein Theorietest-Experiment; -

wenn die Richtigkeit zuvor durchgeführter Experimente überprüft wird – ein Verifizierungsexperiment (für Experimente); -

Lehr- und Demonstrationsexperiment.

Jede dieser Arten von Experimenten kann entweder direkt mit dem Untersuchungsobjekt oder mit seinen Ersatzmodellen verschiedener Art durchgeführt werden. Experimente des ersten Typs werden als Vollmaßstab bezeichnet, der zweite als Modell (Simulation). Beispiele für Experimente der zweiten Art sind Untersuchungen der hypothetischen Primäratmosphäre der Erde an Modellen einer Mischung aus Gasen und Wasserdampf. Die Experimente von Miller und Abelson bestätigten die Möglichkeit der Bildung organischer Formationen und Verbindungen bei elektrischen Entladungen im Modell der Primäratmosphäre, was wiederum zu einem Test für die Theorie von Oparin und Haldane über die Entstehung des Lebens wurde. Ein weiteres Beispiel sind Modellexperimente am Computer, die in allen Wissenschaften immer mehr Verbreitung finden. In diesem Zusammenhang sprechen Physiker heute von der Entstehung der „Computerphysik“ (Computerbetrieb basiert auf mathematischen Programmen und Rechenoperationen).

Der Vorteil des Experiments besteht in der Möglichkeit, Objekte unter einem breiteren Spektrum von Bedingungen zu untersuchen, als das Original zulässt, was sich insbesondere in der Medizin bemerkbar macht, wo es unmöglich ist, Experimente durchzuführen, die der menschlichen Gesundheit schaden. Dann greifen sie auf die Hilfe lebender und nicht lebender Modelle zurück, die die Eigenschaften eines Menschen und seiner Organe wiederholen oder nachahmen. Experimente können sowohl an materiellen Feld- und Informationsobjekten als auch an deren idealen Kopien durchgeführt werden; im letzteren Fall handelt es sich um ein Gedankenexperiment, auch ein rechnerisches, als ideale Form eines realen Experiments (Computersimulation eines Experiments).

Derzeit nimmt die Aufmerksamkeit für soziologische Experimente zu. Aber es gibt hier Besonderheiten, die die Möglichkeiten solcher Experimente im Einklang mit den Gesetzen und Prinzipien der Menschlichkeit einschränken, die sich in den Konzepten und Vereinbarungen der UN und des Völkerrechts widerspiegeln. Daher wird niemand außer Kriminellen experimentelle Kriege, Epidemien usw. planen, um deren Folgen zu untersuchen. In diesem Zusammenhang wurden hier und in den USA auf Computern Szenarien eines nuklearen Raketenkrieges und seiner Folgen in Form eines „nuklearen Winters“ durchgespielt. Die Schlussfolgerung aus diesem Experiment: Ein Atomkrieg wird unweigerlich den Tod der gesamten Menschheit und allen Lebens auf der Erde mit sich bringen. Die Bedeutung wirtschaftlicher Experimente ist groß, aber auch hier kann die Verantwortungslosigkeit und politische Voreingenommenheit von Politikern zu katastrophalen Ergebnissen führen und tut dies auch.

Beobachtungen, Messungen und Experimente basieren hauptsächlich auf verschiedenen Instrumenten. Was ist ein Gerät im Hinblick auf seine Rolle für die Forschung? Im weitesten Sinne des Wortes werden unter Instrumenten künstliche, technische Mittel und Geräte verschiedener Art verstanden, die es uns ermöglichen, jedes für uns interessante Phänomen, jede Eigenschaft, jeden Zustand oder jedes Merkmal auch quantitativ und/oder qualitativ zu untersuchen as schaffen streng definierte Bedingungen für ihre Erkennung, Umsetzung und Regulierung; Geräte, die Beobachtung und Messung gleichzeitig ermöglichen.

Ebenso wichtig ist es, ein Referenzsystem auszuwählen und gezielt im Gerät anzulegen. Unter Bezugssystemen verstehen wir Objekte, die geistig als ursprünglich, grundlegend und körperlich in Ruhe, bewegungslos akzeptiert werden. Am deutlichsten wird dies bei der Messung mit unterschiedlichen Referenzskalen. Bei astronomischen Beobachtungen sind dies die Erde, die Sonne, andere Körper, Fixsterne (bedingt) usw. Als „Labor“ bezeichnen Physiker das Referenzsystem, ein Objekt, das im räumlich-zeitlichen Sinne mit dem Ort der Beobachtung und Messung zusammenfällt. Im Instrument selbst ist das Referenzsystem ein wichtiger Teil des Messgerätes, bedingt kalibriert auf einer Referenzskala, wobei der Beobachter beispielsweise die Abweichung eines Zeigers oder Lichtsignals vom Skalenanfang aufzeichnet. In digitalen Messsystemen haben wir immer noch einen Referenzpunkt, der dem Beobachter bekannt ist, basierend auf der Kenntnis der Merkmale des hier verwendeten zählbaren Satzes von Maßeinheiten. Einfache und verständliche Skalen, zum Beispiel auf Linealen, Uhren mit Zifferblatt, auf den meisten Elektro- und Wärmemessgeräten.

In der klassischen Periode der Wissenschaft gehörten zu den Anforderungen an Instrumente erstens die Empfindlichkeit gegenüber dem Einfluss eines externen Messfaktors zur Messung und Regelung experimenteller Bedingungen; zweitens die sogenannte „Auflösung“, also die Grenzen der Genauigkeit und Einhaltung spezifizierter Bedingungen für den untersuchten Prozess in einem Versuchsgerät.

Gleichzeitig glaubte man stillschweigend, dass sie alle mit dem Fortschritt der Wissenschaft verbessert und gesteigert werden könnten. Im 20. Jahrhundert wurde dank der Entwicklung der Physik der Mikrowelt festgestellt, dass es eine Untergrenze für die Teilbarkeit von Materie und Feld (Quanten usw.) gibt, es gibt einen niedrigeren Wert für die Größe des Stroms Ladung usw. All dies führte zu einer Überarbeitung früherer Anforderungen und lenkte besondere Aufmerksamkeit auf physikalische Systeme und andere Einheiten, die jeder aus dem Schulphysikkurs kennt.

Als wichtige Voraussetzung für die Objektivität der Beschreibung von Objekten galt auch die grundsätzliche Möglichkeit der Abstraktion, der Abstraktion von Bezugssystemen entweder durch die Wahl des sogenannten „natürlichen Bezugssystems“ oder durch die Entdeckung solcher Eigenschaften in Objekten, die nicht davon abhängen Wahl der Referenzsysteme. In der Wissenschaft werden sie „Invarianten“ genannt. In der Natur selbst gibt es nicht so viele ähnliche Invarianten: Dies ist das Gewicht des Wasserstoffatoms (und es wurde zu einem Maß, einer Einheit zur Messung des Gewichts anderer chemischer Atome), dies ist das elektrische Ladung, die sogenannte „Aktion“ in der Mechanik und in der Physik (ihre Dimension ist Energie x Zeit), das Plancksche Wirkungsquantum (in der Quantenmechanik), die Gravitationskonstante, die Lichtgeschwindigkeit usw. An der Wende von Im 19. und 20. Jahrhundert entdeckte die Wissenschaft scheinbar paradoxe Dinge: Masse, Länge, Zeit sind relativ, sie hängen von der Bewegungsgeschwindigkeit von Materieteilchen und Feldern und natürlich von der Position des Beobachters im Bezugssystem ab. In der speziellen Relativitätstheorie wurde schließlich eine spezielle Invariante gefunden – das „vierdimensionale Intervall“.

Die Bedeutung und Rolle der Erforschung von Referenzsystemen und Invarianten nahm im Laufe des 20. Jahrhunderts zu, insbesondere bei der Untersuchung extremer Bedingungen, der Art und Geschwindigkeit von Prozessen wie ultrahohen Energien, niedrigen und extrem niedrigen Temperaturen, schnellen Prozessen usw. Auch das Problem der Messgenauigkeit bleibt wichtig. Alle in Wissenschaft und Technik verwendeten Instrumente können in Beobachtungs-, Mess- und Experimentierinstrumente unterteilt werden. Es gibt verschiedene Arten und Unterarten entsprechend ihrem Zweck und ihrer Funktion in der Studie:

1. Messung von Trennungen verschiedener Art mit zwei Untertypen:

a) direkte Messung (Lineale, Messgefäße usw.);

b) indirekte, indirekte Messung (z. B. Pyrometer, die die Körpertemperatur durch Messung der Strahlungsenergie messen; Dehnungsmessstreifen und Sensoren – Druck durch elektrische Prozesse im Gerät selbst; usw.). 2.

Stärkung der natürlichen Organe eines Menschen, ohne jedoch das Wesen und die Natur der beobachteten und gemessenen Eigenschaften zu verändern. Dazu gehören optische Instrumente (von der Brille bis zum Teleskop), viele akustische Instrumente usw. 3.

Umwandeln natürlicher Prozesse und Phänomene von einer Art in eine andere, zugänglich für den Beobachter und/oder seine Beobachtungs- und Messgeräte. Dies sind Röntgengeräte, Szintillationssensoren usw.

4. Experimentelle Instrumente und Geräte sowie deren Systeme, einschließlich Beobachtungs- und Messgeräte als integraler Bestandteil. Die Reichweite solcher Geräte reicht bis zur Größe riesiger Teilchenbeschleuniger wie Serpuchow. In ihnen sind Prozesse und Objekte verschiedener Art relativ von der Umwelt isoliert, sie werden reguliert, kontrolliert und Phänomene werden in reinster Form (d. h. ohne andere Fremdphänomene und -prozesse, Störungen, Störfaktoren etc.) isoliert. .

5. Demonstrationsgeräte, die der visuellen Demonstration verschiedener Eigenschaften, Phänomene und Muster unterschiedlicher Art im Unterricht dienen. Dazu gehören auch Prüfstände und Simulatoren verschiedener Art, da sie visuell sind und oft bestimmte Phänomene nachahmen, als ob sie Studenten täuschen würden.

Es gibt auch Instrumente und Geräte: a) für Forschungszwecke (für uns sind sie hier die Hauptsache) und b) für den Massenverbrauchergebrauch. Der Fortschritt im Instrumentenbau beschäftigt nicht nur Wissenschaftler, sondern vor allem auch Designer und Instrumenteningenieure.

Man kann auch Modellgeräte unterscheiden, als ob sie eine Fortsetzung aller vorherigen in Form ihrer Ersatzgeräte wären, sowie verkleinerte Kopien und Modelle realer Instrumente und Geräte, natürlicher Objekte. Ein Beispiel für Modelle der ersten Art sind kybernetische und Computersimulationen realer Modelle, die es ermöglichen, reale Objekte zu studieren und zu entwerfen, oft in einem breiten Spektrum einigermaßen ähnlicher Systeme (in den Bereichen Steuerung und Kommunikation, Design von Systemen und Kommunikation, Netzwerke). verschiedener Art, im CAD). Beispiele für Modelle der zweiten Art sind reale Modelle einer Brücke, eines Flugzeugs, eines Staudamms, eines Balkens, eines Autos und seiner Komponenten oder eines beliebigen Geräts.

Im weitesten Sinne ist ein Gerät nicht nur eine künstliche Formation, sondern auch eine Umgebung, in der ein Prozess stattfindet. Letzteres kann auch von einem Computer gespielt werden. Dann sagen sie, dass wir ein Rechenexperiment vor uns haben (bei der Arbeit mit Zahlen).

Computerexperimente als Methode haben eine große Zukunft, da der Experimentator oft mit multifaktoriellen und kollektiven Prozessen zu tun hat, für die enorme Statistiken erforderlich sind. Der Experimentator befasst sich auch mit aggressiven Umgebungen und Prozessen, die für Menschen und Lebewesen im Allgemeinen gefährlich sind (im Zusammenhang mit letzteren gibt es Umweltprobleme wissenschaftlicher und technischer Experimente).

Die Entwicklung der Mikroweltphysik hat gezeigt, dass wir bei unserer theoretischen Beschreibung von Mikroweltobjekten den Einfluss des Geräts auf die gewünschte Antwort grundsätzlich nicht loswerden können. Darüber hinaus können wir hier grundsätzlich nicht gleichzeitig die Koordinaten und Impulse von Mikropartikeln usw. messen; Nach der Messung ist es notwendig, sich gegenseitig ergänzende Beschreibungen des Verhaltens des Teilchens aufgrund der Messwerte verschiedener Instrumente und nicht gleichzeitiger Beschreibungen von Messdaten zu erstellen (Unschärfeprinzipien von W. Heisenberg und Komplementaritätsprinzip von N. Bohr).

Fortschritte im Instrumentenbau führen oft zu einer echten Revolution in einer bestimmten Wissenschaft. Klassische Beispiele sind Beispiele für Entdeckungen, die dank der Erfindung des Mikroskops, des Teleskops, des Röntgengeräts, des Spektroskops und des Spektrometers, der Einrichtung von Satellitenlabors, der Beförderung von Instrumenten auf Satelliten usw. in den Weltraum gemacht wurden. Die Ausgaben für Instrumente und Experimente machen in vielen Forschungsinstituten oft den Löwenanteil ihrer Budgets aus. Heutzutage gibt es viele Beispiele, bei denen Experimente die Möglichkeiten ganzer großer Länder übersteigen und sie daher auf wissenschaftliche Zusammenarbeit setzen (wie CERN in der Schweiz, bei Weltraumprogrammen usw.).

Im Laufe der Entwicklung der Wissenschaft wird die Rolle von Instrumenten oft verzerrt und übertrieben. So entstand in der Philosophie im Zusammenhang mit den oben diskutierten Besonderheiten von Experimenten in der Mikrowelt die Idee, dass auf diesem Gebiet unser gesamtes Wissen ausschließlich instrumentellen Ursprungs sei. Das Gerät greift in den objektiven Ablauf der Ereignisse ein, als ob es das Subjekt der Erkenntnis fortführen würde. Daraus wird die Schlussfolgerung gezogen: Unser gesamtes Wissen über die Objekte der Mikrowelt ist subjektiv, es ist instrumentellen Ursprungs. Infolgedessen entstand in der Wissenschaft des 20. Jahrhunderts eine ganze Richtung der Philosophie – der instrumentelle Idealismus oder Operationalismus (P. Bridgman). Natürlich gab es Kritik, aber eine ähnliche Idee findet sich immer noch unter Wissenschaftlern. Es entstand in vielerlei Hinsicht aufgrund der Unterschätzung des theoretischen Wissens und der Erkenntnisse sowie ihrer Fähigkeiten.

Wissenschaftliches Wissen kann in zwei Ebenen unterteilt werden: theoretisch und empirisch. Die erste basiert auf Schlussfolgerungen, die zweite auf Experimenten und der Interaktion mit dem untersuchten Objekt. Trotz ihrer unterschiedlichen Natur sind diese Methoden für die Entwicklung der Wissenschaft gleichermaßen wichtig.

Empirische Forschung

Grundlage empirischen Wissens ist die direkte praktische Interaktion des Forschers mit dem von ihm untersuchten Objekt. Es besteht aus Experimenten und Beobachtungen. Empirisches und theoretisches Wissen sind Gegensätze – bei theoretischer Forschung begnügt sich der Mensch nur mit seinen eigenen Vorstellungen zum Thema. Diese Methode ist in der Regel den Geisteswissenschaften vorbehalten.

Empirische Forschung kommt ohne Instrumente und instrumentelle Installationen nicht aus. Dabei handelt es sich um Mittel zur Organisation von Beobachtungen und Experimenten, aber darüber hinaus gibt es auch konzeptionelle Mittel. Sie werden als spezielle wissenschaftliche Sprache verwendet. Es hat eine komplexe Organisation. Empirisches und theoretisches Wissen konzentriert sich auf die Untersuchung von Phänomenen und den zwischen ihnen entstehenden Abhängigkeiten. Durch die Durchführung von Experimenten kann eine Person ein objektives Gesetz identifizieren. Dies wird auch durch das Studium von Phänomenen und deren Korrelation erleichtert.

Empirische Erkenntnismethoden

Dem wissenschaftlichen Konzept zufolge besteht empirisches und theoretisches Wissen aus mehreren Methoden. Hierbei handelt es sich um eine Reihe von Schritten, die zur Lösung eines bestimmten Problems erforderlich sind (in diesem Fall geht es um die Identifizierung bisher unbekannter Muster). Die erste empirische Methode ist die Beobachtung. Es handelt sich um eine gezielte Untersuchung von Objekten, die in erster Linie auf verschiedenen Sinnen (Wahrnehmungen, Empfindungen, Ideen) beruht.

Die Beobachtung gibt im Anfangsstadium eine Vorstellung von den äußeren Eigenschaften des Wissensgegenstandes. Das letztendliche Ziel besteht jedoch darin, die tieferen und intrinsischeren Eigenschaften eines Objekts zu bestimmen. Ein weit verbreitetes Missverständnis ist die Vorstellung, dass wissenschaftliche Beobachtung passiv sei – im Gegenteil.

Überwachung

Die empirische Beobachtung ist detaillierter Natur. Sie kann entweder direkt oder vermittelt durch verschiedene technische Geräte und Instrumente (z. B. Kamera, Teleskop, Mikroskop usw.) erfolgen. Mit der Weiterentwicklung der Wissenschaft wird die Beobachtung immer komplexer. Diese Methode zeichnet sich durch mehrere außergewöhnliche Eigenschaften aus: Objektivität, Sicherheit und eindeutiges Design. Bei der Verwendung von Instrumenten spielt die Entschlüsselung ihrer Messwerte eine zusätzliche Rolle.

In den Sozial- und Geisteswissenschaften sind empirische und theoretische Erkenntnisse heterogen verankert. Die Beobachtung ist in diesen Disziplinen besonders schwierig. Sie wird abhängig von der Persönlichkeit des Forschers, seinen Prinzipien und Lebenseinstellungen sowie dem Grad des Interesses an dem Thema.

Ohne ein bestimmtes Konzept oder eine bestimmte Idee kann keine Beobachtung durchgeführt werden. Es muss auf einer bestimmten Hypothese basieren und bestimmte Fakten festhalten (in diesem Fall sind nur verwandte und repräsentative Fakten indikativ).

Theoretische und empirische Studien unterscheiden sich im Detail. Beispielsweise hat die Beobachtung ihre eigenen spezifischen Funktionen, die für andere Erkenntnismethoden nicht typisch sind. In erster Linie geht es darum, einer Person Informationen zu liefern, ohne die weitere Forschung und Hypothesen nicht möglich sind. Beobachtung ist der Treibstoff, auf dem das Denken basiert. Ohne neue Fakten und Eindrücke wird es kein neues Wissen geben. Darüber hinaus kann man durch Beobachtung die Ergebnisse vorläufiger theoretischer Studien vergleichen und deren Wahrheitsgehalt überprüfen.

Experiment

Verschiedene theoretische und empirische Erkenntnismethoden unterscheiden sich auch im Grad ihres Eingriffs in den untersuchten Prozess. Der Mensch kann es streng von außen beobachten oder seine Eigenschaften aus eigener Erfahrung analysieren. Diese Funktion wird von einer der empirischen Erkenntnismethoden übernommen – dem Experiment. In ihrer Bedeutung und ihrem Beitrag zum Endergebnis der Forschung steht sie der Beobachtung in nichts nach.

Ein Experiment ist nicht nur ein gezielter und aktiver menschlicher Eingriff in den Ablauf des untersuchten Prozesses, sondern auch dessen Veränderung sowie seine Reproduktion unter speziell vorbereiteten Bedingungen. Diese Erkenntnismethode erfordert viel mehr Aufwand als die Beobachtung. Während des Experiments wird das Untersuchungsobjekt von jeglichen äußeren Einflüssen isoliert. Es entsteht eine saubere und unbelastete Umwelt. Die Versuchsbedingungen sind vollständig spezifiziert und kontrolliert. Daher entspricht diese Methode einerseits den natürlichen Naturgesetzen und zeichnet sich andererseits durch ein vom Menschen bestimmtes künstliches Wesen aus.

Versuchsstruktur

Alle theoretischen und empirischen Methoden haben eine gewisse ideologische Belastung. Das Experiment, das in mehreren Schritten durchgeführt wird, bildet da keine Ausnahme. Zunächst erfolgt die Planung und der schrittweise Aufbau (Ziel, Mittel, Art etc. werden festgelegt). Dann kommt die Phase der Durchführung des Experiments. Darüber hinaus geschieht es unter perfekter menschlicher Kontrolle. Am Ende der aktiven Phase ist es an der Zeit, die Ergebnisse zu interpretieren.

Sowohl empirisches als auch theoretisches Wissen unterscheiden sich in einer bestimmten Struktur. Damit ein Experiment stattfinden kann, sind die Experimentatoren selbst, der Versuchsgegenstand, Instrumente und andere notwendige Geräte, eine Methodik und eine Hypothese erforderlich, die bestätigt oder widerlegt wird.

Geräte und Installationen

Die wissenschaftliche Forschung wird von Jahr zu Jahr komplexer. Sie benötigen immer modernere Technologien, die es ihnen ermöglichen, Dinge zu untersuchen, die den einfachen menschlichen Sinnen nicht zugänglich sind. Waren Wissenschaftler früher auf ihr eigenes Sehen und Hören beschränkt, stehen ihnen jetzt beispiellose experimentelle Möglichkeiten zur Verfügung.

Bei der Verwendung des Geräts kann es zu negativen Auswirkungen auf das Untersuchungsobjekt kommen. Aus diesem Grund weicht das Ergebnis eines Experiments manchmal von seinen ursprünglichen Zielen ab. Einige Forscher versuchen absichtlich, solche Ergebnisse zu erzielen. In der Wissenschaft wird dieser Vorgang Randomisierung genannt. Nimmt das Experiment zufälligen Charakter an, werden seine Konsequenzen zu einem zusätzlichen Analysegegenstand. Die Möglichkeit der Randomisierung ist ein weiteres Merkmal, das empirisches und theoretisches Wissen unterscheidet.

Vergleich, Beschreibung und Messung

Der Vergleich ist die dritte empirische Erkenntnismethode. Mit dieser Operation können Sie Unterschiede und Ähnlichkeiten zwischen Objekten identifizieren. Eine empirische und theoretische Analyse ist ohne tiefe Fachkenntnisse nicht möglich. Viele Fakten beginnen wiederum mit neuen Farben zu spielen, nachdem der Forscher sie mit einer anderen ihm bekannten Textur vergleicht. Der Vergleich von Objekten erfolgt im Rahmen von Merkmalen, die für ein bestimmtes Experiment von Bedeutung sind. Darüber hinaus können Objekte, die anhand eines Merkmals verglichen werden, aufgrund ihrer anderen Merkmale nicht vergleichbar sein. Diese empirische Technik basiert auf Analogie. Es liegt dem zugrunde, was für die Wissenschaft wichtig ist

Methoden empirischer und theoretischer Erkenntnis können miteinander kombiniert werden. Aber ohne Beschreibung ist die Forschung fast nie vollständig. Diese kognitive Operation zeichnet die Ergebnisse früherer Erfahrungen auf. Zur Beschreibung werden wissenschaftliche Notationssysteme verwendet: Grafiken, Diagramme, Zeichnungen, Diagramme, Tabellen usw.

Die letzte empirische Erkenntnismethode ist die Messung. Dies geschieht mit besonderen Mitteln. Die Messung ist notwendig, um den Zahlenwert des gewünschten Messwertes zu ermitteln. Eine solche Operation muss in Übereinstimmung mit strengen Algorithmen und Regeln durchgeführt werden, die in der Wissenschaft anerkannt sind.

Theoretisches Wissen

In der Wissenschaft haben theoretisches und empirisches Wissen unterschiedliche grundlegende Grundlagen. Im ersten Fall handelt es sich dabei um den distanzierten Einsatz rationaler Methoden und logischer Vorgehensweisen, im zweiten Fall um die direkte Interaktion mit dem Objekt. Theoretisches Wissen nutzt intellektuelle Abstraktionen. Eine ihrer wichtigsten Methoden ist die Formalisierung – die Darstellung von Wissen in symbolischer und ikonischer Form.

In der ersten Phase des Gedankenausdrucks wird die vertraute menschliche Sprache verwendet. Es zeichnet sich durch Komplexität und ständige Variabilität aus, weshalb es kein universelles wissenschaftliches Werkzeug sein kann. Die nächste Stufe der Formalisierung ist mit der Schaffung formalisierter (künstlicher) Sprachen verbunden. Sie haben einen bestimmten Zweck – einen strengen und präzisen Ausdruck von Wissen, der durch natürliche Sprache nicht erreicht werden kann. Ein solches Symbolsystem kann die Form von Formeln annehmen. Es ist sehr beliebt in der Mathematik und anderen Bereichen, in denen man nicht auf Zahlen verzichten kann.

Mit Hilfe der Symbolik beseitigt eine Person das mehrdeutige Verständnis der Aufnahme, macht sie kürzer und klarer für die weitere Verwendung. Keine einzige Studie und damit alle wissenschaftlichen Erkenntnisse kommen ohne Schnelligkeit und Einfachheit in der Anwendung ihrer Werkzeuge aus. Empirische und theoretische Studien bedürfen gleichermaßen einer Formalisierung, erlangen aber gerade auf der theoretischen Ebene eine äußerst wichtige und grundlegende Bedeutung.

Eine in einem engen wissenschaftlichen Rahmen geschaffene künstliche Sprache wird zu einem universellen Mittel zum Gedankenaustausch und zur Kommunikation zwischen Spezialisten. Dies ist die grundlegende Aufgabe der Methodik und Logik. Diese Wissenschaften sind notwendig, um Informationen in einer verständlichen, systematisierten Form zu übermitteln, die frei von den Mängeln der natürlichen Sprache ist.

Die Bedeutung der Formalisierung

Durch die Formalisierung können Sie Konzepte klären, analysieren, klären und definieren. Der empirische und theoretische Wissensstand kommt ohne sie nicht aus, daher spielte und wird das System der künstlichen Symbole in der Wissenschaft schon immer eine große Rolle spielen. Alltägliche und umgangssprachliche Konzepte erscheinen offensichtlich und klar. Aufgrund ihrer Mehrdeutigkeit und Unsicherheit sind sie jedoch für die wissenschaftliche Forschung nicht geeignet.

Bei der Analyse angeblicher Beweise ist die Formalisierung besonders wichtig. Die auf speziellen Regeln basierende Formelfolge zeichnet sich durch die für die Wissenschaft erforderliche Genauigkeit und Strenge aus. Darüber hinaus ist eine Formalisierung für die Programmierung, Algorithmisierung und Computerisierung von Wissen erforderlich.

Axiomatische Methode

Eine weitere Methode der theoretischen Forschung ist die axiomatische Methode. Es ist eine bequeme Möglichkeit, wissenschaftliche Hypothesen deduktiv auszudrücken. Theoretische und empirische Wissenschaften sind ohne Begriffe nicht vorstellbar. Sehr oft entstehen sie durch die Konstruktion von Axiomen. Beispielsweise wurden in der euklidischen Geometrie einst die Grundbegriffe Winkel, Gerade, Punkt, Ebene usw. formuliert.

Im Rahmen des theoretischen Wissens formulieren Wissenschaftler Axiome – Postulate, die keines Beweises bedürfen und Ausgangsaussagen für die weitere Theoriebildung sind. Ein Beispiel hierfür ist die Vorstellung, dass das Ganze immer größer ist als der Teil. Mithilfe von Axiomen wird ein System zur Ableitung neuer Begriffe konstruiert. Den Regeln des theoretischen Wissens folgend, kann ein Wissenschaftler aus einer begrenzten Anzahl von Postulaten einzigartige Theoreme gewinnen. Gleichzeitig lässt es sich viel effektiver zum Lehren und Klassifizieren einsetzen als zum Entdecken neuer Muster.

Hypothetisch-deduktive Methode

Obwohl theoretische und empirische wissenschaftliche Methoden unterschiedlich sind, werden sie oft gemeinsam verwendet. Ein Beispiel für eine solche Anwendung ist der Aufbau neuer Systeme eng miteinander verknüpfter Hypothesen. Darauf aufbauend werden neue Aussagen über empirisch, experimentell belegte Sachverhalte abgeleitet. Die Methode, aus archaischen Hypothesen eine Schlussfolgerung zu ziehen, wird Deduktion genannt. Dieser Begriff ist vielen dank der Romane über Sherlock Holmes bekannt. Tatsächlich bedient sich der beliebte Literaturcharakter bei seinen Ermittlungen häufig der deduktiven Methode, mit deren Hilfe er aus vielen unterschiedlichen Fakten ein zusammenhängendes Bild des Verbrechens aufbaut.

Das gleiche System funktioniert in der Wissenschaft. Diese Methode des theoretischen Wissens hat ihre eigene klare Struktur. Zunächst machen Sie sich mit der Rechnung vertraut. Anschließend werden Annahmen über die Muster und Ursachen des untersuchten Phänomens getroffen. Hierzu kommen alle möglichen logischen Techniken zum Einsatz. Vermutungen werden nach ihrer Wahrscheinlichkeit bewertet (die wahrscheinlichste wird aus diesem Haufen ausgewählt). Alle Hypothesen werden auf Konsistenz mit der Logik und Kompatibilität mit grundlegenden wissenschaftlichen Prinzipien (z. B. den Gesetzen der Physik) geprüft. Aus der Annahme werden Konsequenzen abgeleitet, die dann durch Experimente überprüft werden. Die hypothetisch-deduktive Methode ist weniger eine Methode zur Neuentdeckung als vielmehr eine Methode zur Untermauerung wissenschaftlicher Erkenntnisse. Dieses theoretische Werkzeug wurde von so großen Köpfen wie Newton und Galileo genutzt.

Ministerium für Bildung und Wissenschaft der Ukraine

Staatliche Technische Universität Donbass

Fakultät für Management

ABSTRAKT

im Fachgebiet: „Methodik und Organisation wissenschaftlicher Forschung“

zum Thema: „Empirische Forschungsmethoden“


EINFÜHRUNG

6. Methoden zur Arbeit mit den gewonnenen empirischen Informationen

7. Methodische Aspekte

LITERATUR


EINFÜHRUNG

Die moderne Wissenschaft hat ihr heutiges Niveau vor allem dank der Entwicklung ihres Werkzeugkastens – Methoden der wissenschaftlichen Forschung – erreicht. Alle bestehenden wissenschaftlichen Methoden können in empirische und theoretische unterteilt werden. Ihre Hauptähnlichkeit ist das gemeinsame Ziel – die Wahrheitsfindung, der Hauptunterschied ist der Forschungsansatz.

Wissenschaftler, für die empirisches Wissen im Vordergrund steht, werden als „Praktiker“ bezeichnet, Anhänger theoretischer Forschung werden als „Theoretiker“ bezeichnet. Die Entstehung zweier gegensätzlicher Wissenschaftsschulen ist auf die häufige Diskrepanz zwischen den Ergebnissen theoretischer Forschung und praktischer Erfahrung zurückzuführen.

In der Wissensgeschichte haben sich zur Frage des Verhältnisses zwischen empirischer und theoretischer Ebene wissenschaftlichen Wissens zwei extreme Positionen herausgebildet: der Empirismus und die scholastische Theoriebildung. Befürworter des Empirismus reduzieren wissenschaftliche Erkenntnisse als Ganzes auf die empirische Ebene, indem sie theoretische Erkenntnisse herabsetzen oder ganz ablehnen. Der Empirismus verabsolutiert die Rolle von Fakten und unterschätzt die Rolle von Denken, Abstraktionen und Prinzipien bei ihrer Verallgemeinerung, was es unmöglich macht, objektive Gesetze zu identifizieren. Das gleiche Ergebnis wird auch dann erreicht, wenn sie die Unzulänglichkeit bloßer Fakten und die Notwendigkeit ihres theoretischen Verständnisses erkennen, aber nicht wissen, wie sie mit Konzepten und Prinzipien umgehen sollen, oder dies unkritisch und unbewusst tun.


1. Methoden zur Isolierung und Untersuchung eines empirischen Objekts

Empirische Forschungsmethoden umfassen alle Methoden, Techniken, Methoden der kognitiven Aktivität sowie die Formulierung und Festigung von Wissen, die Inhalt der Praxis oder deren unmittelbares Ergebnis sind. Sie können in zwei Untergruppen unterteilt werden: Methoden zur Isolierung und Untersuchung eines empirischen Objekts; Methoden zur Verarbeitung und Systematisierung des erhaltenen empirischen Wissens sowie die entsprechenden Formen dieses Wissens. Dies kann durch eine Liste dargestellt werden:

⁻ Beobachtung – eine Methode zur Informationserhebung, die auf der Registrierung und Aufzeichnung von Primärdaten basiert;

⁻ Untersuchung der Primärdokumentation – basierend auf der Untersuchung dokumentierter Informationen, die direkt zuvor aufgezeichnet wurden;

⁻ Vergleich – ermöglicht den Vergleich des untersuchten Objekts mit einem Analogon;

⁻ Messung – eine Methode zur Bestimmung der tatsächlichen numerischen Werte von Indikatoren für die Eigenschaften des untersuchten Objekts unter Verwendung geeigneter Maßeinheiten, zum Beispiel Watt, Ampere, Rubel, Standardstunden usw.;

⁻ normativ – beinhaltet die Verwendung einer Reihe bestimmter etablierter Standards, deren Vergleich mit den realen Indikatoren des Systems es uns ermöglicht, die Übereinstimmung des Systems beispielsweise mit dem akzeptierten konzeptionellen Modell festzustellen; Standards können: die Zusammensetzung und den Inhalt von Funktionen, die Arbeitsintensität ihrer Umsetzung, die Anzahl des Personals, die Art usw. bestimmen. Als Standards zur Definition von Normen dienen (z. B. die Kosten für Material-, Finanz- und Arbeitsressourcen, Kontrollierbarkeit usw.). Anzahl der zulässigen Führungsebenen, Arbeitsintensität der Funktionsausführung) und konsolidierte Werte, die in Form einer Beziehung zu einem beliebigen komplexen Indikator (z. B. dem Working-Capital-Umschlagsstandard; alle Normen und Standards müssen das gesamte System abdecken) ermittelt werden ein Ganzes sein, wissenschaftlich fundiert sein, einen fortschrittlichen und zukunftsträchtigen Charakter haben);

⁻ Experiment – ​​basierend auf der Untersuchung des Untersuchungsobjekts unter dafür künstlich geschaffenen Bedingungen.

Bei der Betrachtung dieser Methoden ist zu berücksichtigen, dass sie in der Liste nach dem Grad der Steigerung der Aktivität des Forschers geordnet sind. Natürlich gehören Beobachtung und Messung zu allen Arten von Experimenten, sie sollten aber auch als eigenständige Methoden betrachtet werden, die in allen Wissenschaften weit verbreitet sind.

2. Beobachtung empirischer wissenschaftlicher Erkenntnisse

Beobachtung ist der primäre und elementare kognitive Prozess auf der empirischen Ebene wissenschaftlicher Erkenntnisse. Als wissenschaftliche Beobachtung besteht sie in einer gezielten, organisierten, systematischen Wahrnehmung von Objekten und Phänomenen der Außenwelt. Merkmale der wissenschaftlichen Beobachtung:

Stützt sich auf eine entwickelte Theorie oder einzelne theoretische Bestimmungen;

Dient dazu, ein bestimmtes theoretisches Problem zu lösen, neue Probleme zu stellen, neue Hypothesen aufzustellen oder bestehende Hypothesen zu testen;

Hat einen begründeten, systematischen und organisierten Charakter;

Es ist systematisch und schließt zufällige Fehler aus;

Verwendet spezielle Beobachtungsgeräte – Mikroskope, Teleskope, Kameras usw. und erweitert dadurch den Umfang und die Beobachtungsmöglichkeiten erheblich.

Eine der wichtigen Voraussetzungen wissenschaftlicher Beobachtung besteht darin, dass die gesammelten Daten nicht nur persönlicher, subjektiver Natur sind, sondern unter den gleichen Bedingungen von einem anderen Forscher erhalten werden können. All dies zeugt von der notwendigen Genauigkeit und Gründlichkeit bei der Anwendung dieser Methode, wobei die Rolle eines bestimmten Wissenschaftlers besonders wichtig ist. Das ist bekannt und selbstverständlich.

Allerdings gibt es in der Wissenschaft Fälle, in denen Entdeckungen aufgrund von Ungenauigkeiten und sogar Fehlern in den Beobachtungsergebnissen gemacht wurden. T

Eine Theorie oder eine akzeptierte Hypothese ermöglicht eine gezielte Beobachtung und die Entdeckung dessen, was ohne theoretische Richtlinien unbemerkt bleibt. Es sollte jedoch beachtet werden, dass ein Forscher, der mit einer Theorie oder Hypothese „bewaffnet“ ist, ziemlich voreingenommen sein wird, was einerseits die Suche effektiver macht, andererseits aber alle widersprüchlichen Phänomene aussortieren kann, die dies nicht tun passen in diese Hypothese. Dieser Umstand führte in der Methodengeschichte zu einem empirischen Ansatz, bei dem der Forscher sich völlig von jeder Hypothese (Theorie) zu lösen suchte, um die Reinheit der Beobachtung und Erfahrung zu gewährleisten.

Bei der Beobachtung zielt die Tätigkeit des Subjekts noch nicht auf die Umgestaltung des Untersuchungsgegenstandes ab. Das Objekt bleibt einer gezielten Veränderung und Untersuchung unzugänglich oder wird bewusst vor möglichen Einflüssen geschützt, um seinen natürlichen Zustand zu bewahren, und darin liegt der Hauptvorteil der Beobachtungsmethode. Die Beobachtung, insbesondere unter Einbeziehung der Messung, kann den Forscher dazu verleiten, einen notwendigen und natürlichen Zusammenhang anzunehmen, reicht aber für sich allein völlig nicht aus, um einen solchen Zusammenhang zu behaupten und zu beweisen. Der Einsatz von Geräten und Instrumenten erweitert die Beobachtungsmöglichkeiten unbegrenzt, überwindet jedoch einige andere Mängel nicht. Bei der Beobachtung bleibt die Abhängigkeit des Beobachters vom untersuchten Prozess oder Phänomen erhalten. Der Beobachter kann, während er innerhalb der Beobachtungsgrenzen bleibt, das Objekt nicht verändern, es verwalten und strenge Kontrolle darüber ausüben, und in diesem Sinne ist seine Beobachtungsaktivität relativ. Gleichzeitig greift der Wissenschaftler bei der Vorbereitung einer Beobachtung und bei deren Durchführung in der Regel auf organisatorische und praktische Operationen mit dem Objekt zurück, die die Beobachtung dem Experiment näher bringen. Eine andere Sache liegt auf der Hand: Beobachtung ist ein notwendiger Bestandteil jedes Experiments, und in diesem Zusammenhang werden seine Aufgaben und Funktionen bestimmt.

3. Informationsbeschaffung mit der empirischen Methode

Informationen zur empirischen Objektforschung

Techniken zur Gewinnung quantitativer Informationen werden durch zwei Arten von Operationen dargestellt – Zählen und Messen gemäß den objektiven Unterschieden zwischen diskreten und kontinuierlichen. Um bei der Zähloperation genaue quantitative Informationen zu erhalten, werden numerische Parameter bestimmt, die aus diskreten Elementen bestehen, und eine Eins-zu-eins-Entsprechung zwischen den Elementen des Satzes, aus dem die Gruppe besteht, und den numerischen Zeichen, mit denen die Gruppe besteht, hergestellt Zählung wird durchgeführt. Die Zahlen selbst spiegeln objektiv bestehende quantitative Zusammenhänge wider.

Man sollte sich darüber im Klaren sein, dass numerische Formen und Zeichen sowohl im wissenschaftlichen als auch im alltäglichen Wissen vielfältige Funktionen erfüllen, die nicht alle mit der Messung zusammenhängen:

Sie sind Mittel zur Benennung, eindeutige Etiketten oder praktische Erkennungszeichen;

Sie sind ein Zählinstrument;

Als Zeichen fungieren, um einen bestimmten Platz in einem geordneten Gradsystem einer bestimmten Eigenschaft zu bezeichnen;

Sie sind ein Mittel zur Herstellung der Gleichheit von Intervallen oder Unterschieden;

Sie sind Zeichen, die quantitative Beziehungen zwischen Qualitäten ausdrücken, also Mittel zum Ausdruck von Mengen.

Bei der Betrachtung verschiedener Skalen, die auf der Verwendung von Zahlen basieren, ist es notwendig, zwischen diesen Funktionen zu unterscheiden, die abwechselnd entweder von einer speziellen symbolischen Form von Zahlen oder von Zahlen ausgeführt werden, die als semantische Werte der entsprechenden Zahlenformen fungieren. Unter diesem Gesichtspunkt ist es offensichtlich, dass Benennungsskalen, wie beispielsweise die Nummerierung von Sportlern in Mannschaften, Autos in der staatlichen Verkehrsinspektion, Bus- und Straßenbahnlinien usw., weder eine Messung noch eine Bestandsaufnahme sind, da es sich hier um numerische Formen handelt übernehmen die Funktion der Namensnennung, nicht jedoch die Rechnungsstellung.

Die Messmethode in den Sozial- und Geisteswissenschaften bleibt ein ernstes Problem. Dies sind zunächst einmal die Schwierigkeiten, quantitative Informationen über viele soziale, sozialpsychologische Phänomene zu sammeln, für die es in vielen Fällen keine objektiven, instrumentellen Messmittel gibt. Auch Methoden zur Isolierung diskreter Elemente und die objektive Analyse selbst sind schwierig, nicht nur aufgrund der Eigenschaften des Objekts, sondern auch aufgrund der Einmischung nichtwissenschaftlicher Wertfaktoren – Vorurteile des Alltagsbewusstseins, religiöse Weltanschauung, ideologische oder korporative Verbote, usw. Es ist bekannt, dass viele sogenannte Beurteilungen, zum Beispiel das Wissen von Schülern, die Leistungen von Teilnehmern an Wettbewerben und Wettbewerben auch auf höchstem Niveau, oft von der Qualifikation, Ehrlichkeit, dem Unternehmergeist und anderen subjektiven Eigenschaften von Lehrern abhängen , Richter und Jurymitglieder. Anscheinend kann diese Art der Bewertung nicht als Messung im eigentlichen Sinne des Wortes bezeichnet werden, was, wie die Wissenschaft des Messens definiert - Metrologie, den Vergleich einer bestimmten Größe mit dem einen oder anderen Wert einer bestimmten Größe durch ein physikalisches (technisches) Verfahren beinhaltet Akzeptierter Standard - Maßeinheiten und Erzielung eines genauen quantitativen Ergebnisses.


4. Experiment – ​​die grundlegende Methode der Wissenschaft

Sowohl Beobachtung als auch Messung sind in einer so komplexen Grundmethode der Wissenschaft wie dem Experiment enthalten. Im Gegensatz zur Beobachtung ist ein Experiment durch den Eingriff des Forschers in die Position der untersuchten Objekte, den aktiven Einfluss verschiedener Instrumente und experimenteller Mittel auf den Forschungsgegenstand gekennzeichnet. Ein Experiment ist eine Form der Praxis, die die Interaktion von Objekten nach Naturgesetzen und eine vom Menschen künstlich organisierte Handlung verbindet. Als Methode der empirischen Forschung geht diese Methode davon aus und ermöglicht die Durchführung folgender Operationen entsprechend dem zu lösenden Problem:

₋ Objektkonstruktivierung;

₋ einen Gegenstand oder Gegenstand der Forschung isolieren, ihn vom Einfluss von Nebenphänomenen isolieren, die das Wesentliche verschleiern, ihn in relativ reiner Form untersuchen;

₋ empirische Interpretation erster theoretischer Konzepte und Vorgaben, Auswahl bzw. Schaffung experimenteller Mittel;

₋ gezielte Einflussnahme auf ein Objekt: systematische Veränderung, Variation, Kombination verschiedener Bedingungen, um das gewünschte Ergebnis zu erzielen;

₋ wiederholte Reproduktion des Prozesses, Erfassung von Daten in Beobachtungsprotokollen, deren Verarbeitung und Übertragung auf andere, nicht erforschte Objekte der Klasse.

Das Experiment wird nicht spontan, nicht zufällig durchgeführt, sondern zur Lösung bestimmter wissenschaftlicher Probleme und kognitiver Aufgaben, die durch den Stand der Theorie vorgegeben werden. Es ist als Hauptakkumulationsmittel bei der Untersuchung von Fakten notwendig, die die empirische Grundlage jeder Theorie bilden; es ist, wie jede Praxis im Allgemeinen, ein objektives Kriterium für die relative Wahrheit theoretischer Positionen und Hypothesen.

Die Subjektstruktur des Experiments ermöglicht es uns, die folgenden drei Elemente zu isolieren: das wissende Subjekt (Experimentator), die Mittel des Experiments, den Gegenstand der experimentellen Studie.

Auf dieser Grundlage kann eine verzweigte Einteilung der Experimente vorgenommen werden. Abhängig von den qualitativen Unterschieden der Forschungsgegenstände kann man zwischen physikalischen, technischen, biologischen, psychologischen, soziologischen usw. unterscheiden. Die Art und Vielfalt der Mittel und Versuchsbedingungen ermöglicht die Unterscheidung zwischen direktem (natürlichem) und modellhaftem Feld und Laborexperimente. Berücksichtigt man die Ziele des Experimentators, so werden Such-, Mess- und Testtypen von Experimenten unterschieden. Schließlich kann man je nach Art der Strategie zwischen Experimenten unterscheiden, die durch Versuch und Irrtum durchgeführt werden, Experimenten, die auf einem geschlossenen Algorithmus basieren (z. B. Galileis Untersuchung fallender Körper), Experimenten, die die „Black-Box“-Methode verwenden, „Schritt Strategie“ usw.

Das klassische Experiment basierte auf methodischen Prämissen, die in gewissem Maße Laplaces Vorstellungen vom Determinismus als einer eindeutigen Ursache-Wirkungs-Beziehung widerspiegelten. Es wurde angenommen, dass man durch Kenntnis des Anfangszustands des Systems unter bestimmten konstanten Bedingungen das Verhalten dieses Systems in der Zukunft vorhersagen kann; Sie können das untersuchte Phänomen eindeutig identifizieren, in die gewünschte Richtung umsetzen, alle Störfaktoren streng ordnen oder als unwichtig ignorieren (z. B. das Thema aus den Erkenntnisergebnissen ausschließen).

Die wachsende Bedeutung probabilistisch-statistischer Konzepte und Prinzipien in der tatsächlichen Praxis der modernen Wissenschaft sowie die Anerkennung nicht nur objektiver Gewissheit, sondern auch objektiver Unsicherheit und das diesbezügliche Verständnis von Bestimmung als relative Unsicherheit (oder als Einschränkung von Unsicherheit) hat zu einer neuen Idee des Struktur- und Prinzipienexperiments geführt. Die Entwicklung einer neuen experimentellen Strategie wird direkt durch den Übergang von der Untersuchung gut organisierter Systeme, bei denen es möglich war, Phänomene in Abhängigkeit von einer kleinen Anzahl von Variablen zu isolieren, zur Untersuchung sogenannter diffuser oder schlecht organisierter Systeme verursacht . In diesen Systemen ist es unmöglich, einzelne Phänomene klar zu unterscheiden und zwischen den Auswirkungen von Variablen unterschiedlicher physikalischer Natur zu unterscheiden. Dies erforderte einen umfassenderen Einsatz statistischer Methoden; tatsächlich führte es das „Konzept des Zufalls“ in das Experiment ein. Das Versuchsprogramm wurde so erstellt, dass zahlreiche Faktoren maximal diversifiziert und statistisch berücksichtigt werden.

So ist aus dem Experiment von einem einfaktorigen, streng bestimmten, eindeutige Zusammenhänge und Beziehungen nachbildenden Verfahren eine Methode geworden, die viele Faktoren eines komplexen (diffusen) Systems berücksichtigt und ein- und mehrwertige Beziehungen nachbildet, also das Experiment hat einen probabilistisch-deterministischen Charakter angenommen. Darüber hinaus ist die experimentelle Strategie selbst oft nicht streng festgelegt und kann sich je nach den Ergebnissen in den einzelnen Phasen ändern.

Materialmodelle spiegeln entsprechende Objekte in drei Formen der Ähnlichkeit wider: physikalische Ähnlichkeit, Analogie und Isomorphismus als eine Eins-zu-eins-Entsprechung von Strukturen. Bei einem Modellversuch geht es um ein Materialmodell, das sowohl Untersuchungsgegenstand als auch experimentelles Werkzeug ist. Mit der Einführung des Modells wird der Aufbau des Experiments deutlich komplizierter. Nun interagieren Forscher und Gerät nicht mehr mit dem Objekt selbst, sondern nur mit einem es ersetzenden Modell, wodurch der Ablauf des Experiments deutlich komplizierter wird. Die Rolle der theoretischen Seite der Studie wird gestärkt, da es notwendig ist, die Ähnlichkeitsbeziehung zwischen Modell und Objekt und die Fähigkeit, die gewonnenen Daten auf dieses Objekt zu extrapolieren, zu belegen. Betrachten wir das Wesentliche der Extrapolationsmethode und ihre Funktionen bei der Modellierung.

Die Extrapolation als Verfahren zur Wissensübertragung von einem Fachgebiet auf ein anderes – nicht beobachtetes und unerforschtes – auf der Grundlage einer identifizierten Beziehung zwischen ihnen gehört zu den Operationen, die die Funktion haben, den Erkenntnisprozess zu optimieren.

In der wissenschaftlichen Forschung werden induktive Extrapolationen verwendet, bei denen ein für einen Objekttyp ermitteltes Muster mit bestimmten Abklärungen auf andere Objekte übertragen wird. Hat man also beispielsweise die Kompressionseigenschaft für ein bestimmtes Gas ermittelt und in Form eines quantitativen Gesetzes ausgedrückt, kann man diese unter Berücksichtigung ihres Kompressionsverhältnisses auf andere, unerforschte Gase extrapolieren. In der exakten Naturwissenschaft wird die Extrapolation beispielsweise auch verwendet, wenn eine Gleichung, die ein bestimmtes Gesetz beschreibt, auf ein unerforschtes Gebiet ausgedehnt wird (mathematische Hypothese), wobei eine mögliche Änderung der Form dieser Gleichung angenommen wird. Im Allgemeinen bezieht sich Extrapolation in den experimentellen Wissenschaften auf die Verteilung von:

Qualitative Merkmale von einem Fachgebiet zum anderen, von der Vergangenheit und Gegenwart bis zur Zukunft;

Quantitative Eigenschaften eines Objektbereichs zu einem anderen, einer Einheit zu einer anderen, basierend auf speziell für diesen Zweck entwickelten Methoden;

Eine Gleichung für andere Fachgebiete innerhalb einer Wissenschaft oder sogar für andere Wissensgebiete, die mit einer gewissen Modifikation und (oder) Neuinterpretation der Bedeutung ihrer Komponenten verbunden ist.

Das nur relativ eigenständige Verfahren zur Wissensvermittlung ist organisch in Methoden wie Induktion, Analogie, Modellierung, mathematische Hypothese, statistische Methoden und viele andere eingebunden. Bei der Modellierung ist die Extrapolation Teil der Ablaufstruktur dieser Art von Experimenten, bestehend aus folgenden Operationen und Vorgehensweisen:

Theoretische Begründung des zukünftigen Modells, seiner Ähnlichkeit mit dem Objekt, d. h. der Operation, die den Übergang vom Objekt zum Modell gewährleistet;

Erstellen eines Modells basierend auf Ähnlichkeitskriterien und dem Zweck der Studie;

Experimentelle Untersuchung des Modells;

Der Vorgang des Übergangs von einem Modell zu einem Objekt, d. h. die Extrapolation der Ergebnisse aus der Untersuchung des Modells auf das Objekt.

Typischerweise werden bei der wissenschaftlichen Modellierung erläuterte Analogien verwendet, wobei spezifische Fälle davon beispielsweise physikalische Ähnlichkeit und physikalische Analogie sind. Es ist anzumerken, dass die Bedingungen für die Gültigkeit der Analogie nicht so sehr in der Logik und Methodik entwickelt wurden, sondern in der speziellen ingenieurwissenschaftlichen und mathematischen Ähnlichkeitstheorie, die der modernen wissenschaftlichen Modellierung zugrunde liegt.

Die Ähnlichkeitstheorie formuliert die Bedingungen, unter denen die Legitimität des Übergangs von Aussagen über ein Modell zu Aussagen über ein Objekt gewährleistet ist, sowohl für den Fall, dass Modell und Objekt derselben Bewegungsform angehören (physikalische Ähnlichkeit), als auch in Dies ist der Fall, wenn sie zu verschiedenen Bewegungsformen der Materie gehören (physikalische Analogie). Solche Bedingungen sind die Ähnlichkeitskriterien, die bei der Modellierung geklärt und beachtet werden. Beispielsweise muss bei der hydraulischen Modellierung, die auf mechanischen Ähnlichkeitsgesetzen basiert, geometrische, kinematische und dynamische Ähnlichkeit beachtet werden. Geometrische Ähnlichkeit setzt eine konstante Beziehung zwischen den entsprechenden linearen Abmessungen von Objekt und Modell, ihren Flächen und Volumina voraus; kinematische Ähnlichkeit basiert auf einem konstanten Verhältnis von Geschwindigkeiten, Beschleunigungen und Zeitintervallen, in denen ähnliche Partikel geometrisch ähnliche Flugbahnen beschreiben; Schließlich sind Modell und Objekt dynamisch ähnlich, wenn die Verhältnisse von Massen und Kräften konstant sind. Es kann davon ausgegangen werden, dass die Einhaltung der angegebenen Zusammenhänge den Erhalt verlässlicher Erkenntnisse bei der Extrapolation von Modelldaten auf das Objekt bestimmt.

Die betrachteten empirischen Erkenntnismethoden liefern Faktenwissen über die Welt oder Fakten, in denen spezifische, unmittelbare Erscheinungsformen der Realität festgehalten werden. Der Begriff Tatsache ist mehrdeutig. Es kann sowohl im Sinne eines Ereignisses, eines Fragments der Realität, als auch im Sinne einer besonderen Art empirischer Aussagen – faktenfeststellender Sätze, deren Inhalt es ist – verwendet werden. Im Gegensatz zu Fakten der Realität, die unabhängig davon existieren, was Menschen über sie denken, und daher weder wahr noch falsch sind, sind Fakten in Form von Aussagen wahrheitsbeurteilbar. Sie müssen empirisch wahr sein, das heißt, ihre Wahrheit wird experimentell und praktisch nachgewiesen.

Nicht jede empirische Aussage erhält den Status einer wissenschaftlichen Tatsache bzw. eines Satzes, der eine wissenschaftliche Tatsache festlegt. Wenn Aussagen nur isolierte Beobachtungen, eine zufällige empirische Situation beschreiben, dann bilden sie einen bestimmten Datensatz, der nicht den notwendigen Grad an Allgemeingültigkeit aufweist. In den Naturwissenschaften und in einer Reihe von Sozialwissenschaften, zum Beispiel: Wirtschaftswissenschaften, Demographie, Soziologie, findet in der Regel eine statistische Verarbeitung eines bestimmten Datensatzes statt, die es ermöglicht, die darin enthaltenen Zufallselemente zu entfernen und stattdessen aus vielen Aussagen zu den Daten eine zusammenfassende Aussage über diese Daten zu erhalten, die den Status einer wissenschaftlichen Tatsache erhält.

5. Wissenschaftliche Fakten der empirischen Forschung

Als Wissen zeichnen sich wissenschaftliche Tatsachen durch einen hohen Grad (Wahrscheinlichkeit) der Wahrheit aus, da sie das „unmittelbar Gegebene“ erfassen, den Bruchteil der Realität selbst beschreiben (und nicht erklären oder interpretieren). Eine Tatsache ist diskret und daher bis zu einem gewissen Grad in Zeit und Raum lokalisiert, was ihr eine gewisse Genauigkeit verleiht, und dies umso mehr, weil es sich um eine statistische Zusammenfassung empirischer Daten handelt, die von Zufälligkeiten befreit sind, oder um Wissen, das widerspiegelt, was ist typisch und wesentlich in einem Objekt. Aber eine wissenschaftliche Tatsache ist zugleich relativ wahres Wissen; sie ist nicht absolut, sondern relativ, also einer weiteren Klärung, Veränderung fähig, da das „unmittelbar Gegebene“ Elemente des Subjektiven beinhaltet; die Beschreibung kann niemals erschöpfend sein; Sowohl der im Wissenstatbestand beschriebene Gegenstand als auch die Sprache, in der die Beschreibung erfolgt, verändern sich. Da eine wissenschaftliche Tatsache diskret ist, ist sie gleichzeitig in ein sich veränderndes Wissenssystem eingebunden; die Vorstellung davon, was eine wissenschaftliche Tatsache ist, ändert sich historisch.

Da die Struktur einer wissenschaftlichen Tatsache nicht nur die Informationen umfasst, die auf sensorischem Wissen beruhen, sondern auch deren rationale Grundlagen, stellt sich die Frage nach der Rolle und den Formen dieser rationalen Komponenten. Dazu gehören logische Strukturen, konzeptionelle Apparate, auch mathematische, sowie philosophische, methodische und theoretische Prinzipien und Prämissen. Eine besonders wichtige Rolle spielen die theoretischen Voraussetzungen zur Gewinnung, Beschreibung und Erklärung (Interpretation) eines Sachverhalts. Ohne solche Voraussetzungen ist es oft unmöglich, bestimmte Sachverhalte überhaupt zu erkennen, geschweige denn zu verstehen. Die bekanntesten Beispiele aus der Wissenschaftsgeschichte sind die Entdeckung des Planeten Neptun durch den Astronomen I. Galle nach vorläufigen Berechnungen und Vorhersagen von W. Le Verrier; Entdeckung chemischer Elemente, vorhergesagt von D. I. Mendelejew im Zusammenhang mit seiner Schaffung des Periodensystems; Nachweis des Positrons, theoretisch berechnet von P. Dirac, des Neutrinos, vorhergesagt von W. Pauli.

In der Naturwissenschaft erscheinen Fakten in der Regel in theoretischen Aspekten, da Forscher Instrumente verwenden, mit denen theoretische Schemata objektiviert werden; Dementsprechend unterliegen die empirischen Ergebnisse einer theoretischen Interpretation. Trotz der Bedeutung dieser Punkte sollten sie jedoch nicht absolut sein. Wie die Forschung zeigt, kann man in jedem Stadium der Entwicklung einer bestimmten Naturwissenschaft eine riesige Schicht grundlegender empirischer Fakten und Muster entdecken, die im Rahmen fundierter Theorien noch nicht erfasst wurden.

Somit wurde eine der grundlegendsten astrophysikalischen Fakten über die Expansion der Metagalaxie als statistische Zusammenfassung zahlreicher seit 1914 durchgeführter Beobachtungen des Phänomens der „Rotverschiebung“ in den Spektren entfernter Galaxien sowie deren Interpretation festgestellt Diese Beobachtungen sind auf den Doppler-Effekt zurückzuführen. Dazu waren natürlich bestimmte theoretische Erkenntnisse aus der Physik erforderlich, aber die Einbeziehung dieser Tatsache in das System des Wissens über das Universum erfolgte unabhängig von der Entwicklung der Theorie, in deren Rahmen sie verstanden und erklärt wurde, d. h. der Theorie des expandierenden Universums, insbesondere da sie viele Jahre nach den ersten Veröffentlichungen über die Entdeckung der Rotverschiebung in den Spektren von Spiralnebeln erschien. Die Theorie von A. A. Friedman half, diese Tatsache richtig einzuschätzen, die vorher und unabhängig davon Eingang in das empirische Wissen über das Universum fand. Dies spricht für die relative Unabhängigkeit und den Wert der empirischen Grundlage wissenschaftlicher und kognitiver Aktivitäten, die „auf Augenhöhe“ mit dem theoretischen Wissensstand interagiert.

6. Methoden, bei denen mit den gewonnenen empirischen Informationen gearbeitet wird

Bisher haben wir über empirische Methoden gesprochen, die darauf abzielen, reale Objekte zu isolieren und zu untersuchen. Betrachten wir die zweite Gruppe von Methoden auf dieser Ebene, bei denen mit empfangenen empirischen Informationen gearbeitet wird – wissenschaftlichen Fakten, die verarbeitet, systematisiert, primär verallgemeinert usw. werden müssen.

Diese Methoden sind notwendig, wenn der Forscher in der Schicht des vorhandenen, erworbenen Wissens arbeitet, sich nicht mehr direkt mit den Ereignissen der Realität befasst, die gewonnenen Daten organisiert, versucht, regelmäßige Zusammenhänge – empirische Gesetze – zu entdecken und Annahmen über deren Existenz zu treffen. Dabei handelt es sich naturgemäß weitgehend um „rein logische“ Methoden, die sich nach vorrangig in der Logik übernommenen Gesetzmäßigkeiten entfalten, gleichzeitig aber in den Kontext der empirischen Ebene wissenschaftlicher Forschung mit der Aufgabe der Organisation des aktuellen Wissens eingebunden sind. Auf der Ebene gewöhnlicher vereinfachter Ideen wird dieses Stadium der anfänglichen überwiegend induktiven Verallgemeinerung von Wissen oft als der eigentliche Mechanismus zur Gewinnung einer Theorie interpretiert, der den Einfluss des in vergangenen Jahrhunderten weit verbreiteten „allinduktivistischen“ Wissensbegriffs zeigt .

Das Studium wissenschaftlicher Fakten beginnt mit ihrer Analyse. Unter Analyse verstehen wir eine Forschungsmethode, die aus der mentalen Zerlegung (Zerlegung) eines ganzen oder allgemein komplexen Phänomens in seine Bestandteile, einfacheren Elementarteile und der Identifizierung einzelner Aspekte, Eigenschaften und Zusammenhänge besteht. Aber die Analyse ist nicht das Endziel der wissenschaftlichen Forschung, die darauf abzielt, das Ganze zu reproduzieren, seine innere Struktur, die Art seiner Funktionsweise, die Gesetze seiner Entwicklung zu verstehen. Dieses Ziel wird durch die anschließende theoretische und praktische Synthese erreicht.

Synthese ist eine Forschungsmethode, die darin besteht, die analysierten Teile, Elemente, Seiten, Komponenten eines komplexen Phänomens zu verbinden, die Zusammenhänge zu reproduzieren und das Ganze in seiner Einheit zu begreifen. Analyse und Synthese haben ihre objektiven Grundlagen in der Struktur und den Gesetzen der materiellen Welt selbst. In der objektiven Realität gibt es das Ganze und seine Teile, Einheit und Unterschiede, Kontinuität und Diskretion, ständig stattfindende Prozesse des Zerfalls und der Verbindung, Zerstörung und Schöpfung. In allen Wissenschaften wird analytisch-synthetische Tätigkeit ausgeübt, während sie in der Naturwissenschaft nicht nur geistig, sondern auch praktisch ausgeübt werden kann.

Der Übergang von der Sachverhaltsanalyse zur theoretischen Synthese erfolgt mit Methoden, die sich gegenseitig ergänzen und kombinieren und den Inhalt dieses komplexen Prozesses ausmachen. Eine dieser Methoden ist die Induktion, die im engeren Sinne traditionell als Methode des Übergangs von der Kenntnis einzelner Tatsachen zur Kenntnis des Allgemeinen, zur empirischen Verallgemeinerung und zur Festlegung einer allgemeinen Position verstanden wird, die in ein Gesetz oder einen anderen wesentlichen Zusammenhang übergeht . Die Schwäche der Induktion liegt in der fehlenden Begründung für einen solchen Übergang. Die Aufzählung der Tatsachen kann praktisch nie abgeschlossen werden, und wir sind nicht sicher, ob die folgende Tatsache nicht widersprüchlich sein wird. Daher ist durch Induktion gewonnenes Wissen immer probabilistisch. Darüber hinaus enthalten die Prämissen des induktiven Schlusses kein Wissen darüber, wie bedeutsam die verallgemeinerbaren Merkmale und Eigenschaften sind. Mithilfe der Aufzählungsinduktion kann man Erkenntnisse gewinnen, die nicht zuverlässig, sondern nur wahrscheinlich sind. Darüber hinaus gibt es eine Reihe anderer Methoden zur Verallgemeinerung empirischen Materials, mit deren Hilfe, wie bei der populären Induktion, die gewonnenen Erkenntnisse wahrscheinlicher Natur sind. Zu diesen Methoden gehören die Methode der Analogien, statistische Methoden und die Methode der Modellextrapolation. Sie unterscheiden sich im Grad der Gültigkeit des Übergangs von Fakten zu Verallgemeinerungen. Alle diese Methoden werden oft unter dem allgemeinen Namen induktiv zusammengefasst, und der Begriff Induktion wird dann im weiteren Sinne verwendet.

Im allgemeinen wissenschaftlichen Erkenntnisprozess sind induktive und deduktive Methoden eng miteinander verknüpft. Beide Methoden basieren auf der objektiven Dialektik des Einzelnen und des Allgemeinen, des Phänomens und des Wesens, des Zufälligen und des Notwendigen. Induktive Methoden sind in Wissenschaften, die direkt auf Erfahrung basieren, von größerer Bedeutung, während deduktive Methoden in theoretischen Wissenschaften als Werkzeug für ihre logische Ordnung und Konstruktion, als Erklärungs- und Vorhersagemethoden von größter Bedeutung sind. Zur Verarbeitung und Verallgemeinerung von Sachverhalten in der wissenschaftlichen Forschung werden häufig Systematisierung als Reduktion auf ein einziges System und Klassifikation als Einteilung in Klassen, Gruppen, Typen etc. verwendet.

7. Methodische Aspekte

Bei der Entwicklung methodischer Aspekte der Klassifikationstheorie schlagen Methodologen vor, zwischen folgenden Konzepten zu unterscheiden:

Klassifizierung ist die Aufteilung einer beliebigen Menge in Teilmengen nach beliebigen Kriterien;

Systematik ist die Ordnung von Objekten, die den Status eines privilegierten Klassifikationssystems hat, das sich durch die Natur selbst auszeichnet (natürliche Klassifikation);

Taxonomie ist die Untersuchung beliebiger Klassifikationen unter dem Gesichtspunkt der Struktur von Taxa (untergeordnete Objektgruppen) und Merkmalen.

Klassifizierungsmethoden ermöglichen die Lösung einer Reihe kognitiver Probleme: Reduzierung der Materialvielfalt auf eine relativ kleine Anzahl von Einheiten (Klassen, Typen, Formen, Arten, Gruppen usw.); die anfänglichen Analyseeinheiten identifizieren und ein System entsprechender Konzepte und Begriffe entwickeln; Regelmäßigkeiten, stabile Zeichen und Zusammenhänge und letztlich empirische Muster entdecken; Bisherige Forschungsergebnisse zusammenfassen und die Existenz bisher unbekannter Objekte oder deren Eigenschaften vorhersagen, neue Verbindungen und Abhängigkeiten zwischen bereits bekannten Objekten entdecken. Die Erstellung von Klassifikationen muss den folgenden logischen Anforderungen genügen: Es muss dieselbe Grundlage in derselben Klassifikation verwendet werden; die Menge der Klassifikationsmitglieder muss gleich der Menge der zu klassifizierenden Klasse sein (Proportionalität der Teilung); Mitglieder der Klassifikation müssen sich gegenseitig ausschließen usw.

In den Naturwissenschaften werden sowohl deskriptive Klassifikationen vorgestellt, die es ermöglichen, die gesammelten Ergebnisse einfach auf eine praktische Form zu reduzieren, als auch strukturelle Klassifikationen, die es ermöglichen, die Beziehungen von Objekten zu identifizieren und zu erfassen. Daher sind deskriptive Klassifikationen in der Physik die Unterteilung fundamentaler Teilchen nach Ladung, Spin, Masse, Fremdartigkeit und Beteiligung an verschiedenen Arten von Wechselwirkungen. Einige Teilchengruppen können nach Symmetrietypen (Quarkstrukturen von Teilchen) klassifiziert werden, was eine tiefere, wesentliche Beziehungsebene widerspiegelt.

Die Forschung der letzten Jahrzehnte hat methodische Probleme von Klassifikationen aufgedeckt, deren Kenntnis für einen modernen Forscher und Systematisierer notwendig ist. Dabei handelt es sich zunächst einmal um eine Diskrepanz zwischen den formalen Bedingungen und Regeln für die Bildung von Klassifikationen und der realen wissenschaftlichen Praxis. Die Forderung nach Diskretion von Merkmalen führt in einer Reihe von Fällen zu künstlichen Methoden zur Aufteilung des Ganzen in diskrete Merkmalswerte; Es ist nicht immer möglich, eine kategorische Beurteilung der zu einem Objekt gehörenden Eigenschaft zu treffen; wenn die Merkmale mehrfach strukturiert sind, beschränken sie sich auf die Angabe der Häufigkeit des Auftretens usw. Ein weitverbreitetes methodisches Problem ist die Schwierigkeit, zwei unterschiedliche Ziele zu kombinieren in einer Klassifizierung: die Anordnung des Materials, bequem zum Aufzeichnen und Suchen; Identifizierung interner systemischer Beziehungen im Material – funktionelle, genetische und andere (Forschungsgruppe).

Ein empirisches Gesetz ist die am weitesten entwickelte Form des probabilistischen empirischen Wissens, das induktive Methoden verwendet, um quantitative und andere Abhängigkeiten zu beheben, die experimentell durch den Vergleich der Fakten von Beobachtung und Experiment ermittelt werden. Darin besteht der Unterschied zwischen einer Wissensform und einem theoretischen Gesetz – verlässlichem Wissen, das mithilfe mathematischer Abstraktionen sowie als Ergebnis theoretischer Überlegungen, hauptsächlich als Folge eines Gedankenexperiments an idealisierten Objekten, formuliert wird.

Die Forschung der letzten Jahrzehnte hat gezeigt, dass die Theorie nicht durch induktive Verallgemeinerung und Systematisierung von Fakten erlangt werden kann, sie entsteht nicht als logische Konsequenz von Fakten, die Mechanismen ihrer Entstehung und Konstruktion sind anderer Natur, implizieren einen Sprung, ein Übergang zu einem qualitativ anderen Wissensstand, der Kreativität und Talent des Forschers erfordert. Dies wird insbesondere durch zahlreiche Aussagen von A. Einstein bestätigt, dass es keinen logisch notwendigen Weg von experimentellen Daten zur Theorie gibt; Konzepte, die im Prozess unseres Denkens entstehen.

Der empirische Informationsbestand liefert primäre Informationen über neue Erkenntnisse und viele Eigenschaften der Untersuchungsobjekte und dient somit als Ausgangsbasis für wissenschaftliche Forschung.

Empirische Methoden basieren in der Regel auf dem Einsatz von Methoden und Techniken der experimentellen Forschung, die es ermöglichen, sachliche Informationen über das Objekt zu gewinnen. Einen besonderen Platz nehmen dabei grundlegende Methoden ein, die relativ häufig in der praktischen Forschungstätigkeit eingesetzt werden.


LITERATUR

1. Korotkov E.M. Erforschung von Steuerungssystemen. – M.: DEKA, 2000.

2. Lomonosov B.P., Mishin V.M. Systemforschung. – M.: JSC „Inform-Wissen“, 1998.

3. Malin A.S., Mukhin V.I. Systemforschung. – M.: State University Higher School of Economics, 2002.

4. Mischin V.M. Systemforschung. – M.: UNITY-DANA, 2003.

5. Mischin V.M. Systemforschung. – M.: ZAO „Finstatinform“, 1998.

6. Kovalchuk V. V., Moiseev A. N. Grundlagen der wissenschaftlichen Forschung. K.: Zannanya, 2005.

7. Filipenko A. S. Grundlagen der wissenschaftlichen Forschung. K.: Akademvidav, 2004.

8. Grishenko I. M. Grundlagen der wissenschaftlichen Forschung. K.: KNEU, 2001.

9. Ludchenko A. A. Grundlagen der wissenschaftlichen Forschung. K.: Zannanya, 2001

10. Stechenko D. I., Chmir O. S. Methodik der wissenschaftlichen Forschung. K.: VD „Professional“, 2005.