Experimentelle Psychologie: Vorlesungsskript. Tutorial: Ein Experiment planen Das Planen eines Experiments ist notwendig für

Experimentelles Design ist ein Produkt unserer Zeit, doch seine Ursprünge liegen im Nebel der Zeit.

Die Ursprünge der experimentellen Planung reichen bis in die Antike zurück und sind mit numerischer Mystik, Prophezeiungen und Aberglauben verbunden.

Dabei handelt es sich eigentlich nicht um die Planung eines physikalischen Experiments, sondern um die Planung eines numerischen Experiments, d. h. Anordnung von Zahlen, sodass bestimmte strenge Bedingungen erfüllt sind, beispielsweise die Gleichheit der Summen entlang der Zeilen, Spalten und Diagonalen einer quadratischen Tabelle, deren Zellen mit Zahlen aus der natürlichen Reihe gefüllt sind.

Solche Bedingungen werden in magischen Quadraten erfüllt, die offenbar bei der Planung des Experiments Vorrang haben.

Einer Legende zufolge um 2200 v. Chr. Der chinesische Kaiser Yu führte mystische Berechnungen mithilfe eines magischen Quadrats durch, das auf dem Panzer einer göttlichen Schildkröte abgebildet war.

Kaiser-Yu-Platz

Die Zellen dieses Quadrats sind mit Zahlen von 1 bis 9 gefüllt und die Summe der Zahlen in Zeilen, Spalten und Hauptdiagonalen beträgt 15.

Im Jahr 1514 stellte der deutsche Künstler Albrecht Dürer in der rechten Ecke seines berühmten Allegorienstichs „Melancholie“ ein magisches Quadrat dar. Die beiden Zahlen in der unteren horizontalen Reihe (A5 und 14) geben das Jahr an, in dem die Gravur erstellt wurde. Dies war eine Art „Anwendung“ des magischen Quadrats.

Dürer-Platz

Die Konstruktion magischer Quadrate beschäftigte mehrere Jahrhunderte lang indische, arabische, deutsche und französische Mathematiker.

Derzeit werden magische Quadrate bei der Planung eines Experiments unter Bedingungen linearer Drift, bei der Planung wirtschaftlicher Berechnungen und der Zubereitung von Lebensmittelrationen, in der Kodierungstheorie usw. verwendet.

Die Konstruktion magischer Quadrate ist eine Aufgabe der kombinatorischen Analyse, deren Grundlagen in ihrem modernen Verständnis von G. Leibniz gelegt wurden. Er untersuchte und löste nicht nur grundlegende kombinatorische Probleme, sondern wies auch auf die große praktische Anwendung der kombinatorischen Analyse hin: auf Kodierung und Dekodierung, auf Spiele und Statistiken, auf die Logik von Erfindungen und die Logik der Geometrie, auf die Kriegskunst und die Grammatik , Medizin, Recht, Technik usw. Kombinationen von Beobachtungen. Der letzte Anwendungsbereich kommt dem experimentellen Design am nächsten.

Eines der kombinatorischen Probleme, das in direktem Zusammenhang mit der Planung eines Experiments steht, wurde vom berühmten St. Petersburger Mathematiker L. Euler untersucht. Im Jahr 1779 stellte er als eine Art mathematisches Kuriosum das Problem der 36 Offiziere vor.

Er stellte die Frage, ob es möglich sei, 36 Offiziere in 6 Dienstgraden aus 6 Regimentern auszuwählen, einen Offizier in jedem Dienstgrad aus jedem Regiment, und sie in einem Quadrat anzuordnen, so dass in jeder Reihe und in jedem Dienstgrad jeweils ein Offizier vorhanden wäre Rang und einer aus jedem Regiment. Das Problem entspricht der Konstruktion gepaarter orthogonaler 6x6-Quadrate. Es stellte sich heraus, dass dieses Problem nicht gelöst werden kann. Euler schlug vor, dass es kein Paar orthogonaler Quadrate der Ordnung n=1 (Mod 4) gibt.

Viele Mathematiker untersuchten anschließend das Eulersche Problem im Besonderen und lateinische Quadrate im Allgemeinen, aber fast keiner von ihnen dachte über die praktische Anwendung lateinischer Quadrate nach.

Derzeit sind lateinische Quadrate eine der beliebtesten Methoden zur Begrenzung der Randomisierung bei Vorhandensein diskreter Inhomogenitätsquellen im experimentellen Design. Durch die Gruppierung der Elemente eines lateinischen Quadrats können Sie aufgrund seiner Eigenschaften (jedes Element kommt nur einmal in jeder Zeile und in jeder Spalte des Quadrats vor) die Haupteffekte vor dem Einfluss der Inhomogenitätsquelle schützen. Lateinische Quadrate werden auch häufig als Mittel zur Reduzierung der Aufzählung bei kombinatorischen Problemen verwendet.

Die Entstehung moderner statistischer Methoden der Experimentplanung ist mit dem Namen R. Fisher verbunden.

1918 begann er seine berühmte Werkreihe an der Rochemsted Agrobiological Station in England. 1935 erschien seine Monographie „Design of Experiments“, die der gesamten Richtung ihren Namen gab.

Unter den Planungsmethoden war die Varianzanalyse die erste (übrigens hat Fisher auch den Begriff „Varianz“ geprägt). Fisher schuf die Grundlage dieser Methode, indem er vollständige ANOVA-Klassifikationen (univariate und multivariate Experimente) und partielle ANOVA-Klassifikationen ohne Einschränkung und mit Einschränkung der Randomisierung beschrieb. Gleichzeitig nutzte er in großem Umfang lateinische Quadrate und Flussdiagramme. Zusammen mit F. Yates beschrieb er ihre statistischen Eigenschaften. Im Jahr 1942 erwog A. Kishen, mit lateinischen Würfeln zu planen, was eine Weiterentwicklung der Theorie der lateinischen Quadrate darstellte.

Dann veröffentlichte R. Fischer unabhängig Informationen über orthogonale hypergriechisch-lateinische Würfel und Hyperwürfel. Bald darauf (1946-1947) untersuchte R. Rao ihre kombinatorischen Eigenschaften. Die Arbeiten von X. Mann A947-1950 widmen sich der Weiterentwicklung der Theorie der lateinischen Quadrate.

Die Forschungen von R. Fischer im Zusammenhang mit Arbeiten zur Agrarbiologie markieren den Beginn der ersten Stufe in der Entwicklung experimenteller Designmethoden. Fisher entwickelte die faktorielle Planungsmethode. Yeggs schlug für diese Methode ein einfaches Rechenschema vor. Die faktorielle Planung ist weit verbreitet. Ein Merkmal eines vollfaktoriellen Experiments ist die Notwendigkeit, eine große Anzahl von Experimenten gleichzeitig durchzuführen.

Im Jahr 1945 führte D. Finney Teilrepliken des faktoriellen Experiments ein. Dies ermöglichte eine starke Reduzierung der Versuchsanzahl und ebnete den Weg für technische Planungsanträge. Eine weitere Möglichkeit, die erforderliche Anzahl an Experimenten zu reduzieren, wurde 1946 von R. Plackett und D. Berman aufgezeigt, die gesättigte faktorielle Designs einführten.

Im Jahr 1951 leitete die Arbeit der amerikanischen Wissenschaftler J. Box und K. Wilson eine neue Etappe in der Entwicklung der experimentellen Planung ein.

Diese Arbeit fasst die vorherigen zusammen. Darin wurde die Idee der sequentiellen experimentellen Bestimmung optimaler Bedingungen für die Durchführung von Prozessen klar formuliert und in praktische Empfehlungen umgesetzt, indem die Koeffizienten von Potenzgesetzentwicklungen mithilfe der Methode der kleinsten Quadrate geschätzt, entlang eines Gradienten bewegt und ein Interpolationspolynom (Potenz) gefunden wurden Reihe) im Bereich des Extremums der Antwortfunktion („nahezu stationärer“ Bereich).

1954-1955 J. Box und dann J. Box und P. Yule zeigten, dass experimentelles Design bei der Untersuchung physikalisch-chemischer Mechanismen von Prozessen verwendet werden kann, wenn eine oder mehrere mögliche Hypothesen a priori aufgestellt werden. Hier kreuzten sich experimentelles Design und chemische Kinetikstudien. Es ist interessant festzustellen, dass Kinetik als eine Methode zur Beschreibung eines Prozesses mithilfe von Differentialgleichungen betrachtet werden kann, deren Traditionen auf I. Newton zurückgehen. Die Beschreibung eines Prozesses durch Differentialgleichungen, auch deterministisch genannt, wird oft mit statistischen Modellen verglichen.

Box und J. Hunter formulierten das Prinzip der Drehbarkeit zur Beschreibung des „nahezu stationären“ Feldes, das sich mittlerweile zu einem wichtigen Zweig der Theorie des experimentellen Designs entwickelt. Die gleiche Arbeit zeigt die Möglichkeit der Planung mit Aufteilung in orthogonale Blöcke, die zuvor unabhängig von de Baun angedeutet wurde.

Eine Weiterentwicklung dieser Idee war die orthogonale Planung zur unkontrollierten Zeitdrift, die als wichtige Entdeckung in der Experimentiertechnik gelten sollte – eine deutliche Steigerung der Fähigkeiten des Experimentators.

Ein psychologisches Experiment beginnt mit Anweisungen, genauer gesagt mit der Herstellung bestimmter Beziehungen zwischen der Versuchsperson und dem Experimentator. Eine weitere Aufgabe für den Forscher ist die Probenahme: Mit wem das Experiment durchgeführt werden soll, damit seine Ergebnisse als zuverlässig gelten können. Am Ende des Experiments werden die Ergebnisse verarbeitet, die gewonnenen Daten interpretiert und der psychologischen Gemeinschaft präsentiert.

Verfahren

vorbereitend

1. die Notwendigkeit, ein bestimmtes Problem zu lösen, sein Bewusstsein, sein Studium, seine Auswahl an Literatur.

2.Formulierung von Aufgaben

3.Definition des Forschungsgegenstandes und -gegenstandes

4. Formulierung der Hypothese

5. Auswahl von Methoden und Techniken.

Forschung

Sammeln Sie Beweise mit verschiedenen Methoden. Dabei werden verschiedene Schritte einer Studienreihe durchgeführt.

Verarbeitung von Forschungsdaten

Quantitative und qualitative Analyse der Studie. 1.Analyse des erfassten Faktors. 2. Einen Zusammenhang herstellen: eine aufgezeichnete Tatsache – eine Hypothese. 3. Identifizierung wiederkehrender Faktoren. Es erfolgt eine statistische Aufbereitung, das Erstellen von Tabellen, Grafiken etc.

Dateninterpretation. Abschluss

1. Feststellung der Richtigkeit oder Unrichtigkeit der Forschungshypothese. 2. Korrelation der Ergebnisse mit bestehenden Konzepten und Theorien.

Der Begriff der Kontrolle wird in der Wissenschaft in zwei miteinander verbundenen, unterschiedlichen Bedeutungen verwendet.

Die zweite Bedeutung, die dem Wort „Kontrolle“ gegeben wird, bezieht sich auf den Ausschluss der Auswirkungen von Variablen, die der Forscher in Experimenten oder Beobachtungen ausgewählt hat, die unter künstlich geschaffenen Bedingungen durchgeführt wurden – d. h. Ihr Einfluss wird „kontrolliert“. Durch die Eliminierung von Variationen in kontrollierten Variablen ist es möglich, den Einfluss einer anderen Variablen namens „. unabhängig, von der gemessenen oder abhängigen Variablen. Ein solcher Ausschluss externer Variationsquellen ermöglicht es dem Forscher, die mit natürlichen Bedingungen einhergehenden Unsicherheiten zu verringern, die das Bild von Ursache-Wirkungs-Beziehungen usw. verschleiern. Erhalten Sie genauere Fakten.

Die Variable kann auf zwei Arten gesteuert werden. Wege. Die einfachste Methode besteht darin, die kontrollierte Variable über alle Bedingungen oder Gruppen von Probanden hinweg konstant zu halten; Ein Beispiel wäre die Eliminierung von Geschlechterunterschieden, indem nur Männer oder nur Frauen als Probanden verwendet werden. Bei der zweiten Methode wird ein gewisser Einfluss der Regelgröße zugelassen, es wird jedoch versucht, diese unter allen Bedingungen bzw. in allen Probandengruppen auf dem gleichen Niveau zu halten; bzw. Ein Beispiel ist die Einbeziehung einer gleichen Anzahl von Männern und Frauen in jede der am Experiment teilnehmenden Gruppen.

Die Kontrolle kritischer Variablen ist nicht immer einfach oder überhaupt möglich. Ein Beispiel hierfür wäre die Astronomie. Natürlich ist es nicht möglich, die Bewegung von Sternen und Planeten oder anderen Himmelskörpern zu manipulieren, was eine vollständige Kontrolle der Beobachtungen ermöglichen würde. Es ist jedoch möglich, Beobachtungen im Voraus zu planen, um das Eintreten bestimmter Naturereignisse im Voraus zu berücksichtigen – die sogenannten. natürliche Experimente - und dadurch ein gewisses Maß an Kontrolle bei Beobachtungen erreichen.

  • Frage 62. Geschichte der Entwicklung der Zahnpflege in Russland.
  • Frage Nr. 2. Das Konzept des Wirtschaftsrechts, seine Ziele, Zielsetzungen und Funktionen. Entwicklungsgeschichte.
  • №5. Geschichte der Philosophie. Philosophisches Denken des Alten Ostens.
  • Die Versuchsplanung entstand in den 1920er Jahren aus der Notwendigkeit heraus, systematische Fehler in der Agrarforschung durch Randomisierung der Versuchsbedingungen zu beseitigen oder zumindest zu reduzieren. Ziel des Planungsverfahrens war nicht nur die Reduzierung der Varianz der geschätzten Parameter, sondern auch die Randomisierung im Hinblick auf begleitende, sich spontan ändernde und unkontrollierte Variablen. Dadurch ist es uns gelungen, die Verzerrung in den Schätzungen zu beseitigen.

    Seit 1918 begann R. Fisher seine berühmte Werkreihe an der Rochemsted Agrobiological Station in England. 1935 erschien seine Monographie „Design of Experiments“, die der gesamten Richtung ihren Namen gab. Im Jahr 1942 erwog A. Kishen, ein Experiment mit lateinischen Würfeln zu planen, das eine Weiterentwicklung der Theorie der lateinischen Quadrate darstellte. Dann veröffentlichte R. Fischer unabhängig Informationen über orthogonale hypergriechisch-lateinische Würfel und Hyperwürfel. Bald darauf, im Jahr 1946, untersuchte R. Rao ihre kombinatorischen Eigenschaften. Die Arbeiten von H. Mann (1947-1950) widmen sich der Weiterentwicklung der Theorie der lateinischen Quadrate.

    Die erste eingehende mathematische Untersuchung des Blockdiagramms wurde 1939 von R. Bose durchgeführt. Zunächst wurde die Theorie der ausgeglichenen unvollständigen Blockpläne (BIB-Diagramme) entwickelt. Dann verallgemeinerten R. Bose, K. Ner und R. Rao diese Pläne und entwickelten die Theorie der teilweise ausgeglichenen unvollständigen Blockdesigns (PBIB-Schemata). Seitdem hat das Studium von Flussdiagrammen sowohl von Spezialisten für experimentelle Planung (F. Yates, G. Cox, V. Cochran, W. Federer, K. Gulden, O. Kempthorn und andere) als auch von Spezialisten für Kombinatorik große Aufmerksamkeit erhalten Analyse (Bose, F. Shimamoto, V. Clatsworthy, S. Shrikhande, A. Hoffman usw.).

    Die Forschung von R. Fischer markiert den Beginn der ersten Stufe in der Entwicklung experimenteller Entwurfsmethoden. Fisher entwickelte die faktorielle Planungsmethode. Yates schlug für diese Methode ein einfaches Rechenschema vor. Die faktorielle Planung ist weit verbreitet. Ein Merkmal eines faktoriellen Experiments ist die Notwendigkeit, eine große Anzahl von Experimenten gleichzeitig durchzuführen.

    Im Jahr 1945 führte D. Finney fraktionierte Nachbildungen des faktoriellen Experiments ein. Dies reduzierte die Anzahl der Experimente und ebnete den Weg für technische Planungsanträge. Eine weitere Möglichkeit, die erforderliche Anzahl an Experimenten zu reduzieren, zeigten 1946 R. Plackett und D. Berman, die gesättigte faktorielle Designs einführten.



    G. Hotelling schlug 1941 vor, das Extremum aus experimentellen Daten mithilfe von Potenzerweiterungen und Gradienten zu ermitteln. Der nächste wichtige Schritt war die Einführung des Prinzips des sequentiellen schrittweisen Experimentierens. Dieses 1947 von M. Friedman und L. Savage formulierte Prinzip ermöglichte eine Ausweitung auf die experimentelle Bestimmung des Extremums – der Iteration.

    Um eine moderne Theorie der experimentellen Planung aufzubauen, fehlte ein Glied – die Formalisierung des Untersuchungsgegenstandes. Dieser Link erschien 1947, nachdem N. Wiener die Theorie der Kybernetik entwickelt hatte. Bei der Planung spielt das kybernetische Konzept einer „Black Box“ eine wichtige Rolle.

    Im Jahr 1951 leitete die Arbeit der amerikanischen Wissenschaftler J. Box und K. Wilson eine neue Etappe in der Entwicklung der experimentellen Planung ein. Es formulierte die Idee der sequentiellen experimentellen Bestimmung optimaler Bedingungen für die Durchführung von Prozessen und brachte sie in praktische Empfehlungen unter Verwendung der Schätzung von Potenzentwicklungskoeffizienten mithilfe der Methode der kleinsten Quadrate, der Bewegung entlang des Gradienten und der Suche nach einem Interpolationspolynom im Bereich der Extremum der Antwortfunktion (nahezu stationärer Bereich).



    1954-1955 J. Box und dann P. Yule. Sie zeigten, dass experimentelle Planung bei der Untersuchung physikalisch-chemischer Prozesse eingesetzt werden kann, wenn eine oder mehrere mögliche Hypothesen a priori aufgestellt werden. Die Richtung wurde in den Arbeiten von N.P. Klepikov, S.N. Sokolov und V.V. Fedorov entwickelt.

    Die dritte Stufe in der Entwicklung der Theorie des experimentellen Designs begann 1957, als Box seine Methode in der Industrie anwendete. Diese Methode wurde „Evolutionsplanung“ genannt. Im Jahr 1958 schlug G. Schiffe eine neue Methode der experimentellen Gestaltung zur Untersuchung physikalisch-chemischer Zusammensetzungs-Eigenschaftsdiagramme vor, die als „Simplex-Gitter“ bezeichnet wird.

    Die Entwicklung der experimentellen Planung in der UdSSR spiegelt sich in den Werken von V.V. Nalimov, Yu.V. Granovsky, V.B

    Phasen der Experimentplanung

    Experimentelle Planungsmethoden ermöglichen es, die Anzahl der notwendigen Tests zu minimieren, je nach Art und erforderlicher Genauigkeit der Ergebnisse ein rationelles Vorgehen und Bedingungen für die Durchführung von Forschungen festzulegen. Wenn die Anzahl der Tests aus irgendeinem Grund bereits begrenzt ist, liefern die Methoden eine Schätzung der Genauigkeit, mit der die Ergebnisse in diesem Fall erzielt werden. Die Methoden berücksichtigen die zufällige Streuung der Eigenschaften der geprüften Objekte und der Eigenschaften der verwendeten Geräte. Sie basieren auf den Methoden der Wahrscheinlichkeitstheorie und der mathematischen Statistik.

    Die Planung eines Experiments umfasst mehrere Schritte.

    1. Festlegung des Zwecks des Experiments(Definition von Merkmalen, Eigenschaften usw.) und ihrer Art (definitiv, Kontrolle, vergleichend, Forschung).

    2. Klärung der Versuchsbedingungen(verfügbare oder zugängliche Ausrüstung, Zeitpunkt der Arbeit, finanzielle Ressourcen, Anzahl und Personalausstattung der Arbeitskräfte usw.). Auswahl der Art der Tests (normal, beschleunigt, verkürzt im Labor, auf einem Prüfstand, auf einem Testgelände, im Originalmaßstab oder im Betrieb).

    3. Identifizierung und Auswahl von Ein- und Ausgabeparametern basierend auf der Sammlung und Analyse vorläufiger (a priori) Informationen. Eingabeparameter (Faktoren) können deterministisch, also registriert und kontrollierbar (je nach Beobachter), und zufällig, also registriert, aber unkontrollierbar, sein. Darüber hinaus kann der Zustand des Untersuchungsobjekts durch nicht registrierte und unkontrollierbare Parameter beeinflusst werden, die zu einem systematischen oder zufälligen Fehler in den Messergebnissen führen. Dies sind Fehler in Messgeräten, Veränderungen der Eigenschaften des Untersuchungsobjekts während des Experiments, beispielsweise durch Alterung des Materials oder dessen Verschleiß, Einwirkung von Personal usw.

    4. Ermittlung der erforderlichen Genauigkeit der Messergebnisse(Ausgabeparameter), Bereiche möglicher Änderungen der Eingabeparameter, Klärung der Arten von Auswirkungen. Die Art der zu untersuchenden Proben oder Objekte wird unter Berücksichtigung des Grades ihrer Übereinstimmung mit dem realen Produkt hinsichtlich Zustand, Struktur, Form, Größe und anderen Merkmalen ausgewählt.

    Die Bezeichnung des Genauigkeitsgrades wird von den Herstellungs- und Betriebsbedingungen des Objekts beeinflusst, bei dessen Erstellung diese experimentellen Daten verwendet werden. Die Fertigungsbedingungen, also die Produktionsmöglichkeiten, schränken die tatsächlich erreichbare höchste Genauigkeit ein. Betriebsbedingungen, also die Bedingungen zur Gewährleistung des normalen Betriebs eines Objekts, bestimmen die Mindestanforderungen an die Genauigkeit.

    Die Genauigkeit experimenteller Daten hängt auch maßgeblich von der Menge (Anzahl) der Tests ab – je mehr Tests es gibt, desto höher (unter gleichen Bedingungen) die Zuverlässigkeit der Ergebnisse.

    Für eine Reihe von Fällen (mit einer kleinen Anzahl von Faktoren und einem bekannten Gesetz ihrer Verteilung) ist es möglich, die minimal erforderliche Anzahl von Tests im Voraus zu berechnen, deren Durchführung es ermöglicht, Ergebnisse mit der erforderlichen Genauigkeit zu erhalten.

    0. Ein Experiment planen und durchführen- Anzahl und Reihenfolge der Tests, Art der Datenerhebung, -speicherung und -dokumentation.

    Die Testreihenfolge ist wichtig, wenn die Eingabeparameter (Faktoren) bei der Untersuchung desselben Objekts während eines Experiments unterschiedliche Werte annehmen. Beispielsweise hängt bei der Ermüdungsprüfung mit stufenweiser Änderung des Belastungsniveaus die Dauerfestigkeit von der Belastungsreihenfolge ab, da sich die Schäden unterschiedlich akkumulieren und sich daher ein anderer Wert der Dauerfestigkeit ergibt.

    In einer Reihe von Fällen, in denen systematische Betriebsparameter schwer zu berücksichtigen und zu kontrollieren sind, werden sie in zufällige umgewandelt, wobei insbesondere eine zufällige Reihenfolge der Tests vorgesehen wird (Randomisierung des Experiments). Dadurch können Sie Methoden der mathematischen Statistiktheorie auf die Ergebnisanalyse anwenden.

    Auch die Reihenfolge der Tests ist im Prozess der explorativen Forschung wichtig: Abhängig von der gewählten Abfolge von Aktionen bei der experimentellen Suche nach dem optimalen Verhältnis der Parameter eines Objekts oder eines Prozesses können mehr oder weniger Experimente erforderlich sein. Diese experimentellen Probleme ähneln mathematischen Problemen der numerischen Suche nach optimalen Lösungen. Die am weitesten entwickelten Methoden sind die eindimensionale Suche (Ein-Faktor-Einzelkriterien-Probleme) wie die Fibonacci-Methode oder die Methode des Goldenen Schnitts.

    0. Statistische Verarbeitung experimenteller Ergebnisse, Erstellung eines mathematischen Modells des Verhaltens der untersuchten Merkmale.

    Der Verarbeitungsbedarf ergibt sich aus der Tatsache, dass eine selektive Analyse einzelner Daten ohne Zusammenhang mit anderen Ergebnissen oder eine fehlerhafte Verarbeitung derselben nicht nur den Wert praktischer Empfehlungen mindern, sondern auch zu falschen Schlussfolgerungen führen kann. Die Verarbeitung der Ergebnisse umfasst:

    · Bestimmung des Konfidenzintervalls des Durchschnittswerts und der Streuung (oder Standardabweichung) der Werte der Ausgabeparameter (experimentelle Daten) für eine gegebene statistische Zuverlässigkeit;

    · Überprüfung auf Fehlen fehlerhafter Werte (Ausreißer), um fragwürdige Ergebnisse von der weiteren Analyse auszuschließen. Sie wird auf Einhaltung eines der Sonderkriterien durchgeführt, deren Wahl vom Verteilungsgesetz der Zufallsvariablen und der Art des Ausreißers abhängt;

    · Überprüfung der Übereinstimmung der experimentellen Daten mit dem zuvor eingeführten a priori-Verteilungsgesetz. Abhängig davon werden der gewählte Versuchsplan und die Methoden zur Verarbeitung der Ergebnisse bestätigt und die Wahl des mathematischen Modells festgelegt.

    Die Erstellung eines mathematischen Modells erfolgt in Fällen, in denen quantitative Eigenschaften der untersuchten miteinander verbundenen Eingabe- und Ausgabeparameter ermittelt werden müssen. Hierbei handelt es sich um Approximationsprobleme, also um die Wahl einer mathematischen Beziehung, die am besten zu den experimentellen Daten passt. Zu diesem Zweck werden Regressionsmodelle verwendet, die auf der Entwicklung der gewünschten Funktion in einer Reihe unter Beibehaltung eines (lineare Abhängigkeit, Regressionsgerade) oder mehrerer (nichtlineare Abhängigkeiten) Terme der Entwicklung (Fourier-, Taylor-Reihe) basieren. Eine Methode zum Anpassen einer Regressionsgeraden ist die weit verbreitete Methode der kleinsten Quadrate.

    Um den Grad der Verknüpfung von Faktoren oder Ausgabeparametern zu beurteilen, wird eine Korrelationsanalyse der Testergebnisse durchgeführt. Der Korrelationskoeffizient wird als Maß für den Zusammenhang verwendet: Für unabhängige oder nichtlinear abhängige Zufallsvariablen ist er gleich oder nahe Null, und seine Nähe zur Eins zeigt die vollständige Verbindung der Variablen und das Vorhandensein einer linearen Abhängigkeit zwischen ihnen an.
    Bei der Verarbeitung oder Verwendung experimenteller Daten, die in tabellarischer Form dargestellt werden, besteht die Notwendigkeit, Zwischenwerte zu erhalten. Hierzu werden Methoden der linearen und nichtlinearen (polynomialen) Interpolation (Bestimmung von Zwischenwerten) und Extrapolation (Bestimmung von außerhalb des Datenänderungsintervalls liegenden Werten) eingesetzt.

    0. Erläuterung der erzielten Ergebnisse und Formulierung von Empfehlungen für ihre Verwendung, Klärung der experimentellen Methodik.

    Eine Reduzierung der Arbeitsintensität und eine Verkürzung der Testzeit werden durch den Einsatz automatisierter Versuchskomplexe erreicht. Ein solcher Komplex umfasst Prüfstände mit automatischer Einstellung von Modi (ermöglicht die Simulation realer Betriebsmodi), verarbeitet die Ergebnisse automatisch, führt statistische Analysen durch und dokumentiert Recherchen. Aber auch die Verantwortung des Ingenieurs in diesen Studien ist groß: Klar definierte Testziele und eine richtig getroffene Entscheidung ermöglichen es, die Schwachstelle des Produkts genau zu finden, den Aufwand für die Feinabstimmung und den iterativen Designprozess zu reduzieren.

    Die Erstellung eines Modells ist ein notwendiger Akt bei der Analyse und Synthese komplexer Systeme, aber noch lange nicht endgültig. Ein Modell ist nicht das Ziel eines Forschers, sondern nur ein Werkzeug zur Durchführung von Forschungen, ein experimentelles Werkzeug. In den ersten Themen haben wir den Aphorismus: „Ein Modell ist ein Objekt und ein Mittel zum Experimentieren“ ziemlich vollständig enthüllt.

    Das Experiment muss informativ sein, das heißt, es muss alle notwendigen Informationen liefern, die vollständig, genau und zuverlässig sein müssen. Aber es muss auf akzeptable Weise erlangt werden. Das bedeutet, dass die Methode wirtschaftlichen, zeitlichen und möglicherweise anderen Randbedingungen genügen muss. Dieser Widerspruch wird mit Hilfe einer rationalen (optimalen) Versuchsplanung gelöst.

    Die Theorie des experimentellen Designs entwickelte sich in den sechziger Jahren des 20. Jahrhunderts dank der Arbeit des herausragenden englischen Mathematikers, Biologen und Statistikers Ronald Aylmer Fisher (1890-1962). Eine der ersten inländischen Veröffentlichungen: Fedorov V.V. Theorie des optimalen Experiments. 1971 Etwas später entstanden Theorie und Praxis der Planung von Simulationsexperimenten, deren Elemente in diesem Thema besprochen werden.

    4.1. Das Wesen und die Ziele der Experimentplanung

    Wie wir bereits wissen, wird also ein Modell erstellt, um damit Experimente durchzuführen. Wir gehen davon aus, dass das Experiment besteht aus Beobachtungen, und jede Beobachtung stammt von läuft (Implementierungen) Modelle.

    Das Folgende ist für die Organisation von Experimenten am wichtigsten.

    Ein Computerexperiment mit einem Simulationsmodell hat in all diesen Punkten Vorteile gegenüber einem Experiment im Originalmaßstab.

    Was ist ein Computer-(Maschinen-)Experiment?

    Computerexperiment ist der Prozess, bei dem ein Modell verwendet wird, um für den Forscher interessante Informationen über die Eigenschaften des modellierten Systems zu erhalten und zu analysieren.

    Das Experiment erfordert Arbeit und Zeit und damit auch finanzielle Kosten. Je mehr Informationen wir aus einem Experiment gewinnen wollen, desto teurer ist es.

    Das Mittel, um einen akzeptablen Kompromiss zwischen maximaler Information und minimalem Ressourcenaufwand zu erreichen, ist ein experimentelles Design.

    Experimenteller Plan definiert:

    • der Rechenaufwand auf dem Computer;
    • das Verfahren zur Durchführung von Berechnungen auf einem Computer;
    • Methoden zur Akkumulation und statistischen Verarbeitung von Modellierungsergebnissen.

    Die Versuchsplanung hat folgende Ziele:

    • Reduzierung der Gesamtmodellierungszeit bei gleichzeitiger Erfüllung der Anforderungen an Genauigkeit und Zuverlässigkeit der Ergebnisse;
    • Erhöhung des Informationsgehalts jeder Beobachtung;
    • Schaffung einer strukturellen Grundlage für den Forschungsprozess.

    Somit ist ein computerexperimenteller Entwurf eine Methode, um die notwendigen Informationen durch ein Experiment zu erhalten.

    Natürlich ist es möglich, nach diesem Plan zu forschen: das Modell in allen möglichen Modi zu untersuchen, mit allen möglichen Kombinationen von externen und interne Parameter Wiederholen Sie jedes Experiment zehntausende Male – je mehr, desto genauer!

    Offensichtlich bringt ein solches Experiment kaum Vorteile; die gewonnenen Daten sind schwer zu überprüfen und zu analysieren. Darüber hinaus werden die Ressourcenkosten hoch sein und immer begrenzt sein.

    Der gesamte Handlungskomplex zur Versuchsplanung gliedert sich in zwei eigenständige Funktionsteile:

    • strategische Planung;
    • taktische Planung.

    Strategische Planung- Entwicklung experimenteller Bedingungen, Bestimmung von Modi, die den größten Informationsgehalt des Experiments liefern.

    Taktische Planung gewährleistet das Erreichen der spezifizierten Genauigkeit und Zuverlässigkeit der Ergebnisse.

    4.2. Elemente des strategischen experimentellen Designs

    Die Erstellung eines strategischen Plans erfolgt im sogenannten Faktorraum. Faktorraum- Dies ist eine Reihe von externen und interne Parameter, deren Werte der Forscher während der Vorbereitung und Durchführung des Experiments kontrollieren kann.

    Die Ziele der strategischen Planung sind:

    • Ausgabevariablen (Antworten, Reaktionen, exogene Variablen);
    • Eingabevariablen (Faktoren, endogene Variablen);
    • Faktorstufen.

    Mathematische Methoden zur Versuchsplanung basieren auf der sogenannten kybernetischen Darstellung des Ablaufs einer Versuchsdurchführung (Abb. 4.1).


    Reis. 4.1.

    - Eingabevariablen, Faktoren;

    - Ausgabevariable (Reaktion, Antwort);

    Fehler, Störungen, die durch das Vorhandensein zufälliger Faktoren verursacht werden;

    Ein Operator, der die Wirkung eines realen Systems modelliert und die Abhängigkeit der Ausgabevariablen von Faktoren bestimmt

    Ansonsten: - ein Modell des im System ablaufenden Prozesses.

    Das erste Problem, gelöst während der strategischen Planung, ist die Wahl der Reaktion (Reaktion), d. h. die Bestimmung, welche Größen während des Experiments gemessen werden müssen, um die gewünschten Antworten zu erhalten. Die Wahl der Antwort hängt natürlich vom Zweck der Studie ab.

    Bei der Modellierung eines Informationsabrufsystems könnte ein Forscher beispielsweise an der Reaktionszeit des Systems auf eine Anfrage interessiert sein. Möglicherweise interessiert Sie jedoch ein Indikator wie die maximale Anzahl der in einem Zeitintervall bearbeiteten Anfragen. Oder vielleicht beides. Es kann viele gemessene Reaktionen geben: Im Folgenden sprechen wir von einer Reaktion

    Zweites Problem Strategische Planung ist die Auswahl (Bestimmung) wesentlicher Faktoren und ihrer Kombinationen, die den Betrieb des modellierten Objekts beeinflussen. Zu den Faktoren können Versorgungsspannung, Temperatur, Luftfeuchtigkeit, Rhythmus der Komponentenversorgung und vieles mehr gehören. Normalerweise ist die Anzahl der Faktoren groß und je weniger wir mit dem modellierten System vertraut sind, desto größer scheint uns, dass ihre Anzahl den Betrieb des Systems beeinflusst. In der Systemtheorie gilt das sogenannte Pareto-Prinzip:

    • 20 % der Faktoren bestimmen 80 % der Eigenschaften eines Systems;
    • 80 % der Faktoren bestimmen 20 % der Eigenschaften des Systems. Daher muss man in der Lage sein, wesentliche Faktoren zu identifizieren. A

    Dies wird durch eine ziemlich gründliche Untersuchung des modellierten Objekts und der darin ablaufenden Prozesse erreicht.

    Faktoren können quantitativer und/oder qualitativer Natur sein.

    Quantitative Faktoren- das sind diejenigen, deren Werte Zahlen sind. Zum Beispiel die Intensität der Eingangsströme und Leistungsströme, Pufferkapazität, die Anzahl der Kanäle im QS, der Prozentsatz der Fehler bei der Herstellung von Teilen usw.

    Qualitative Faktoren- Wartungsdisziplinen (LIFO, FIFO usw.) im CMO, „weiße Montage“, „gelbe Montage“ von funkelektronischen Geräten, Personalqualifikationen usw.

    Der Faktor muss beherrschbar sein. Faktorkontrollierbarkeit- Dies ist die Fähigkeit, den Faktorwert entsprechend dem Versuchsplan konstant einzustellen und aufrechtzuerhalten oder sich zu ändern. Auch unkontrollierbare Faktoren sind möglich, beispielsweise der Einfluss der äußeren Umgebung.

    Es gibt zwei Hauptanforderungen an die Menge der Einflussfaktoren:

    • Kompatibilität;
    • Unabhängigkeit.

    Kompatibilität von Faktoren bedeutet, dass alle Kombinationen von Faktorwerten möglich sind.

    Unabhängigkeit von Faktoren bestimmt die Möglichkeit, den Wert eines Faktors auf jeder Ebene zu ermitteln, unabhängig von den Ebenen anderer Faktoren.

    In strategischen Plänen werden Faktoren mit dem lateinischen Buchstaben bezeichnet, wobei der Index die Nummer (Typ) des Faktors angibt. Es gibt auch solche Bezeichnungen von Faktoren: usw.

    Das dritte Problem Strategische Planung ist die Wahl der Werte für jeden Faktor, genannt Faktorstufen.

    Die Anzahl der Ebenen kann zwei, drei oder mehr betragen. Wenn beispielsweise die Temperatur einer der Faktoren ist, können die Werte 80 °C, 100 °C, 120 °C betragen.

    Der Einfachheit halber und damit zur Reduzierung der Kosten des Experiments sollte die Anzahl der Ebenen geringer, aber ausreichend gewählt werden, um die Genauigkeit und Zuverlässigkeit des Experiments zu gewährleisten. Die Mindestanzahl an Ebenen beträgt zwei.

    Aus Gründen der Bequemlichkeit der Versuchsplanung empfiehlt es sich, für alle Faktoren die gleiche Anzahl an Stufen festzulegen. Diese Art der Planung nennt man symmetrisch.

    Die Analyse experimenteller Daten wird erheblich vereinfacht, wenn Sie Faktorstufen zuweisen, die gleichmäßig voneinander beabstandet sind. Dieser Plan heißt senkrecht. Die Orthogonalität des Plans wird normalerweise auf diese Weise erreicht: Die beiden Extrempunkte des Faktoränderungsbereichs werden als zwei Ebenen ausgewählt und die verbleibenden Ebenen werden so platziert, dass sie das resultierende Segment in zwei Teile teilen.

    Beispielsweise wird der Versorgungsspannungsbereich von 30...50 V wie folgt in fünf Stufen unterteilt: 30 V, 35 V, 40 V, 45 V, 50 V.

    Ein Experiment, bei dem alle Stufenkombinationen aller Faktoren realisiert werden, heißt Vollfaktorielles Experiment(PFE).

    Der PFE-Plan ist äußerst informativ, erfordert jedoch möglicherweise inakzeptable Ressourcen.

    Wenn wir die Computerimplementierung des Versuchsplans außer Acht lassen, ist die Anzahl der Messungen der Antworten (Reaktionen) des Modells während der PFE gleich:

    wo ist die Anzahl der Stufen des Faktors, ; - Anzahl experimenteller Faktoren.

    Das Senden Ihrer guten Arbeit an die Wissensdatenbank ist ganz einfach. Nutzen Sie das untenstehende Formular

    Studierende, Doktoranden und junge Wissenschaftler, die die Wissensbasis in ihrem Studium und ihrer Arbeit nutzen, werden Ihnen sehr dankbar sein.

    Prüfung

    Disziplin: Allgemeinpsychologischer Workshop

    1) Inhaltliche und formale Planung des ProjektsstehlenGeistesforschung

    Planung eines psychologischen Experiments

    Experimentplanung- eine der wichtigsten Phasen der Organisation psychologischer Forschung, in der der Forscher versucht, das optimalste Modell (d. h. Plan) des Experiments für die Umsetzung in die Praxis zu erstellen.

    Mit einem gut durchdachten Forschungsdesign und -plan können Sie optimale Werte für Validität, Zuverlässigkeit und Genauigkeit in der Studie erreichen und Nuancen berücksichtigen, die beim alltäglichen „spontanen Experimentieren“ schwer zu verfolgen sind. Um den Plan anzupassen, führen Experimentatoren häufig eine sogenannte Pilot- oder Teststudie durch, die als „Entwurf“ eines zukünftigen wissenschaftlichen Experiments betrachtet werden kann.

    Grundlegende Fragen, die durch ein experimentelles Design beantwortet werden

    Es wird ein experimentelles Design erstellt, um grundlegende Fragen zu beantworten zu:

    · die Anzahl der unabhängigen Variablen, die im Experiment verwendet werden (eine oder mehrere?);

    · die Anzahl der Stufen der unabhängigen Variablen (ändert sich die unabhängige Variable oder bleibt sie konstant?);

    Methoden zur Beherrschung zusätzlicher oder störender Variablen (welche sind notwendig und sinnvoll?):

    o direkte Kontrollmethode (direkter Ausschluss einer bekannten zusätzlichen Variable),

    o Nivellierungsmethode (berücksichtigen Sie eine bekannte zusätzliche Variable, wenn es unmöglich ist, sie auszuschließen),

    o Randomisierungsmethode (zufällige Auswahl der Gruppen bei unbekannter zusätzlicher Variable).

    Eine der wichtigsten Fragen, die ein experimenteller Entwurf beantworten muss, besteht darin, zu bestimmen, in welcher Reihenfolge die Änderungen der betrachteten Reize (unabhängige Variablen), die sich auf die abhängige Variable auswirken, auftreten sollen. Ein solcher Effekt kann von einem einfachen Schema „A 1 – A 2“, bei dem A 1 der erste Wert des Reizes und A 2 der zweite Wert des Reizes ist, bis hin zu komplexeren Schemata wie „A 1 – A“ variieren 2 -A 1 --A 2 " usw. Die Reihenfolge der Präsentation von Reizen ist ein sehr wichtiger Punkt, der direkt mit der Aufrechterhaltung der Gültigkeit der Studie zusammenhängt: Wenn einer Person beispielsweise ständig derselbe Reiz präsentiert wird, kann dies der Fall sein weniger anfällig dafür werden.

    Planungsphasen

    Die Planung umfasst zwei Phasen:

    o Bestimmung einer Reihe theoretischer und experimenteller Bestimmungen, die die theoretische Grundlage der Studie bilden.

    o Formulierung theoretischer und experimenteller Forschungshypothesen.

    o Auswahl der erforderlichen experimentellen Methode.

    o Lösung des Problems der Stichprobenauswahl:

    § Bestimmung der Zusammensetzung der Probe.

    § Bestimmung der Stichprobengröße.

    § Festlegung der Probenahmemethode.

    2. Formale Planung des Experiments:

    o Erlangung der Fähigkeit, Ergebnisse zu vergleichen.

    o Schaffung der Möglichkeit zur Diskussion der gewonnenen Daten.

    o Stellen Sie sicher, dass die Studie kosteneffizient durchgeführt wird.

    Das Hauptziel der formalen Planung besteht darin, möglichst viele Gründe für eine Verzerrung der Ergebnisse zu beseitigen.

    Arten von Plänen

    1. Einfache (Ein-Faktor-)Designs

    o Experimente unter reproduzierbaren Bedingungen

    o Experimente mit zwei unabhängigen Gruppen (Experiment und Kontrolle)

    2. Umfassende Pläne

    o Designs für mehrstufige Experimente

    o Faktorielle Designs

    3. Quasi-experimentelle Designs

    o Pläne nachträglich

    o Kleine N experimentelle Designs

    4. Korrelationsforschungspläne

    Einfache Pläne, oder Ein-Faktor, beinhaltet die Untersuchung des Einflusses nur einer unabhängigen Variablen auf die abhängige Variable. Der Vorteil solcher Designs liegt in ihrer Wirksamkeit bei der Ermittlung des Einflusses der unabhängigen Variablen sowie in der einfachen Analyse und Interpretation der Ergebnisse. Der Nachteil besteht darin, dass keine funktionale Beziehung zwischen den unabhängigen und abhängigen Variablen abgeleitet werden kann.

    Experimente mit reproduzierbaren Bedingungen

    Im Vergleich zu Experimenten mit zwei unabhängigen Gruppen erfordern solche Designs weniger Teilnehmer. Das Design impliziert nicht die Anwesenheit verschiedener Gruppen (z. B. Experimental- und Kontrollgruppen). Der Zweck solcher Experimente besteht darin, die Wirkung eines Faktors auf eine Variable festzustellen.

    Experimente mit zwei unabhängigen Gruppen– Experimental- und Kontrollexperimente – Experimente, bei denen nur die Experimentalgruppe der experimentellen Behandlung ausgesetzt wird, während die Kontrollgruppe weiterhin das tut, was sie normalerweise tut. Der Zweck solcher Experimente besteht darin, die Wirkung einer unabhängigen Variablen zu testen.

    Umfassende Pläne

    Umfassende Pläne sind für Experimente konzipiert, die entweder die Auswirkungen mehrerer unabhängiger Variablen (faktorielle Designs) oder die sequentiellen Auswirkungen verschiedener Ebenen einer einzelnen unabhängigen Variablen (mehrstufige Designs) untersuchen.

    Entwürfe für mehrstufige Experimente

    Wenn in Experimenten eine unabhängige Variable verwendet wird, gilt eine Situation, in der nur zwei ihrer Werte untersucht werden, eher als Ausnahme als als Regel. Die meisten univariaten Studien verwenden drei oder mehr Werte der unabhängigen Variablen Einfaktor-Mehrebenen. Solche Designs können sowohl zur Untersuchung nichtlinearer Effekte (d. h. Fälle, in denen die unabhängige Variable mehr als zwei Werte annimmt) als auch zum Testen alternativer Hypothesen verwendet werden. Der Vorteil solcher Pläne besteht in der Möglichkeit, die Art der funktionalen Beziehung zwischen den unabhängigen und abhängigen Variablen zu bestimmen. Der Nachteil besteht jedoch darin, dass es zeitaufwändig ist und mehr Teilnehmer erfordert.

    Faktorielle Designs

    Faktorielle Designs beinhalten die Verwendung von mehr als einer unabhängigen Variablen. Es kann eine beliebige Anzahl solcher Variablen oder Faktoren geben, in der Regel sind sie jedoch auf die Verwendung von zwei, drei oder, seltener, vier beschränkt.

    Faktorielle Designs werden mithilfe eines Nummerierungssystems beschrieben, das die Anzahl der unabhängigen Variablen und die Anzahl der Werte (Stufen) angibt, die jede Variable annimmt. Beispielsweise hat ein 2x3 („zwei mal drei“) faktorielles Design zwei unabhängige Variablen (Faktoren), von denen die erste zwei Werte („2“) und die zweite drei Werte („3“) annimmt. ; Der faktorielle 3x4x5-Plan verfügt über drei unabhängige Variablen, die jeweils die Werte „3“, „4“ und „5“ annehmen.

    Nehmen wir an, in einem Experiment, das mit einem 2x2-Fakultätsdesign durchgeführt wurde, kann ein Faktor A zwei Werte annehmen – A 1 und A 2, und ein anderer Faktor B kann die Werte B 1 und B 2 annehmen. Während des Experiments sollten nach dem 2x2-Plan vier Experimente durchgeführt werden:

    Die Reihenfolge der Experimente kann je nach Zweckmäßigkeit, die sich aus den Aufgaben und Bedingungen des jeweiligen Experiments ergibt, unterschiedlich sein.

    Quasi-experimentelle Designs- Versuchspläne, bei denen aufgrund der unvollständigen Kontrolle der Variablen keine Rückschlüsse auf das Vorliegen eines Ursache-Wirkungs-Zusammenhangs gezogen werden können. Das Konzept eines quasi-experimentellen Designs wurde von Campbell und Stanley in Experimental and quasi-experimental designs for Research (Cambell, D. T. & Stanley, J. C., 1966) eingeführt. Dies geschah, um einige der Probleme zu überwinden, mit denen Psychologen konfrontiert waren, die ihre Forschung in einem weniger restriktiven Umfeld als dem Labor durchführen wollten. Quasi-experimentelle Designs werden in der angewandten Psychologie häufig verwendet.

    Arten quasi-experimenteller Designs:

    1. Experimentelle Designs für nichtäquivalente Gruppen

    2. Pläne diskreter Zeitreihen.

    1. Experiment zum Design von Zeitreihen

    2. Plan einer Reihe von Zeitproben

    3. Plan der Reihe gleichwertiger Einwirkungen

    4. Design mit nicht äquivalenter Kontrollgruppe

    5. Ausgewogene Pläne.

    Ex-post-Facto-Pläne. Forschung, bei der Daten gesammelt und analysiert werden, nachdem das Ereignis bereits eingetreten ist, sogenannte Forschung nachträglich Viele Experten stufen sie als quasi-experimentell ein. Solche Forschungen werden häufig in der Soziologie, Pädagogik, klinischen Psychologie und Neuropsychologie durchgeführt. Die Essenz der Studie nachträglich besteht darin, dass der Experimentator selbst keinen Einfluss auf die Probanden hat: Der Einfluss ist ein reales Ereignis aus ihrem Leben.

    In der Neuropsychologie beispielsweise basierte die Forschung lange Zeit (und auch heute noch) auf das Lokalisierungismus-Paradigma, das im „Locus-Function“-Ansatz zum Ausdruck kommt und besagt, dass Läsionen bestimmter Strukturen es ermöglichen, die Lokalisierung mentaler Funktionen zu identifizieren – das spezifische materielle Substrat, in dem sie sich im Gehirn „befinden“ [siehe. A. R. Luria, „Gehirnläsionen und zerebrale Lokalisierung höherer Funktionen“]; Solche Studien können als Studien klassifiziert werden nachträglich.

    Bei der Planung einer Studie nachträglich simuliert ein strenges experimentelles Design mit Ausgleich oder Randomisierung von Gruppen und Tests nach der Exposition.

    Kleine N-Pläne auch „Einzelsubjektdesigns“ genannt, da das Verhalten jedes Subjekts einzeln untersucht wird. Als einer der Hauptgründe für die Verwendung kleiner N-Experimente wird die teilweise Unmöglichkeit angesehen, Ergebnisse aus Verallgemeinerungen auf große Personengruppen auf einen einzelnen Teilnehmer individuell anzuwenden (was zu einer Verletzung der individuellen Validität führt).

    Der Psychologe B. F. Skinner gilt als der berühmteste Verfechter dieser Forschungsrichtung: Seiner Meinung nach sollte der Forscher „eine Ratte tausend Stunden lang studieren,<…>und nicht tausend Ratten für jeweils eine Stunde oder hundert Ratten für jeweils zehn Stunden.“ Ebbinghaus‘ introspektive Studien können auch als Small-N-Experimente klassifiziert werden (nur das Thema, das er untersuchte, war er selbst).

    Ein Einzelfachplan muss mindestens drei Bedingungen erfüllen:

    1. Das Zielverhalten muss im Hinblick auf leicht erfassbare Ereignisse genau definiert werden.

    2. Es muss ein Basisniveau der Reaktion festgelegt werden.

    3. Es ist notwendig, das Subjekt zu beeinflussen und sein Verhalten aufzuzeichnen.

    Korrelationsstudie– Forschung, die durchgeführt wird, um eine Hypothese über eine statistische Beziehung (Korrelation) zwischen mehreren (zwei oder mehr) Variablen zu bestätigen oder zu widerlegen. Das Design einer solchen Studie unterscheidet sich von einer quasi-experimentellen Studie dadurch, dass es an einer kontrollierten Einflussnahme auf den Untersuchungsgegenstand mangelt.

    In einer Korrelationsstudie vermutet der Wissenschaftler die Existenz eines statistischen Zusammenhangs zwischen mehreren mentalen Eigenschaften eines Individuums oder zwischen bestimmten äußeren Ebenen und mentalen Zuständen, während Annahmen über kausale Abhängigkeiten nicht diskutiert werden. Die Probanden müssen sich in einem gleichwertigen, unveränderten Zustand befinden. Allgemein lässt sich das Design einer solchen Studie als PxO („Probanden“ x „Messungen“) beschreiben.

    Arten von Korrelationsstudien

    Vergleich zweier Gruppen

    · Eindimensionale Studie

    · Korrelationsstudie paarweise äquivalenter Gruppen

    · Multivariate Korrelationsstudie

    · Strukturelle Korrelationsforschung

    ·Längskorrelationsstudie*

    * Längsschnittforschung gilt als Zwischenoption zwischen Quasi-Experiment und Korrelationsforschung.

    Experiment (Psychologie)

    Psychologisches Experiment– ein unter besonderen Bedingungen durchgeführtes Experiment, um durch gezieltes Eingreifen eines Forschers in die Lebensaktivität des Probanden neue wissenschaftliche Erkenntnisse zu gewinnen.

    Der Begriff „psychologisches Experiment“ wird von verschiedenen Autoren oft mehrdeutig interpretiert; ein Experiment wird in der Psychologie oft als ein Komplex verschiedener unabhängiger empirischer Methoden betrachtet ( das Experiment selbst, Beobachtung, Befragung, Prüfung). Traditionell wird das Experiment in der experimentellen Psychologie jedoch als eigenständige Methode betrachtet.

    Hauptphasen des Experiments

    1. Stufe – Vorbereitung:

    1.1 Bestimmen Sie das Forschungsthema

    Vorläufige Bekanntschaft mit dem Studiengegenstand

    Bestimmen Sie den Zweck und die Aufgaben der Studie

    Objekt angeben

    Forschungsmethoden und -techniken identifizieren und auswählen.

    2. Phase – Phase der Erhebung von Forschungsdaten:

    2.1 Durchführung einer Pilotstudie.

    2.2 Direkte Interaktion mit dem Forschungsobjekt

    3. Stufe – Finale:

    3.1 Verarbeitung empfangener Daten

    3.2 Analyse der erhaltenen Daten

    3.3 Hypothesentest

    4. Stufe – Interpretation:

    4.1 Schlussfolgerungen.

    2 )

    Umfragen sind eine unverzichtbare Methode, um Informationen über die subjektive Welt der Menschen, ihre Neigungen, Motive und Meinungen zu erhalten.

    Eine Umfrage ist eine nahezu universelle Methode. Wenn geeignete Vorsichtsmaßnahmen getroffen werden, ist es möglich, Informationen zu erhalten, die nicht weniger zuverlässig sind als durch die Prüfung oder Beobachtung von Dokumenten. Darüber hinaus kann es sich bei diesen Informationen um alles mögliche handeln. Auch über Dinge, die man weder sehen noch lesen kann.

    Offizielle Vermessungen gab es erstmals Ende des 18. Jahrhunderts in England und Anfang des 19. Jahrhunderts in den USA. In Frankreich und Deutschland wurden die ersten Erhebungen 1848 und in Belgien zwischen 1868 und 1869 durchgeführt. Und dann begannen sie sich aktiv zu verbreiten.

    Die Kunst bei dieser Methode besteht darin, zu wissen, was man fragt, wie man fragt, welche Fragen man stellt und schließlich, wie man sicherstellt, dass die Antworten, die man erhält, vertrauenswürdig sind.

    Für den Forscher ist es zunächst notwendig zu verstehen, dass nicht der „durchschnittliche Befragte“ an der Umfrage teilnimmt, sondern eine lebende, reale Person mit Bewusstsein und Selbstbewusstsein, die den Soziologen in derselben beeinflusst Art und Weise, wie der Soziologe ihn beeinflusst.

    Die Befragten sind keine unparteiischen Aufzeichner ihres Wissens und ihrer Meinung, sondern lebende Menschen, denen Vorlieben, Vorlieben, Ängste usw. nicht fremd sind. Wenn sie daher Fragen wahrnehmen, können sie einige davon aufgrund mangelnden Wissens nicht beantworten und andere möchten sie nicht beantworten oder antworten unaufrichtig.

    Arten von Umfragen

    Es gibt zwei große Klassen von Erhebungsmethoden: Interviews und Fragebögen.

    Ein Interview ist ein nach einem bestimmten Plan geführtes Gespräch, das einen direkten Kontakt zwischen dem Interviewer und dem Befragten (Interviewpartner) beinhaltet und dessen Antworten entweder vom Interviewer (seinem Assistenten) oder mechanisch (auf Tonband) aufgezeichnet werden.

    Es gibt viele Arten von Vorstellungsgesprächen.

    2) Je nach Durchführungstechnik werden sie in freie, nicht standardisierte und formalisierte (sowie halbstandardisierte) Interviews unterteilt.

    Kostenlos - ein langes Gespräch (mehrere Stunden) ohne genaue Detaillierung der Fragen, sondern nach einem allgemeinen Programm („Interview-Leitfaden“). Solche Interviews eignen sich für die explorative Phase eines formativen Forschungsdesigns.

    Standardisierte Interviews erfordern ebenso wie formalisierte Beobachtungen eine detaillierte Ausarbeitung des gesamten Verfahrens, einschließlich des allgemeinen Gesprächsplans, der Reihenfolge und Gestaltung der Fragen sowie der Optionen für mögliche Antworten.

    3) Abhängig von den Besonderheiten des Verfahrens kann das Interview intensiv („klinisch“, d. h. tiefgreifend, manchmal stundenlang) sein und sich auf die Identifizierung eines relativ engen Reaktionsspektrums des Befragten konzentrieren. Der Zweck eines klinischen Interviews besteht darin, Informationen über die inneren Motive, Motivationen und Neigungen des Befragten zu erhalten, und ein fokussiertes Interview besteht darin, Informationen über die Reaktionen des Probanden auf einen bestimmten Einfluss zu gewinnen. Mit ihrer Hilfe untersuchen sie beispielsweise, wie stark eine Person auf einzelne Informationsbestandteile (aus der Massenpresse, Vorträgen etc.) reagiert. Darüber hinaus wird der Informationstext durch eine Inhaltsanalyse vorverarbeitet. In einem fokussierten Interview versuchen sie herauszufinden, welche semantischen Einheiten der Textanalyse im Mittelpunkt der Aufmerksamkeit der Befragten stehen, welche am Rande liegen und welche überhaupt nicht im Gedächtnis bleiben.

    4) Die sogenannten ungerichteten Interviews haben „therapeutischen“ Charakter. Die Initiative für den Gesprächsverlauf liegt beim Befragten selbst; der Interviewer hilft ihm lediglich, „seine Seele auszuschütten“.

    5) Je nach Organisationsmethode der Interviews werden sie in Gruppen- und Einzelinterviews unterteilt. Die ersten werden relativ selten verwendet; dabei handelt es sich um ein geplantes Gespräch, bei dem der Forscher versucht, eine Diskussion in der Gruppe anzuregen. Die Methodik zur Durchführung von Leserkonferenzen ähnelt diesem Vorgehen. Telefoninterviews werden genutzt, um Meinungen schnell einzuholen.

    Fragebogen

    Diese Methode beinhaltet eine streng festgelegte Reihenfolge, Inhalt und Form der Fragen, eine klare Angabe der Antwortmethoden und die Registrierung durch den Befragten entweder allein (Korrespondenzbefragung) oder in Anwesenheit des Fragebogens (Direktbefragung).

    Fragebogenbefragungen werden in erster Linie nach Inhalt und Gestaltung der gestellten Fragen klassifiziert. Bei offenen Umfragen äußern sich die Befragten in freier Form. Bei einem geschlossenen Fragebogen sind vorab alle Antwortmöglichkeiten vorgesehen. Halbgeschlossene Fragebögen kombinieren beide Verfahren. Eine Sondierungs- oder Expressumfrage wird in Meinungsumfragen verwendet und enthält nur drei bis vier Punkte grundlegender Informationen sowie mehrere Punkte im Zusammenhang mit den demografischen und sozialen Merkmalen der Befragten. Solche Fragebögen ähneln Blättern nationaler Volksabstimmungen. Eine Befragung per Post unterscheidet sich von einer Vor-Ort-Befragung: Im ersten Fall wird erwartet, dass der Fragebogen frankiert zurückgesendet wird, im zweiten Fall wird der Fragebogen vom Fragebogen selbst abgeholt.

    Gruppenbefragungen unterscheiden sich von Einzelbefragungen. Im ersten Fall werden bis zu 30-40 Personen gleichzeitig befragt: Der Vermesser versammelt die Befragten, weist sie an und überlässt ihnen das Ausfüllen der Fragebögen, im zweiten Fall spricht er jeden Befragten einzeln an.

    Die Organisation einer „Verteilungs“-Befragung, einschließlich Befragungen am Wohnort, ist naturgemäß arbeitsintensiver als beispielsweise Befragungen durch die Presse, die auch in unserer und ausländischen Praxis weit verbreitet sind. Letztere sind jedoch für viele Bevölkerungsgruppen nicht repräsentativ und lassen sich daher eher auf Methoden zur Untersuchung der öffentlichen Meinung der Leser dieser Publikationen zurückführen.

    Schließlich greifen sie bei der Klassifizierung von Fragebögen auch auf zahlreiche Kriterien rund um das Thema Umfragen zurück: Veranstaltungsfragebögen, Fragebögen zur Klärung von Wertorientierungen, statistische Fragebögen (bei Volkszählungen), Zeitpunkte der täglichen Zeitbudgets etc.

    Bei der Durchführung von Umfragen dürfen wir nicht vergessen, dass mit ihrer Hilfe subjektive Meinungen und Einschätzungen offengelegt werden, die Schwankungen, dem Einfluss von Umfragebedingungen und anderen Umständen unterliegen.

    Um die mit diesen Faktoren verbundene Datenverzerrung zu minimieren, sollten innerhalb eines kurzen Zeitrahmens verschiedene Erhebungsmethoden durchgeführt werden. Sie können die Umfrage nicht über einen längeren Zeitraum verlängern, da sich bis zum Ende der Umfrage die äußeren Umstände ändern können und Informationen über ihr Verhalten von den Befragten mit etwaigen Kommentaren aneinander weitergegeben werden und diese Urteile die Art der Antworten beeinflussen derjenigen, die später Teil der Befragten werden.

    Unabhängig davon, ob wir ein Interview oder einen Fragebogen verwenden, sind die meisten Probleme, die mit der Zuverlässigkeit von Informationen verbunden sind, ihnen gemeinsam.

    Damit eine Fragebogenbefragung effektiver ist, ist es notwendig, eine Reihe von Regeln zu beachten, die helfen, den Verlauf der Befragung richtig festzulegen und die Fehlerquote während der Studie zu reduzieren.

    Die an die Befragten gerichteten Fragen sind nicht isoliert – sie sind Glieder einer Kette, und wie Glieder ist jedes von ihnen mit dem vorherigen und dem nachfolgenden verbunden (L.S. Vygodsky nannte diese Beziehung „den Einfluss von Bedeutungen“). Ein Fragebogen ist keine mechanische Abfolge von Fragen, die beliebig oder für den Forscher bequem darin platziert werden können, sondern ein besonderes Ganzes. Es verfügt über eigene Eigenschaften, die nicht auf eine einfache Summe der Eigenschaften der einzelnen Themen, aus denen es besteht, reduziert werden können.

    Ganz am Anfang werden einfache Fragen gestellt, und zwar nicht nach der im Programm enthaltenen Logik des Forschers, um den Befragten nicht gleich mit ernsten Fragen zu bombardieren, sondern ihm zu ermöglichen, sich mit dem Fragebogen vertraut zu machen und nach und nach von einfachen Fragen überzugehen komplexer (Trichterregel).

    Strahlungseffekt – wenn alle Fragen logisch miteinander verbunden sind und das Thema logisch eingrenzen, hat der Befragte eine bestimmte Einstellung, nach der er sie beantworten wird – dieser Einfluss der Frage wird Strahlungseffekt oder Echoeffekt genannt und manifestiert sich in der Tatsache dass die vorherige Frage oder die vorherigen Fragen den Gedankengang der Befragten in eine bestimmte Richtung lenken, ein Mini-Koordinatensystem schaffen, in dessen Rahmen eine ganz bestimmte Antwort gebildet oder ausgewählt wird.

    Manchmal treten Probleme im Zusammenhang mit der Reihenfolge der Fragen auf. Diskrepanzen bei den Antworten auf dieselbe Frage sollten nicht auf ihre unterschiedliche Reihenfolge zurückzuführen sein.

    Wenn also beispielsweise einem Geringverdiener die Frage gestellt wird: „Beabsichtigen Sie, dieses Unternehmen in naher Zukunft zu verlassen?“ Nach einer Gehaltsfrage steigt die Wahrscheinlichkeit, eine positive Antwort zu erhalten. Und wenn die gleiche Frage gestellt wird, nachdem man beispielsweise die Aussichten für eine Gehaltserhöhung ermittelt hat, steigt die Wahrscheinlichkeit, eine negative Antwort zu erhalten.

    Bei der Zusammenstellung des Fragebogens wird berücksichtigt, dass Antworten auf verschiedene Fragen zusammenhängen. Zu diesem Zweck werden beispielsweise Pufferfragen eingeführt.

    Wir können vorerst nur davon ausgehen, dass mit Hilfe eines Fragebogens eine stärkere Isolation der Antworten auf jede Frage erreicht wird als mit der direkten Kommunikation mit dem Interviewer. Der Interviewpartner muss sich keine Sorgen um sein Image in den Augen seines Kommunikationspartners machen (selbstverständlich unter der Bedingung der Anonymität), wie bei einem Interview. Daher ist hier offenbar die Art der Konjugation der Antworten weniger ausgeprägt. Dies ist jedoch nicht bewiesen.

    Allgemeine und spezifische Fragen. Der Fragebogen beginnt mit den spezifischsten Fragen und konkretisiert diese nach und nach (Trichterregel). Dadurch kann der Befragte schrittweise in die Situation eingeführt werden. Aber eine allgemeine Lösung setzt nicht immer eine spezifische voraus, während letztere das Allgemeine stark beeinflusst (Menschen sind eher bereit, Einzelheiten zu verallgemeinern, als sich auf Deduktionen einzulassen).

    Beispiel: Allgemeine Selbsteinschätzungsfragen zum Interesse an Politik und Religion, die vor und nach spezifischen Fragen zum politischen und religiösen Verhalten der Befragten gestellt wurden, erhielten ungleich viele „Stimmen“. Im zweiten Fall bekundeten die Befragten deutlich häufiger ihr Interesse. Gleichzeitig zeigte sich, dass die allgemeinen Einschätzungen der Wirtschafts- und Energiesituation nur sehr geringfügig beeinflusst wurden, indem konkrete Fragen zu Einkommen und Energiequellen der Befragten davor und danach gestellt wurden. Dies gibt Anlass zu der Annahme, dass allgemeine und spezifische Themen sich gegenseitig auf mehrdeutige Weise beeinflussen. Die Verteilung der Antworten auf allgemeine Fragen hängt stärker von der vorherigen Formulierung einer spezifischen Frage zum gleichen Thema ab als umgekehrt. Darüber hinaus ist diese Abhängigkeit auch auf den Inhalt des diskutierten Phänomens zurückzuführen.

    Anwenden von Filterfragen

    Der Zweck von Filtern besteht darin, die Antworten auf nachfolgende Fragen zu beeinflussen. Anhand dieser Fragen lässt sich eine Gruppe von Menschen identifizieren, deren Antworten nicht nur auf allgemeinen Vorstellungen, sondern auch auf persönlichen Erfahrungen beruhen:

    „Besuchet Ihr Kind eine Kindermusikschule?

    Wenn ja, wer begleitet ihn normalerweise dorthin?

    Welcher der Eltern

    Großmutter, Großvater usw.“

    Diese Fragen sparen Zeit für diejenigen, an die sich die Frage nach dem Filter nicht richtet.

    Die Verwendung von Filtern führt dazu, dass Antworten fehlen.

    Diese Auslassungen werden nicht nur dadurch verursacht, dass einige der Befragten bewusst auf Fragen übergehen, die sie beantworten können, und dabei diejenigen ignorieren, die nicht mit ihnen in Zusammenhang stehen, sondern auch durch einige andere Faktoren. Es stellte sich beispielsweise heraus, dass mithilfe einer Reihe von Filterfragen („Wenn Sie eine höhere Ausbildung haben, dann...?“; „Wenn Sie eine höhere Ausbildung in den Geisteswissenschaften haben, dann...?“; „Wenn Sie Sie haben also eine höhere geisteswissenschaftliche Ausbildung und haben ein Praktikum an der High School gemacht? Manchmal führt dies dazu, dass so viele Antworten fehlen, dass die gesamte Studie gefährdet ist.

    Frage mit Präambel

    Eine Sachverhaltsfrage kann, wie jede andere auch, als bewertendes Merkmal des Befragten wahrgenommen werden, daher empfiehlt es sich in manchen Fällen, sie in einer Form zu stellen, die ihren bewertenden Charakter etwas abschwächt. Zum Beispiel: „Manche Leute putzen ihre Wohnung jeden Tag, andere tun es gelegentlich.“ Was machst du am häufigsten?“

    Tischfragen

    Die Tabellenfragen sind sehr forscherfreundlich. Dies sind schwierige Fragen, bei denen der Befragte eine Reihe von Anstrengungen unternehmen muss, um sie zu beantworten.

    Bei solchen Fragen geht es um Dinge, die nur mit dem Wissen und der Intelligenz der Befragten beantwortet werden können. Nach solchen Fragen empfiehlt es sich, sich einfacheren zuzuwenden.

    Solche Fragen sollten nicht oft wiederholt werden, denn... Die Befragten verspüren Müdigkeit, Aufmerksamkeitsverlust und es kommt zu einer Strahlungswirkung.

    In einer Studie wurde den Befragten beispielsweise eine Liste mit denselben Themen angeboten. Im ersten Fall war es notwendig, ihre Wirksamkeit zu bewerten, im zweiten die Effizienz und im dritten die Vollständigkeit der Problemabdeckung. Die Darstellung dieser Liste im zweiten, und noch mehr im dritten, erweckte bei den Befragten das Gefühl, dass nicht nur die Liste, sondern auch die Bewertungskriterien wiederholt wurden. Viele Umfrageteilnehmer sagten beim Blick auf die dritte Tabelle: „Ich habe Ihnen bereits geantwortet“, „Das ist bereits passiert“ usw., übersprangen die Frage und ließen sie unbeantwortet.

    Die Monotonie beim Ausfüllen von Tabellen führt zu einem erhöhten Risiko, maschinelle Vervollständigungen und unüberlegte Antworten zu erhalten.

    Sobald der Befragte für eine Antwort die Bewertung „3“ gewählt hat, kann er diese unabhängig von der tatsächlichen Bewertung und sogar unabhängig vom Inhalt der Frage in der gesamten Tabelle eintragen.

    Problem MoNotation

    Auch der Einfluss einheitlicher Fragen auf die Antworten der Befragten hängt maßgeblich mit der Strahlungswirkung zusammen. Wie bei Tabellen und vielen anderen erweist sich der Fragebogen als eintönig, insbesondere wenn den Befragten mehrere Fragen gestellt werden, die nach demselben syntaktischen Schema formuliert sind. Dies führt zu einem Anstieg des Anteils schlecht durchdachter Antworten oder deren Auslassung. Um die Monotonie zu überwinden, empfehlen sich folgende Techniken:

    Tabellen und Fragen sowie Daten in derselben syntaktischen Form mit anderen Fragen „verdünnen“; Variieren Sie die Kategorien für die Antwort (im ersten Fall bitten Sie den Befragten, seine Zustimmung oder Ablehnung auszudrücken, im zweiten Fall - um zu bewerten, im dritten - um zu entscheiden, ob diese oder jene Aussage wahr oder falsch ist, und im vierten Fall, um das zu formulieren unabhängig antworten usw.); eine Vielzahl funktionaler psychologischer Fragen umfassender nutzen, die „die gegenseitige Beeinflussung der Antworten dämpfen“; das Design des Fragebogens abwechslungsreicher gestalten.

    Funktionell-psychologische FragenTau

    Um Interesse am Fragebogen zu wecken und aufrechtzuerhalten, Spannungen abzubauen und den Befragten von einem Thema zum anderen zu bewegen, verwendet der Fragebogen spezielle Fragen, die als funktionspsychologisch bezeichnet werden.

    Diese Fragen dienen weniger der Informationsbeschaffung als vielmehr der Erleichterung einer Kommunikationsbeziehung zwischen dem Forscher und den Befragten.

    Diese Fragen dienen nicht nur als Anreiz zur Beantwortung, sie enthalten auch vielfältige Informationen: Erklärungen und Begründungen der an die Befragten gerichteten Aussagen des Soziologen, einige Kommentare, die als Zeichen einer symmetrischeren Kommunikation und eines gleichberechtigteren Informationsaustauschs wahrgenommen werden.

    Zu den funktionspsychologischen Fragen zählen Kontaktfragen und Pufferfragen.

    Kontaktfragen

    Jede Kommunikation beginnt mit der Anpassungsphase. In dieser Phase geht es darum, die Kommunikation mit den Befragten wahrzunehmen, sich mit dem Zweck der Studie vertraut zu machen und Anweisungen zum Ausfüllen des Fragebogens zu geben.

    Die erste Frage des Fragebogens entpuppt sich als Kontaktfrage. Aufgrund der Verknüpfung aller Fragen des Fragebogens ist zu erwarten, dass eine Person, wenn sie die erste Frage beantwortet, alle anderen beantworten kann.

    Eine Reihe von AnforderungenKommentare zur ersten Frage des Fragebogens

    1) Die Kontaktfrage sollte sehr einfach sein. Hier werden häufig Fragen rein Eventual-Charakters herangezogen – zum Beispiel Berufserfahrung, Wohnort, Gewohnheiten, Interesse an Problemen.

    2) Die Kontaktfrage sollte sehr allgemein gehalten sein, d.h. gelten für alle Befragten. Daher ist es nicht ratsam, den Fragebogen mit einem Filter zu starten.

    3) Es wird empfohlen, die Kontaktfrage so weit zu formulieren, dass jeder Befragte sie beantworten kann. Durch die Beantwortung beginnt eine Person an ihre Kompetenz zu glauben und sich sicher zu fühlen. Er hat den Wunsch, seine Gedanken weiterzuentwickeln und sich vollständiger auszudrücken. Daher ist es besser, den Fragebogen mit dem zu beginnen, was von allen akzeptiert wird und was am verständlichsten ist.

    Es ist nicht notwendig, dass Kontaktfragen die von Ihnen gesuchten Informationen enthalten. Ihre Hauptfunktion besteht darin, die Interaktion zu erleichtern. Bei der Beantwortung von Kontaktfragen handelt es sich nicht zwangsläufig um eine wissenschaftliche Analyse im Zusammenhang mit inhaltlichen Fragestellungen. Andererseits sind diese Antworten aus methodischer Sicht von großer Bedeutung: Abhängig von ihrem Inhalt lässt sich die Einstellung der Befragten zur Umfrage, deren Auswirkungen auf ihre Integrität, Aufrichtigkeit usw. ermitteln.

    Pufferfragen

    Sehr selten ist ein Fragebogen einem einzelnen Thema gewidmet. Aber auch innerhalb desselben Themas werden unterschiedliche Aspekte diskutiert. Abrupte und unerwartete Übergänge von einem Thema zum anderen können bei den Befragten einen ungünstigen Eindruck hinterlassen.

    Pufferfragen sollen die Interferenz von Fragen im Fragebogen abschwächen. Erstens spielen sie, wie bereits gesagt, eine Art „Brücke“ beim Übergang von Thema zu Thema. Nach der Diskussion einer Reihe von Produktionsproblemen wird beispielsweise die folgende Formulierung gegeben:

    „Freizeit ist nicht nur die Zeit, die wir brauchen, um die bei der Arbeit verbrauchte Energie wiederherzustellen. Dies ist zunächst einmal eine Chance zur umfassenden persönlichen Weiterentwicklung. Daher bitten wir Sie, einige Fragen zu Aktivitäten außerhalb der Arbeit zu beantworten.“

    Mithilfe einer Pufferfrage (die Funktion ist hier nicht die Frage selbst, sondern deren Einleitung) erklärt der Forscher den Befragten seinen Gedankengang.

    Mithilfe solcher „Puffer“ lädt der Forscher die Befragten nicht nur dazu ein, ihre Aufmerksamkeit auf ein anderes Thema zu lenken, sondern erklärt auch, warum dies notwendig ist. Beispielsweise wird nach einer Frage zum Thema Freizeit folgende Formulierung gegeben: „Ein Mensch verbringt die meiste Zeit seines Lebens bei der Arbeit.“ Sorgen und Freuden, Erfolge und Misserfolge im Beruf sind uns nicht gleichgültig. Kein Wunder also, dass wir mit Ihnen über die Arbeit sprechen möchten.“

    Zweitens sollen Pufferfragen die Wirkung von Strahlung neutralisieren. Als Pufferfragen können dabei alle inhaltlichen Fragen fungieren, die keinen unmittelbaren Bezug zum behandelten Thema haben, bei Fragen, deren gegenseitige Beeinflussung der Soziologe annimmt.

    Zum Abschluss der Diskussion über die Bedeutung funktionspsychologischer Fragen bei der Gestaltung des Fragebogens stellen wir fest: Wie bei allen anderen Fragen kann es sein, dass ihre Formulierung den Befragten nicht gleichgültig ist und daher den Inhalt und die Verfügbarkeit ihrer Antworten beeinflusst. Das Wissen eines Soziologen darüber, dass ein bestimmtes Problem funktional-psychologischer Natur ist, stellt nicht sicher, dass es seine erwartete Rolle erfüllt. Damit die Annahmen des Soziologen gerechtfertigt sind, ist es notwendig, in diesem Bereich spezielle methodische Experimente durchzuführen.

    Fragebogeneinstellung

    Das Setting zur Durchführung einer Fragebogenbefragung spielt eine sehr wichtige Rolle. Zunächst muss den Befragten klar gemacht werden, dass alle ihre Antworten völlig anonym sind. Dadurch erhalten Sie zuverlässigere Informationen in Ihren Antworten. Auch die Anwesenheit von Fremden wirkt sich auf die Befragten aus. Um eine angenehmere Atmosphäre während der Umfrage zu schaffen, ist es notwendig, Maßnahmen für die Anwesenheit von Personen zu ergreifen, die in direktem Zusammenhang mit dem Fragebogen stehen (Forscher, Befragte). Auch der Ort der Befragung spielt eine Rolle. Es sollte dem Befragten bekannt sein. Es ist wichtig, dass er sich an einem solchen Ort frei fühlt. Der Raum sollte nicht zu formell (Büro des Managers) oder zu informell (Umkleideraum) sein. Viel hängt davon ab, worum es bei den Fragen geht.

    Wenn im Fragebogen Fragen zum Unternehmen gestellt werden, in dem die Umfrage durchgeführt wird, werden die Antworten höchstwahrscheinlich unaufrichtig sein. Es ist notwendig, auf den Zeitpunkt der Befragung zu achten. Es sollte nicht zu lange dauern, um die Befragten nicht zu ermüden (sie haben Wichtigeres zu tun).

    Referenzenliste

    1) Inhaltliche und formale PlanungExperteGeistesforschung

    1. ^ Experimentelle Psychologie: Lehrbuch. - M.: Prospekt, 2005. S. 80–81.

    2. ^ Siehe auch dort.

    3. ^ Siehe auch dort. S. 82–83.

    4. ^ Forschung in der Psychologie: Methoden und Planung / J. Goodwin. - St. Petersburg: Peter, 2004. S. 248.

    5. ^ Zarochentsev K. D., Khudyakov A. I. Experimentelle Psychologie. S. 82–83.

    6. ^ Forschung in der Psychologie: Methoden und Planung / J. Goodwin. S. 258–261.

    7. ^ Siehe auch dort. S. 275.

    8. ^ Siehe auch dort.

    9. ^ Siehe auch dort. S. 353.

    10. ^ Solso R.L., Johnson H.H., Beal M.C. Experimentelle Psychologie: ein praktischer Kurs. SPb.: Prime-EVROZNAK, 2001. S. 103.

    11. ^ Siehe auch dort.

    12. ^ Druzhinin V. N. Experimentelle Psychologie. St. Petersburg: Peter, 2002. S. 138.

    13. ^ Forschung in der Psychologie: Methoden und Planung / J. Goodwin. S. 388–392.

    14. ^ Siehe auch dort.

    15. ^ Druzhinin V. N. Experimentelle Psychologie. S. 140.

    16. ^ Siehe auch dort.

    17. ^ Siehe auch dort. S. 142

    18. Forschung in der Psychologie: Methode und Planung / J. Goodwin. – 3. Aufl. - St. Petersburg: Peter, 2004.

    19. Solso R. L., Johnson H. H., Beal M. K. Experimentelle Psychologie: ein praktischer Kurs. SPb.: Prime-EVROZNAK, 2001.

    20. Robert Gottsdanker „Grundlagen des psychologischen Experiments“: Moskauer Universitätsverlag 1982

    2) Allgemeine Merkmale von Erhebungsmethoden

    1. Butenko I.A. „Fragebogenumfrage als Kommunikationsmethode zwischen einem Soziologen und einem Befragten“, Moskau, 1989.

    2. Noel E. „Massenumfragen. Einführung in die Methodik der Demoskopie“, M., 1987.

    Ähnliche Dokumente

      Klassifikation psychologischer Methoden. Die wichtigsten Methoden sind Beobachtung und Befragung, Labor und natürliche (industrielle). Beobachtungsarten, Vor- und Nachteile der Methode. Formen von Erhebungsmethoden. Merkmale der Testforschung, Haupttestarten.

      Test, hinzugefügt am 22.02.2011

      Gültigkeit und Verwendung mentaler Proben in Experimenten. Konstruieren Sie Gültigkeit und konzeptionelle Replikationen. Gültigkeit des Experiments und Schlussfolgerungen. Inhaltsplanung und Auswahl des Experimenttyps. Validität als Ziel experimenteller Kontrolle.

      Zusammenfassung, hinzugefügt am 08.08.2010

      Das Konzept und die allgemeine Logik psychologischer Forschung, Konzeptentwicklung und Planung. Bestimmung von Variablen, Merkmalen, Parametern des untersuchten Phänomens, Auswahl von Methoden und Techniken, Bestimmung der Stichprobengröße. Interpretation und Synthese der Ergebnisse.

      Test, hinzugefügt am 02.07.2011

      Das Konzept und die Arten des Experiments, seine Organisation. Ethische Probleme bei der Umsetzung. Verwendung des Tests zur objektiven Beurteilung individueller psychologischer Unterschiede. Die Essenz menschlicher Forschung im sozialen Kontext durch qualitative Methoden.

      Zusammenfassung, hinzugefügt am 16.02.2011

      Betrachtung des psychologischen Forschungsalgorithmus: Problemstellung, Hypothesenentwicklung, Planung, Methodenwahl (Beobachtung, Experiment, Modellierung), Datenerhebung und -verarbeitung, Interpretation der Ergebnisse und deren Einbindung in das Wissenssystem.

      Test, hinzugefügt am 20.05.2010

      Gruppen psychologischer Forschungsmethoden, ihre Klassifizierung. Das Wesen und die Hauptaufgaben des Fragens, Beobachtens, Gesprächs. Merkmale der Durchführung von Natur-, Labor- und Modellexperimenten. Analyse psychologischer Forschungsmethoden.

      Kursarbeit, hinzugefügt am 05.03.2012

      Grundlegende Methoden der psychologischen Forschung und ihre Varianten zur Erhebung von Primärdaten. Spezialisierte Methoden der psychodiagnostischen Untersuchung. Zwei Haupttypen von Experimenten.

      Bericht, hinzugefügt am 14.06.2007

      Auswahl von Methoden spiritueller, ideeller (wissenschaftlicher) und Methode materieller (praktischer) menschlicher Aktivität. Geschichte der Entwicklung der Abfolge psychologischer Studien und ihrer Klassifizierung. Besonderheiten der Beobachtung, des Experiments und der Modellierung.

      Zusammenfassung, hinzugefügt am 18.11.2010

      Das Wesen und die Phasen der Umsetzung der psychologischen Forschung, ihre Struktur und Hauptkomponenten. Einordnung psychologischer Forschungsmethoden, ihre Besonderheiten und Umsetzungsbedingungen. Arten und Merkmale psychologischer Experimente.

      Kursarbeit, hinzugefügt am 30.11.2009

      Merkmale der klinischen Psychologie als Wissenschaft. Anwendung beobachtender und experimenteller Methoden zur Gewinnung psychologischer Fakten. Die wichtigsten Arten psychologischer Experimente: natürliche und Laborexperimente. Das Rosenhan-Experiment, seine Essenz.