Forschung
Die Forschung unserer Arbeitsgruppe zielt auf Antwortprozesse bei Selbsteinschätzungen und Leistungsmessungen in der psychologischen Diagnostik sowie auf kognitive Prozesse im menschlichen Gedächtnis und bei Urteilen und Entscheidungen im Bereich der experimentellen Psychologie. Der gemeinsame Fokus unserer Forschungsprojekte ist die statistische Modellierung psychologischer Prozesse mit psychometrischen, diskret-stochastischen und multivariaten Methoden.
Forschungsprojekte
Analyse multipler Antwortprozesse in Rating-Daten
Selbsteinschätzungen in Fragebogen mit einem abgestuften Rating-Antwortformat werden verbreitet zur Erfassung individueller Unterschiede eingesetzt, etwa in der Persönlichkeitsdiagnostik, in der sozialen Kognitions- und Einstellungsforschung und im klinischen Bereich. Es ist jedoch bekannt, dass beobachteten Rating-Antworten multiple Antwortprozesse zugrunde liegen, die neben den zu erfassenden Merkmalen auch generelle Antwortstile, soziale Erwünschtheit und Interaktionen zwischen Itemformulierungen und Personcharakteristika umfassen. Zur Trennung der angezielten Personmerkmale von potentiell verzerrenden weiteren Antwortprozessen können latente Variablenmodelle der Item Response-Theorie oder der Strukturgleichungsmodelle genutzt werden. In unserer Forschung entwickeln wir diese psychometrischen Modelle weiter, prüfen die statistischen Eigenschaften und die psychologische Validität der Modellkomponenten und Parameter, und wenden die Modelle auf Daten aus unterschiedlichen Bereichen der psychologischen Forschung an.
Modellierung von Heterogenität in psychometrischen Modellen
Bei der Messung von Personeigenschaften mit Hilfe von Fragebogen oder Leistungstests wird generell angenommen, dass die strukturellen Merkmale der Items und die Parameter der psychometrischen Modelle konstant für alle Personen sind. Diese Annahme schließt zum Beispiel ein, dass die Items für alle Testandinnen und Testanden dieselbe Schwierigkeit haben und dass die relative Gewichtung der beteiligten Antwortprozesse für alle Personen identisch ist. Eine Verletzung der Annahme führt dazu, dass die Validität der Messung eingeschränkt und die Fairness von Personvergleichen gefährdet ist. In unserer Forschung erweitern wir psychometrische Modelle, so dass eine Heterogenität von Itemcharakteristika und Antwortprozessen über Personen identifiziert und bei der Analyse berücksichtigt werden kann. Hierzu verwenden wir Mischverteilungsmodelle und modellbasierte Partitionsverfahren für mehrdimensionale psychometrische Entscheidungsmodelle, um Quellen von Heterogenität zu untersuchen und die Erfassung psychologischer Eigenschaften maßgeschneidert zu optimieren.
Kognitive Prozesse im episodischen Gedächtnis
Das menschliche episodische Gedächtnis umfasst die Enkodierung, die Speicherung und den Abruf von Ereignissen und von dazugehörigen Kontextinformationen, wie etwa Informationen über den zeitlichen und örtlichen Kontext des Ereignisses oder über den subjektiven Zustand während des Erlebens. Die gemeinsame Enkodierung und Speicherung von Ereignis- und Kontextinformationen ermöglicht eine verbundene Gedächtnisrepräsentation und episodische Erinnerung. Für den Abruf und die Wiedergabe episodischer Erinnerungen sind neben den genuinen Gedächtnisprozessen auch metakognitive Prozesse und rekonstruktive Inferenzen relevant. In unserer Forschung analysieren wir die episodische Gedächtnisrepräsentation sowie die Abruf- und Entscheidungsprozesse mit Hilfe experimenteller Designs und statistischer Modelle. Dabei kommen multinomiale Verarbeitungsmodelle für die Trennung von Gedächtnis- und rekonstruktiven Entscheidungsprozessen zum Einsatz sowie generalisierte Mehrebenen-Modelle für die Analyse dynamischer kognitiver Prozesse auf Ereignis-Ebene.
Kognitive Prozesse und Heuristiken beim Kontingenzlernen, Urteilen und Entscheiden
Für die Urteilsbildung und Entscheidungsfindung spielen gelernte Kontingenzen eine essenzielle Rolle, etwa Kontingenzen zwischen sozialen Gruppen und Verhaltensweisen bei der Stereotypenbildung oder Kontingenzen zwischen Optionen und resultierenden Ergebnissen bei Entscheidungen. Kontingenzen, die aus Informationen der sozialen Umwelt induktiv erschlossen werden, können jedoch verzerrt oder falsch sein. So können die Informationen etwa aus selektiven Stichproben stammen oder nur eingeschränkte Validität für das zu treffende Urteil haben, und Personen können relevante Moderatorvariablen bei der Urteils- und Entscheidungsfindung übersehen. Zusätzlich können Urteile und Entscheidungen durch Heuristiken beeinflusst werden, wie etwa durch die Verwendung der erlebten Verarbeitungsflüssigkeit für Wahrheits- oder Vertrautheitsurteile von Aussagen und Ereignissen. In unserer Forschung werden unterschiedliche experimentelle Paradigmen verwendet, um mögliche Verzerrungen bei Urteilen und Entscheidungen aufgrund induktiver Kontingenzen und Heuristiken zu untersuchen. Mit Hilfe der Paradigmen und statistischer Modelle der Datenanalyse werden die zugrundeliegenden Prozesse sowie individuelle Differenzen in den Urteils- und Entscheidungseffekten analysiert.
Forschungskolloquium
Interessierte Besucher*innen sind herzlich eingeladen, an unserem Forschungskolloquium teilzunehmen. Die Termine und Inhalte des Kolloquiums werden kontinuierlich aktualisiert und sind hier zu finden.
Publikationen
- Seitz, T., Wetzel, E., Hilbig, B. E. & Meiser, T. (2024). Using the multidimensional nominal response model to model faking in questionnaire data: The importance of item desirability characteristics. Behavior Research Methods. Vorzeitige Online-Veröffentlichung. https://doi.org/10.3758/s13428-024-02509-x
- Hasselhorn, K., Ottenstein, C., Meiser, T., & Lischetzke, T. (2024). The effects of questionnaire length on the relative impact of response styles in ambulatory assessment. Multivariate Behavioral Research. Advance online publication. https://doi.org/10.1080/00273171.2024.2354233
- Merhof, V., Meiser, T. (2024). Co-occurring dominance and ideal point processes: A general IRTree framework for multidimensional item responding. Behavior Research Methods. Advance online publication. doi.org/10.3758/s13428-024-02405-4
- Petras, N., Dantlgraber, M., & Reips, U.-D. (2024). Illustrating psychometric tests, scales, and constructs: An R package for Item Pool Visualization. Behavior Research Methods, 56, 639–650. https://doi.org/10.3758/s13428-022-02052-7
- Petras, N., & Meiser, T. (2024). Problems of domain factors with small factor loadings in bi-factor models. Multivariate Behavioral Research, 59(1), 123–147. https://doi.org/10.1080/00273171.2023.2228757
- Reiber, F., & Ulrich, R. (2024). Exploring effects of age on conflict processing in the light of practice in a large-scale dataset. Experimental Aging Research, 50(4), 422–442. https://doi.org/10.1080/0361073X.2023.2214051
- Schreiner, M. R., Bröder, A., & Meiser, T. (2024). Agency effects on the binding of event elements in episodic memory. Quarterly Journal of Experimental Psychology, 77(6), 1201-1220. https://doi.org/10.1177/17470218231203951
- Alagöz, Ö. E. C., & Meiser, T. (2023). Investigating heterogeneity in response strategies: A mixture multidimensional IRTree approach. Educational and Psychological Measurement. Advance online publication. https://doi.org/10.1177/00131644231206765
- Bott, F. M., & Meiser, T. (2023). Information sampling in contingency learning: Sampling strategies and their consequences for (pseudo-)contingency inferences. In K. Fiedler, P. Juslin & J. Denrell (Eds.), Sampling in judgment and decision making (pp. 245–265). Cambridge University Press.
- Frick, S. (2023). Estimating and using block information in the Thurstonian IRT model. Psychometrika, 88, 1556–1589. https://doi.org/10.1007/s11336-023-09931-8
- Henninger, M., & Meiser, T. (2023). Quality control: Response style modeling. In R. Tierney, F. Rizvi & K. Ercikan (Eds.), International encyclopedia of education (4th edition, pp. 331–340). Elsevier. https://doi.org/10.1016/b978-0-12-818630-5.10041-7
- Henninger, M., Plieninger, H., & Meiser, T. (2023). The effect of response formats on response style strength: An experimental comparison. European Journal of Psychological Assessment. Advance online publication. https://doi.org/10.1027/1015-5759/a000779
- Meiser, T., & Reiber, F. (2023). Item-specific factors in IRTree models: When they matter and when they don’t [Commentary on Lyu, Bolt & Westby (2023)]. Psychometrika, 88, 739–744. https://doi.org/10.1007/s11336-023-09916-7
- Merhof, V., Böhm, C. M., & Meiser, T. (2023). Separation of traits and extreme response style in IRTree models: The role of mimicry effects for the meaningful interpretation of estimates. Educational and Psychological Measurement. Advance online publication. https://doi.org/10.1177/00131644231213319
- Merhof, V., & Meiser, T. (2023). Dynamic response strategies: Accounting for response process heterogeneity in IRTree decision nodes. Psychometrika, 88, 1354-1380 https://doi.org/10.1007/s11336-023-09901-0
- Schreiner, M., & Hütter, M. (2023). The Influence of Social Status on Memory: No Evidence for Effects of Social Status on Event Element Binding. Social Cognition, 41(5), 447–466. https://doi.org/10.1521/soco.2023.41.5.447
- Schreiner, M., & Meiser, T. (2023). Measuring binding effects in event-based episodic representations. Behavior Research Methods, 55, 981–996. https://doi.org/10.3758/s13428-021-01769-1
- Schreiner, M., Meiser, T., & Bröder, A. (2023). The binding structure of event elements in episodic memory and the role of animacy. Quarterly Journal of Experimental Psychology, 76(4), 705–730. https://doi.org/10.1177/17470218221096148
- Schreiner, M. R., Mercier, B., Frick, S., Wiwad, D., Schmitt, M. C., Kelly, J. M., & Pütter, J. Q. (2023). Measurement issues in the many analysts religion project. Religion, Brain & Behavior, 13(3), 339–341. https://doi.org/10.1080/2153599X.2022.2070260
- Frick, S. (2022). Modeling faking in the multidimensional forced-choice format: The faking mixture model. Psychometrika, 87, 773–794. https://doi.org/10.1007/s11336-021-09818-6
- Bott, F. M., Kellen, D., & Klauer, K. C. (2021). Normative accounts of illusory correlations. Psychological Review, 128(5), 856–878. https://doi.org/10.1037/rev0000273
- Frick, S., Brown, A., & Wetzel, E. (2023). Investigating the normativity of trait estimates from multidimensional forced-choice data. Multivariate Behavioral Research, 58(1), 1–29. https://doi.org/10.1080/00273171.2021.1938960
- Henninger, M., & Plieninger, H. (2021). Different styles, different times: How response times can inform our knowledge about the response process in rating scale measurement. Assessment, 28(5), 1301-1319. https://doi.org/10.1177/1073191119900003
- Plieninger, H. (2021). Developing and applying IR-Tree models: Guidelines, caveats, and an extension to multiple groups. Organizational Research Methods, 24(3), 654–670. https://doi.org/10.1177/1094428120911096
- Bott, F. M., Heck, D. W., Meiser, T. (2020). Parameter validation in hierarchical MPT models by functional dissociation with continuous covariates: An application to contingency inference. Journal of Mathematical Psychology, 98, ArtID: 102388. https://doi.org/10.1016/j.jmp.2020.102388
- Bott, F. M., & Meiser, T. (2020). Pseudocontingency inference and choice: The role of information sampling. Journal of Experimental Psychology: Learning, Memory, and Cognition, 46(9), 1624-1644. https://doi.org/10.1037/xlm0000840
- Henninger, M., & Meiser, T. (2020a). Different approaches to modeling response styles in divide-by-total item response theory models (Part I): A model integration. Psychological Methods, 25(5), 560–576. https://doi.org/10.1037/met0000249
- Henninger, M., & Meiser, T. (2020b). Different approaches to modeling response styles in divide-by-total item response theory models (Part II): Applications and novel extensions. Psychological Methods, 25(5), 577–595. https://doi.org/10.1037/met0000268
- Meiser, T. (2020). Illusorische Korrelationen. In L.-E. Petersen & B. Six (Hrsg.), Stereotype, Vorurteile und soziale Diskriminierung (2. überarbeitete und erweiterte Auflage, S. 54–62). Weinheim: Beltz.
- Arnold, N. R., Heck, D. W., Bröder, A., Meiser, T., & Boywitt, C. D. (2019). Testing hypotheses about binding in context memory with a hierarchical multinomial modeling approach: A preregistered study. Experimental Psychology, 66(3), 239–251. https://doi.org/10.1027/1618-3169/a000442
- Meiser, T., Plieninger, H., & Henninger, M. (2019). IRTree models with ordinal and multidimensional decision nodes for response styles and trait-based rating responses. British Journal of Mathematical and Statistical Psychology, 72(3), 501–516. https://doi.org/10.1111/bmsp.12158