Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Auswertung")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
60
Inhalte gefunden
Alle Details anzeigen
Interpretation von Testwerten in der Item-Response-Theorie (IRT)
Rauch, Dominique; Hartig, Johannes
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40527 Endnote
Autor*innen:
Rauch, Dominique; Hartig, Johannes
Titel:
Interpretation von Testwerten in der Item-Response-Theorie (IRT)
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 411-424
DOI:
10.1007/978-3-662-61532-4_17
URL:
https://link.springer.com/chapter/10.1007%2F978-3-662-61532-4_17
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Testauswertung; Interpretation; Item-Response-Theory; Modell; Bildungsforschung; Empirische Forschung; Kompetenz; Definition; Rasch-Modell; Datenanalyse
Abstract:
Im vorliegenden Kapitel geht es um die Anwendung von IRT-Modellen im Rahmen der empirischen Bildungsforschung. Bei großen Schulleistungsstudien werden spezifische Vorteile der IRT genutzt, um beispielsweise das Matrix-Sampling von Testaufgaben, die Erstellung paralleler Testformen und die Entwicklung computerisierter adaptiver Tests zu ermöglichen. Ein weiterer wesentlicher Vorteil von IRT-Modellen ist die Möglichkeit der kriteriumsorientierten Interpretation IRT-basierter Testwerte. Diese wird durch die gemeinsame Verortung von Itemschwierigkeiten und Personenfähigkeiten auf einer Joint Scale durchführbar. Bei Gültigkeit des Rasch-Modells können individuelle Testwerte durch ihre Abstände zu Itemschwierigkeiten interpretiert werden. Auf dieser zentralen Eigenschaft von Rasch-Modellen bauen auch sog. "Kompetenzniveaus" auf. Zur leichteren Interpretation wird die kontinuierliche Skala in Abschnitte (Kompetenzniveaus) unterteilt, die dann als Ganzes kriteriumsorientiert beschrieben werden. In diesem Kapitel werden an einem gemeinsamen Beispiel die Definition und Beschreibung von Kompetenzniveaus anhand eines Vorgehens mit Post-hoc-Analysen der Items und die Verwendung von A-priori-Aufgabenmerkmalen veranschaulicht. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Reviews zur Bildung im digitalen Wandel. Eine Einführung in Kontext und Methodik
Wilmers, Annika; Anda, Carolin; Keller, Carolin; Kerres, Michael; Getto, Barbara
Sammelbandbeitrag
| Aus: Wilmers, Annika; Anda, Carolin; Keller, Carolin; Rittberger, Marc (Hrsg.): Bildung im digitalen Wandel. Die Bedeutung für das pädagogische Personal und für die Aus- und Fortbildung | Münster: Waxmann | 2020
40604 Endnote
Autor*innen:
Wilmers, Annika; Anda, Carolin; Keller, Carolin; Kerres, Michael; Getto, Barbara
Titel:
Reviews zur Bildung im digitalen Wandel. Eine Einführung in Kontext und Methodik
Aus:
Wilmers, Annika; Anda, Carolin; Keller, Carolin; Rittberger, Marc (Hrsg.): Bildung im digitalen Wandel. Die Bedeutung für das pädagogische Personal und für die Aus- und Fortbildung, Münster: Waxmann, 2020 (Digitalisierung im Bildungsbereich, 1), S. 8-29
DOI:
10.31244/9783830991991
URN:
urn:nbn:de:0111-pedocs-207652
URL:
https://www.pedocs.de/frontdoor.php?source_opus=20765
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Bildungsforschung; Bildungspolitik; Deutschland; Digitale Medien; Digitalisierung; Einstellung <Psy>; Forschungsstand; Kompetenz; Lehrender; Literaturauswertung; Literaturdatenbank; Literaturrecherche; Literaturübersicht; Medieneinsatz; Medienpädagogik; Methode; Pädagoge; Qualität; Studie; Technologische Entwicklung; Wissenschaftliche Literatur
Abstract:
Das Kapitel bietet zunächst eine allgemeine Einführung in den bildungspolitischen und forschungsbezogenen Kontext des Themas. Danach werden die Strategie der systematischen Literatursuche und die Kodierung erläutert. Die Literatursuche erfolgte für den Zeitraum Januar 2010 bis Mai 2019 mit festgelegten deutschen und englischen Schlagwörtern in den Datenbanken des Fachportals Pädagogik (FIS Bildung Literaturdatenbank), ERIC, DNB und Google Scholar. (DIPF/Orig.)
Abstract (english):
This chapter presents a general introduction to the education policy and the research-oriented context of the topic. Thereafter, strategies of a systematic literature search and the coding process are explained. The literature retrieval was run in the databases Fachportal Pädagogik (Education Research Portal), ERIC, DNB (German National Library) and Google Scholar with pre-defined German and English search terms for the period January 2010 until May 2019. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of […]
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Zeitschriftenbeitrag
| In: Educational Assessment, Evaluation and Accountability | 2019
39120 Endnote
Autor*innen:
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Titel:
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of teaching quality
In:
Educational Assessment, Evaluation and Accountability, 31 (2019) 2, S. 201-220
DOI:
10.1007/s11092-019-09295-7
URN:
urn:nbn:de:0111-pedocs-190654
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-190654
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
PISA <Programme for International Student Assessment>; Unterricht; Qualität; Messung; Schüler; Wahrnehmung; Daten; Interkultureller Vergleich; Klassenführung; Kognitives Lernen; Sprache; Einflussfaktor; Messverfahren; Kulturdifferenz; Sprachproblem; Frage; Antwort; Testauswertung; Validität; Reliabilität; Vergleichende Bildungsforschung; Macau; Schanghai; Taipei; England; Schottland; Irland; Frankreich; Belgien; Schweiz; Österreich; Deutschland; Mexiko; Kolumbien
Abstract (english):
Valid cross-country comparisons of student learning and pivotal factors contributing to it, such as teaching quality, offer the possibility to learn from outstandingly effective educational systems across the world and to improve learning in classrooms by providing policy relevant information. Yet, it often remains unclear whether the instruments used in international large-scale assessments work similarly across different cultural and linguistic groups, and thus can be used for comparing them. Using PISA 2012 data, we investigated data comparability of three teaching quality dimensions, namely student support, classroom management, and cognitive activation using a newly developed psychometric approach, namely alignment. Focusing on 15 countries, grouped into five linguistic clusters, we secondly assessed the impact of linguistic similarity on data comparability. Main findings include that (1) comparability of teaching quality measures is limited when comparing linguistically diverse countries; (2) the level of comparability varies across dimensions; (3) linguistic similarity considerably enhances the degree of comparability, except across the Chinese-speaking countries. Our study illustrates new and more flexible possibilities to test for data comparability and outlines the importance to consider cultural and linguistic differences when comparing teaching-related measures across groups. We discuss possible sources of lacking data comparability and implications for comparative educational research. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Sensitivity of test items to teaching quality
Naumann, Alexander; Rieser, Svenja; Musow, Stephanie; Hochweber, Jan; Hartig, Johannes
Zeitschriftenbeitrag
| In: Learning and Instruction | 2019
38989 Endnote
Autor*innen:
Naumann, Alexander; Rieser, Svenja; Musow, Stephanie; Hochweber, Jan; Hartig, Johannes
Titel:
Sensitivity of test items to teaching quality
In:
Learning and Instruction, 60 (2019) , S. 41-53
DOI:
10.1016/j.learninstruc.2018.11.002
URL:
https://www.sciencedirect.com/science/article/pii/S0959475217307065?via%3Dihub
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Leistungstest; Testkonstruktion; Unterricht; Qualität; Einflussfaktor; Testauswertung; Grundschule; Naturwissenschaftlicher Unterricht; Aktives Lernen; Entdeckendes Lernen; Unterrichtsmethode; Wirkung; Messverfahren; Testaufgabe; Problemlösen; Grundschüler; Dauer; Antwort; Schwierigkeit; Datenanalyse; Interpretation; Quasi-Experiment; Deutschland
Abstract:
Instructional sensitivity is the psychometric capacity of tests or single items of capturing effects of classroom instruction. Yet, current item sensitivity measures' relationship to (a) actual instruction and (b) overall test sensitivity is rather unclear. The present study aims at closing these gaps by investigating test and item sensitivity to teaching quality, reanalyzing data from a quasi-experimental intervention study in primary school science education (1026 students, 53 classes, Mage = 8.79 years, SDage = 0.49, 50% female). We examine (a) the correlation of item sensitivity measures and the potential for cognitive activation in class and (b) consequences for test score interpretation when assembling tests from items varying in their degree of sensitivity to cognitive activation. Our study (a) provides validity evidence that item sensitivity measures may be related to actual classroom instruction and (b) points out that inferences on teaching drawn from test scores may vary due to test composition. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Künstliche Intelligenz. Ihr Potenzial und der Mythos des Lehrkraft-Bots
Zehner, Fabian
Zeitschriftenbeitrag
| In: Schulmanagement-Handbuch | 2019
39057 Endnote
Autor*innen:
Zehner, Fabian
Titel:
Künstliche Intelligenz. Ihr Potenzial und der Mythos des Lehrkraft-Bots
In:
Schulmanagement-Handbuch, (2019) 169, S. 6-30
URN:
urn:nbn:de:0111-pedocs-175610
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-175610
Dokumenttyp:
3b. Beiträge in weiteren Zeitschriften; praxisorientiert
Sprache:
Deutsch
Schlagwörter:
Künstliche Intelligenz; Begriff; Computer; Spracherkennung; Data Mining; Codierung; Technologie; Innovation; Unterricht; Lernen; Unterstützung; Testauswertung; E-Learning; Bildungsforschung
Abstract:
[In diesem] Kapitel legt der Autor dar, was Künstliche Intelligenz ausmacht, in welchen Bereichen wir bereits mit Künstlicher Intelligenz konfrontiert sind und wie sie schon heute in unseren Alltag integriert sind. Darauffolgend wird erläutert, wie Künstliche Intelligenz im Bildungsbereich gewinnbringend eingesetzt werden kann. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Sammelbandbeitrag
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2019
38881 Endnote
Autor*innen:
Frey, Andreas; Hartig, Johannes
Titel:
Kompetenzdiagnostik
Aus:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2019 , S. 849-858
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Kompetenz; Diagnostik; Schülerleistung; Leistungsmessung; Kognitive Kompetenz; Schülerleistungstest; Testkonstruktion; Datenerfassung; Testauswertung; Interpretation; Qualität; Bewertung; Testdurchführung; Planung
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Response time-based treatment of omitted responses in computer-based testing
Frey, Andreas; Spoden, Christian; Goldhammer, Frank; Wenzel, S. Franziska C.
Zeitschriftenbeitrag
| In: Behaviormetrika | 2018
38894 Endnote
Autor*innen:
Frey, Andreas; Spoden, Christian; Goldhammer, Frank; Wenzel, S. Franziska C.
Titel:
Response time-based treatment of omitted responses in computer-based testing
In:
Behaviormetrika, 45 (2018) 2, S. 505-526
DOI:
10.1007/s41237-018-0073-9
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Methode; Technologiebasiertes Testen; Antwort; Dauer; Verhalten; Item-Response-Theory; Fehlende Daten; Datenanalyse; Testaufgabe; Typologie; Medienkompetenz; Schülerleistungstest; Testauswertung
Abstract:
A new response time-based method for coding omitted item responses in computer-based testing is introduced and illustrated with empirical data. The new method is derived from the theory of missing data problems of Rubin and colleagues and embedded in an item response theory framework. Its basic idea is using item response times to statistically test for each individual item whether omitted responses are missing completely at random (MCAR) or missing due to a lack of ability and, thus, not at random (MNAR) with fixed type-1 and type-2 error levels. If the MCAR hypothesis is maintained, omitted responses are coded as not administered (NA), and as incorrect (0) otherwise. The empirical illustration draws from the responses given by N = 766 students to 70 items of a computer-based ICT skills test. The new method is compared with the two common deterministic methods of scoring omitted responses as 0 or as NA. In result, response time thresholds from 18 to 58 s were identified. With 61%, more omitted responses were recoded into 0 than into NA (39%). The differences in difficulty were larger when the new method was compared to deterministically scoring omitted responses as NA compared to scoring omitted responses as 0. The variances and reliabilities obtained under the three methods showed small differences. The paper concludes with a discussion of the practical relevance of the observed effect sizes, and with recommendations for the practical use of the new method as a method to be applied in the early stage of data processing. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Isn't something missing? Latent variable models accounting for item nonresponse
Köhler, Carmen
Monographie
| Berlin: Freie Universität | 2017
37162 Endnote
Autor*innen:
Köhler, Carmen
Titel:
Isn't something missing? Latent variable models accounting for item nonresponse
Erscheinungsvermerk:
Berlin: Freie Universität, 2017
URN:
urn:nbn:de:kobv:188-fudissthesis000000103203-8
URL:
http://www.diss.fu-berlin.de/diss/receive/FUDISS_thesis_000000103203
Dokumenttyp:
1. Monographien (Autorenschaft); Monographie
Sprache:
Englisch
Schlagwörter:
Empirische Forschung; Evaluation; Fehlende Daten; Item-Response-Theory; Kompetenz; Leistungsmessung; Modell; Schülerleistung; Schülerleistungstest; Statistische Methode; Testauswertung
Abstract:
Item nonresponse in competence tests pose a threat to a valid and reliable competence measurement, especially if the missing values occur systematically and relate to the unobserved response. This is often the case in the context of large-scale assessments, where the failure to respond to an item relates to examinee ability. Researchers developed methods that consider the dependency between ability and item nonresponse by incorporating a model for the process that causes missing values into the measurement model for ability. These model-based approaches seem very promising and might prove superior to common missing data approaches, which typically fail at taking the dependency between ability and nonresponse into account. Up to this point, the approaches have barely been investigated in terms of applicability and performance with regard to the scaling of competence tests in large-scale assessments. The current dissertation bridges the gap between these theoretically postulated models and their possible implementation in the context of large-scale assessments. It aims at (1) testing the applicability of model-based approaches to competence test data, and (2) evaluating whether and under what missing data conditions these approaches are superior to common missing data approaches. Three research studies were conducted for this purpose. Study 1 investigated the assumptions of model-based approaches, whether they hold in empirical practice, and how violations to those assumptions affect individual person parameters. Study 2 focused on features of examinees' nonresponse behavior, such as its stability across different competence tests and how it relates to other examinee characteristics. Study 3 examined the performance of model-based approaches compared to other approaches. Results demonstrate that model-based approaches can be applied to large-scale assessment data, though slight extensions of the models might enhance accuracy in parameter estimates. Further, persons' tendencies not to respond can be considered person-specific attributes, which are relatively constant across different competence tests and also relate to other stable person characteristics. Findings from the third study confirmed the superiority of the model-based approaches compared to common missing data approaches, although a model that simply ignores missing values also led to acceptable results. Model-based approaches show serval advantages over common missing data approaches. Considering their complexity, however, the benefits and drawbacks from different methods need to be weighed. Important issues in the debate on an appropriate scaling method concern model complexity, consequences on examinees' test-taking behavior, and precision of parameter estimates. For many large-scale assessments, a change in the missing data treatment is clearly necessary. Whether model-based approaches will replace former methods is yet to be determined. They certainly count amongst the most advanced methods to handle missing values in the scaling of competence tests. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Herausforderungen bei der Schätzung von Trends in Schulleistungsstudien. Eine Skalierung der […]
Robitzsch, Alexander; Lüdtke, Oliver; Köller, Olaf; Kröhne, Ulf; Goldhammer, Frank; […]
Zeitschriftenbeitrag
| In: Diagnostica | 2017
36898 Endnote
Autor*innen:
Robitzsch, Alexander; Lüdtke, Oliver; Köller, Olaf; Kröhne, Ulf; Goldhammer, Frank; Heine, Jörg-Henrik
Titel:
Herausforderungen bei der Schätzung von Trends in Schulleistungsstudien. Eine Skalierung der deutschen PISA-Daten
In:
Diagnostica, 63 (2017) 2, S. 148-165
DOI:
10.1026/0012-1924/a000177
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Deutschland; Einflussfaktor; Leistungsmessung; Lesekompetenz; Mathematische Kompetenz; Modell; Naturwissenschaftliche Kompetenz; PISA <Programme for International Student Assessment>; Schülerleistung; Schülerleistungstest; Skalierung; Technologiebasiertes Testen; Testauswertung
Abstract:
Internationale Schulleistungsstudien wie das Programme for International Student Assessment (PISA) dienen den teilnehmenden Ländern zur Feststellung der Leistungsfähigkeit ihrer Schulsysteme. In PISA wird die Zielpopulation (15-jährige Schülerinnen und Schüler) alle 3 Jahre getestet. Von besonderer Bedeutung sind dabei die Trendinformationen, die für die Zielpopulation ausweisen, ob sich ihre Leistungen gegenüber denen aus früheren Erhebungen verändert haben. Um solche Trends valide interpretieren zu können, sollten die PISA-Erhebungen unter möglichst vergleichbaren Bedingungen durchgeführt und die verwendeten statistischen Verfahren vergleichbar bleiben. In PISA 2015 wurde erstmalig computerbasiert getestet; zuvor mittels Papier-und-Bleistift-Tests. Es wurde das Skalierungsmodell verändert und in den Naturwissenschaften wurden neue Aufgabenformate eingesetzt. Im vorliegenden Beitrag gehen wir anhand der nationalen PISA-Stichproben von 2000 bis 2015 der Frage nach, inwiefern der Wechsel des Testmodus und der Wechsel des Skalierungsmodells die Interpretation der Trendschätzungen beeinflussen. Die Analysen belegen, dass die Veränderung von Papier-und-Bleistift-Tests auf Computertestung die Trendschätzung für Deutschland verzerrt haben könnte. (DIPF/Orig.)
Abstract (english):
International large-scale assessments, for instance, the Programme for International Student Assessment (PISA), are conducted to provide information on the effectiveness of educational systems. In PISA, the target population of 15-year-old students is assessed every 3 years. Trends show whether competencies have changed for the target population between PISA cycles. To ensure valid trend information, it is necessary to keep the test conditions and statistical methods in all PISA cycles as constant as possible. In PISA 2015, however, several changes were established; the test model changed from paper pencil to computer tests, scaling methods were changed, and new types of tasks were used in science. In this article, we investigate the effects of these changes on trend estimation in PISA using German data from all PISA cycles (2000 - 2015). Findings suggest that the change from paper pencil to computer tests could have biased the trend estimation. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Bedeutung und Berechnung der Prozentränge und T-Werte beim Erstellen von Testnormen. Anmerkungen […]
Woerner, Wolfgang; Müller, Christian; Hasselhorn, Marcus
Sammelbandbeitrag
| Aus: Trautwein, Ulrich; Hasselhorn, Marcus (Hrsg.): Begabungen und Talente | Göttingen: Hogrefe | 2017
37063 Endnote
Autor*innen:
Woerner, Wolfgang; Müller, Christian; Hasselhorn, Marcus
Titel:
Bedeutung und Berechnung der Prozentränge und T-Werte beim Erstellen von Testnormen. Anmerkungen und Empfehlungen
Aus:
Trautwein, Ulrich; Hasselhorn, Marcus (Hrsg.): Begabungen und Talente, Göttingen: Hogrefe, 2017 (Test und Trends. N. F., 15), S. 245-263
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Pädagogische Diagnostik; Begabtenauslese; Leistungstest; Testkonstruktion; Testmethodik; Qualität; Testauswertung; SPSS; Stichprobe; Testverfahren; Testtheorie
Abstract:
Die Nützlichkeit und der wissenschaftliche Wert eines pädagogisch-psychologischen Diagnoseinstruments setzen neben dem Nachweis von angemessen erfüllten Gütekriterien und einer ausreichend detaillierten Dokumentation der verwendeten Methodik aus voraus, dass geeignete Normwerte vorliegen. Angesichts der zentralen Rolle des Normierungsprozesses überrascht - auch bei aktuell verwendeten (Schul-)Leistungstests - eine bedauerliche Heterogenität der methodisch-rechnerischen Bestimmung von Normwerten mit bisweilen erheblichen Konsequenzen für individualdiagnostische Entscheidungen. Einschlägige Lehrbücher beschreiben zwar verschiedene alternative Methoden, ohne jedoch konkrete Empfehlungen zu deren Verwendung anzusprechen. Um dies nachzuholen, wird in diesem Beitrag ausführlich auf die Bedeutung und Berechnung von Prozentrang-Werten und darauf aufbauenden Standardnorm-Äquivalenten eingegangen. Insbesondere wird der Unterschied zwischen kumulativen Prozentwerten und dem hier nachdrücklich empfohlenen Intervallmitten-Prozentrang (IM-PR) erläutert. Um künftigen Testentwicklern die Berechnung von IM-PR-Werten zu erleichtern, werden im Appendix entsprechende SPSS-Mustersyntaxen zur Verfügung gestellt - in der Hoffnung, dass sich dadurch in Zukunft eine einheitliche Berechnungsgrundlage der Normwerte von psychodiagnostischen Verfahren erzielen lässt. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Markierungen aufheben
Alle Treffer markieren
Export
<
1
2
(aktuell)
3
...
6
>
Alle anzeigen
(60)