Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Schülerleistungstest")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
51
Inhalte gefunden
Alle Details anzeigen
Asymmetrien zwischen Noten und Testleistungen am Ende der 8. Schulstufe? Eine Analyse auf Grundlage […]
Schmid, Christine
Zeitschriftenbeitrag
| In: Zeitschrift für Bildungsforschung | 2018
38996 Endnote
Autor*innen:
Schmid, Christine
Titel:
Asymmetrien zwischen Noten und Testleistungen am Ende der 8. Schulstufe? Eine Analyse auf Grundlage der österreichischen Bildungsstandardüberprüfung Mathematik 2012
In:
Zeitschrift für Bildungsforschung, 8 (2018) 3, S. 249-268
DOI:
10.1007/s35834-019-00229-3
URN:
urn:nbn:de:0111-pedocs-169191
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-169191
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Bildungsstandards; Schülerleistungstest; Mathematikunterricht; Schülerleistung; Schulnoten; Schuljahr 08; Sekundarstufe I; Allgemeinbildende Höhere Schule; Hauptschule; Leistungsgruppe; Schulklasse; Geschlecht; Sozialer Status; Migrationshintergrund; Regressionsanalyse; Mehrebenenanalyse; Empirische Untersuchung; Österreich
Abstract:
Die österreichische Bildungsstandardüberprüfung für das Fach Mathematik 8. Schulstufe aus dem Jahr 2012 (BIST-Ü M8 2012) erlaubt als Vollerhebung (N= 79.678) einen Vergleich von Noten und Testleistungen nicht nur auf der Populationsebene, sondern auch auf der Ebene von Klassen bzw. Lerngruppen. Regressions- und Mehrebenenanalysen zeigen, dass Schüler/innen der 1. Leistungsgruppe Hauptschule bei gleichen Testleistungen deutlich bessere Noten erhalten als Schüler/innen der Allgemeinbildenden Höheren Schulen (AHS). Außerdem erzielen Mädchen, Kinder aus Elternhäusern mit einem höheren Sozialstatus sowie Schüler/innen mit Migrationshintergrund bei gleichen Testleistungen bessere Noten als Jungen, Kinder aus Elternhäusern mit einem niedrigeren Sozialstatus und als Schüler/innen ohne Migrationshintergrund. Die Ergebnisse werden im Hinblick auf mögliche zugrundeliegende Mechanismen diskutiert. Sie spiegeln den Stand der Benotungspraxis vor der flächendeckenden Umwandlung der Hauptschulen in Neue Mittelschulen wieder. (DIPF/Orig.)
Abstract (english):
The Austrian educational standards assessment for 8th grade Mathematics in 2012 (BIST-Ü M8 2012), as a complete survey (N= 79,678), allows to compare grades with test performances not only at the population level, but also at the level of classes or learning groups. Corresponding regression and multi-level analyses show that students in the 1st performance group "Hauptschule" receive significantly better marks for the same test performance than students of the "Allgemeinbildende Höhere Schule" (AHS). In addition, girls, children from households with higher social status, and students with an immigrant background achieve better grades than boys, children from households with lower social status, and students without an immigrant background. The results are discussed with regard to possible underlying mechanisms. They reflect the state of grading practice before the nation-wide conversion of secondary schools into "Neue Mittelschulen" (NMS). (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Isn't something missing? Latent variable models accounting for item nonresponse
Köhler, Carmen
Monographie
| Berlin: Freie Universität | 2017
37162 Endnote
Autor*innen:
Köhler, Carmen
Titel:
Isn't something missing? Latent variable models accounting for item nonresponse
Erscheinungsvermerk:
Berlin: Freie Universität, 2017
URN:
urn:nbn:de:kobv:188-fudissthesis000000103203-8
URL:
http://www.diss.fu-berlin.de/diss/receive/FUDISS_thesis_000000103203
Dokumenttyp:
1. Monographien (Autorenschaft); Monographie
Sprache:
Englisch
Schlagwörter:
Empirische Forschung; Evaluation; Fehlende Daten; Item-Response-Theory; Kompetenz; Leistungsmessung; Modell; Schülerleistung; Schülerleistungstest; Statistische Methode; Testauswertung
Abstract:
Item nonresponse in competence tests pose a threat to a valid and reliable competence measurement, especially if the missing values occur systematically and relate to the unobserved response. This is often the case in the context of large-scale assessments, where the failure to respond to an item relates to examinee ability. Researchers developed methods that consider the dependency between ability and item nonresponse by incorporating a model for the process that causes missing values into the measurement model for ability. These model-based approaches seem very promising and might prove superior to common missing data approaches, which typically fail at taking the dependency between ability and nonresponse into account. Up to this point, the approaches have barely been investigated in terms of applicability and performance with regard to the scaling of competence tests in large-scale assessments. The current dissertation bridges the gap between these theoretically postulated models and their possible implementation in the context of large-scale assessments. It aims at (1) testing the applicability of model-based approaches to competence test data, and (2) evaluating whether and under what missing data conditions these approaches are superior to common missing data approaches. Three research studies were conducted for this purpose. Study 1 investigated the assumptions of model-based approaches, whether they hold in empirical practice, and how violations to those assumptions affect individual person parameters. Study 2 focused on features of examinees' nonresponse behavior, such as its stability across different competence tests and how it relates to other examinee characteristics. Study 3 examined the performance of model-based approaches compared to other approaches. Results demonstrate that model-based approaches can be applied to large-scale assessment data, though slight extensions of the models might enhance accuracy in parameter estimates. Further, persons' tendencies not to respond can be considered person-specific attributes, which are relatively constant across different competence tests and also relate to other stable person characteristics. Findings from the third study confirmed the superiority of the model-based approaches compared to common missing data approaches, although a model that simply ignores missing values also led to acceptable results. Model-based approaches show serval advantages over common missing data approaches. Considering their complexity, however, the benefits and drawbacks from different methods need to be weighed. Important issues in the debate on an appropriate scaling method concern model complexity, consequences on examinees' test-taking behavior, and precision of parameter estimates. For many large-scale assessments, a change in the missing data treatment is clearly necessary. Whether model-based approaches will replace former methods is yet to be determined. They certainly count amongst the most advanced methods to handle missing values in the scaling of competence tests. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
PISA Plus 2012-2013. Kompetenzentwicklung im Verlauf eines Schuljahres
Reiss, Kristina; Klieme, Eckhard; Köller, Olaf; Stanat, Petra (Hrsg.)
Sammelband
| Wiesbaden: Springer VS | 2017
37727 Endnote
Herausgeber*innen:
Reiss, Kristina; Klieme, Eckhard; Köller, Olaf; Stanat, Petra
Titel:
PISA Plus 2012-2013. Kompetenzentwicklung im Verlauf eines Schuljahres
Erscheinungsvermerk:
Wiesbaden: Springer VS, 2017 (Zeitschrift für Erziehungswissenschaft. Sonderheft, 33)
Dokumenttyp:
2. Herausgeberschaft; Zeitschriftensonderheft
Sprache:
Deutsch
Schlagwörter:
Schülerleistung; Kompetenz; Entwicklung; Veränderung; Schuljahr 09; Schuljahr 10; Mathematische Kompetenz; Schüler; Befragung; Sitzen bleiben; Soziale Herkunft; Migrationshintergrund; Zusammensetzung; Naturwissenschaftliche Kompetenz; Lesekompetenz; Kognitive Kompetenz; Schülerleistungstest; Skalierung; Längsschnittuntersuchung; PISA <Programme for International Student Assessment>; Deutschland
Abstract:
In diesem Sonderheft der 'Zeitschrift für Erziehungswissenschaft' werden in einer Follow up-Studie Aussagen über Lernfortschritte vom Ende der neunten bis zum Ende der zehnten Klassenstufe getroffen. Besonders interessant sind die Möglichkeiten einer Erhebung über zwei Messzeitpunkte, die die Prüfung von Vermutungen zu Einflussfaktoren zur Kompetenzentwicklung erlaubt. Die Studie wurde vom Zentrum für internationale Bildungsvergleichsstudien (ZIB) und dessen drei Trägereinrichtungen - TUM School of Education, DIPF und IPN - in Zusammenarbeit mit dem IQB Berlin durchgeführt. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Specific effects of language transfer promoting teaching and insights into the implementation in […]
Göbel, Kerstin; Vieluf, Svenja
Zeitschriftenbeitrag
| In: Orbis scholae | 2017
38535 Endnote
Autor*innen:
Göbel, Kerstin; Vieluf, Svenja
Titel:
Specific effects of language transfer promoting teaching and insights into the implementation in EFL-teaching
In:
Orbis scholae, 11 (2017) 3, S. 103-122
DOI:
10.14712/23363177.2018.279
URL:
http://www.cupress.cuni.cz/ink2_stat/index.jsp?include=AUC_clanek&id=5944&id=6683&casopis=1201&zalozka=1&predkl=0
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Englischunterricht; Fremdsprachenunterricht; Schuljahr 09; Schulform; Mehrsprachigkeit; Einsprachigkeit; Unterrichtsmethode; Transfer; Sprachkompetenz; Lernstrategie; DESI <Deutsch-Englisch-Schülerleistungen-International>; Schüler; Migrationshintergrund; Schülerleistung; Einflussfaktor; Deutschunterricht; Bilingualer Unterricht; Schülerleistungstest; Regressionsanalyse; Deutschland
Abstract (english):
The following contribution analyzes language transfer promoting instruction in the context of English as a foreign language (EFL) instruction in 9th grade secondary classes in Germany. By combining data from questionnaires, tests, and video-data, the article sheds light on learning outcomes in the context of language transfer promoting instruction and presents teaching practice of interlanguage reflection in ESL-teaching. Results indicate a positive correlation of language transfer promoting teaching with EFL listening comprehension at the beginning of grade 9. A correlation between language transfer promoting teaching did not show up with text reconstruction. The analysis of selected videos revealed sequences that hint at an attempt to promoting language transfer actually take place in classes of teachers reporting high importance for language transfer promoting teaching. However, these sequences do not display an elaborated language transfer promoting teaching. Language transfer promotion is implemented in a rather implicit way, while referring to German language only. Results indicate the need for elaborated strategies of implementation of language transfer promoting teaching. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Effects of anchoring vignettes on comparability and predictive validity of student self-reports in […]
He, Jia; Buchholz, Janine; Klieme, Eckhard
Zeitschriftenbeitrag
| In: Journal of Cross-Cultural Psychology | 2017
37052 Endnote
Autor*innen:
He, Jia; Buchholz, Janine; Klieme, Eckhard
Titel:
Effects of anchoring vignettes on comparability and predictive validity of student self-reports in 64 cultures
In:
Journal of Cross-Cultural Psychology, 48 (2017) 3, S. 319-334
DOI:
10.1177/0022022116687395
URN:
urn:nbn:de:0111-dipfdocs-156073
URL:
http://www.dipfdocs.de/volltexte/2018/15607/pdf/0022022116687395_A.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Bewertung; Internationaler Vergleich; Item-Response-Theory; Klassenführung; Kultureinfluss; Mathematikunterricht; Messverfahren; Modell; Motivation; OECD-Länder; PISA <Programme for International Student Assessment>; Qualität; Schüler; Schülerleistungstest; Schülerorientierter Unterricht; Selbsteinschätzung; Unterricht; Validität; Vignette <Methode>
Abstract (english):
Anchoring vignettes are item batteries especially designed for correcting responses that might be affected by incomparability. This article investigates the effects of anchoring vignettes on the validity of student self-report data in 64 cultures. Using secondary data analysis from the 2012 Programme for International Student Assessment (PISA), we checked the validity of ratings on vignette questions, and investigated how rescaled item responses of two student scales, Teacher Support and Classroom Management, enhanced comparability and predictive validity. The main findings include that (a) responses to vignette questions represent valid individual and cultural differences; in particular, violations in these responses (i.e., misorderings) are related to low socioeconomic status and low cognitive sophistication; (b) the rescaled responses tend to show higher levels of comparability; and (c) the associations of rescaled Teacher Support and Classroom Management with math achievement, Student-Oriented Instruction, and Teacher-Directed Instruction are slightly different from raw scores of the two target constructs, and the associations with rescaled scores seem to be more in line with the literature. Namely, the associations among all self-report Likerttype scales are weaker with rescaled scores, presumably reducing common method variance, and both rescaled scale scores are more positively related to math achievement. The country ranking also changes substantially; in particular, Asian cultures top the ranking on Teacher Support after rescaling. However, anchoring vignettes are not a cure-all in solving measurement bias in crosscultural surveys; we discuss the technicality and directions for further research on this technique. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Practical significance of item misfit in educational assessments
Köhler, Carmen; Hartig, Johannes
Zeitschriftenbeitrag
| In: Applied Psychological Measurement | 2017
37161 Endnote
Autor*innen:
Köhler, Carmen; Hartig, Johannes
Titel:
Practical significance of item misfit in educational assessments
In:
Applied Psychological Measurement, 41 (2017) 5, S. 388-400
DOI:
10.1177/0146621617692978
URN:
urn:nbn:de:0111-pedocs-156084
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-156084
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Item-Response-Theory; Korrelation; Leistungsmessung; Rasch-Modell; Schülerleistung; Schülerleistungstest; Testkonstruktion; Testtheorie; Validität
Abstract:
Testing item fit is an important step when calibrating and analyzing item response theory (IRT)-based tests, as model fit is a necessary prerequisite for drawing valid inferences from estimated parameters. In the literature, numerous item fit statistics exist, sometimes resulting in contradictory conclusions regarding which items should be excluded from the test. Recently, researchers argue to shift the focus from statistical item fit analyses to evaluating practical consequences of item misfit. This article introduces a method to quantify potential bias of relationship estimates (e.g., correlation coefficients) due to misfitting items. The potential deviation informs about whether item misfit is practically significant for outcomes of substantial analyses. The method is demonstrated using data from an educational test. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Dealing with item nonresponse in large-scale cognitive assessments. The impact of missing data […]
Köhler, Carmen; Pohl, Steffi; Carstensen, Claus H.
Zeitschriftenbeitrag
| In: Journal of Educational Measurement | 2017
38004 Endnote
Autor*innen:
Köhler, Carmen; Pohl, Steffi; Carstensen, Claus H.
Titel:
Dealing with item nonresponse in large-scale cognitive assessments. The impact of missing data methods on estimated explanatory relationships
In:
Journal of Educational Measurement, 54 (2017) 4, S. 397-419
DOI:
10.1111/jedm.12154
URN:
urn:nbn:de:0111-dipfdocs-174619
URL:
http://www.dipfdocs.de/volltexte/2019/17461/pdf/KoehlerPohlCarstensen2017_A.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Datenanalyse; Schülerleistungstest; Leistungsmessung; Fehlende Daten; Fragebogen; Antwort; Wirkung; Messverfahren; PISA <Programme for International Student Assessment>; Panel; Lesekompetenz; Regression; Simulation
Abstract:
Competence data from low-stakes educational large-scale assessment studies allow for evaluating relationships between competencies and other variables. The impact of item-level nonresponse has not been investigated with regard to statistics that determine the size of these relationships (e.g., correlations, regression coefficients). Classical approaches such as ignoring missing values or treating them as incorrect are currently applied in many large-scale studies, while recent model-based approaches that can account for nonignorable nonresponse have been developed. Estimates of item and person parameters have been demonstrated to be biased for classical approaches when missing data are missing not at random (MNAR). In our study, we focus on parameter estimates of the structural model (i.e., the true regression coefficient when regressing competence on an explanatory variable), simulating data according to various missing data mechanisms. We found that model-based approaches and ignoring missing values performed well in retrieving regression coefficients even when we induced missing data that were MNAR. Treating missing values as incorrect responses can lead to substantial bias. We demonstrate the validity of our approach empirically and discuss the relevance of our results. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Incremental validity of multidimensional proficiency scores from diagnostic classification models: […]
Kunina-Habenicht, Olga; Rupp, André A.; Wilhelm, Oliver
Zeitschriftenbeitrag
| In: International Journal of Testing | 2017
37179 Endnote
Autor*innen:
Kunina-Habenicht, Olga; Rupp, André A.; Wilhelm, Oliver
Titel:
Incremental validity of multidimensional proficiency scores from diagnostic classification models: An illustration for elementary school mathematics
In:
International Journal of Testing, 17 (2017) 4, S. 277-301
DOI:
10.1080/15305058.2017.1291517
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Arithmetik; Diagnostik; Empirische Untersuchung; Item-Response-Theory; Leistungsmessung; Mathematische Kompetenz; Modell; Regressionsanalyse; Reliabilität; Schülerleistung; Schülerleistungstest; Schuljahr 04; Testkonstruktion; Validität
Abstract (english):
Diagnostic classification models (DCMs) hold great potential for applications in summative and formative assessment by providing discrete multivariate proficiency scores that yield statistically-driven classifications of students. Using data from a newly developed diagnostic arithmetic assessment that was administered to 2,032 fourth-grade students in Germany, we evaluated whether the multidimensional proficiency scores from the best-fitting DCM have an added value, over and above the unidimensional proficiency score from a simpler unidimensional IRT model, in explaning variance in external (a) school grades in mathematics and (b) unidimensional proficiency scores from a standards-based large-scale assessment of mathematics. Results revealed high classification reliabilities as well as interpretable parameter estimates for items and students for the best-fitting DCM. However, while DCM scores were moderatly correlated with both external criteria, only a negligible incremental validity of the multivariate attribute scores was found. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Veränderungen der Lesekompetenz von der 9. zur 10. Klasse. Differenzielle Entwicklungen in […]
Nagy, Gabriel; Retelsdorf, Jan; Goldhammer, Frank; Schiepe-Tiska, Anja; Lüdtke, Oliver
Zeitschriftenbeitrag
| In: Zeitschrift für Erziehungswissenschaft. Sonderheft | 2017
37702 Endnote
Autor*innen:
Nagy, Gabriel; Retelsdorf, Jan; Goldhammer, Frank; Schiepe-Tiska, Anja; Lüdtke, Oliver
Titel:
Veränderungen der Lesekompetenz von der 9. zur 10. Klasse. Differenzielle Entwicklungen in Abhängigkeit der Schulform, des Geschlechts und des soziodemografischen Hintergrunds?
In:
Zeitschrift für Erziehungswissenschaft. Sonderheft, 33 (2017) , S. 177-203
DOI:
10.1007/s11618-017-0747-1
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Deutsch
Schlagwörter:
Lesekompetenz; Schülerleistung; Entwicklung; Veränderung; Schuljahr 09; Schuljahr 10; Sekundarstufe I; Schulform; Geschlecht; Migrationshintergrund; Sozioökonomische Lage; Schülerleistungstest; Datenanalyse; Item-Response-Theory; PISA <Programme for International Student Assessment>; Längsschnittuntersuchung; Deutschland
Abstract:
Im vorliegenden Beitrag wurde die Entwicklung der Lesekompetenz im letzten Abschnitt der Sekundarstufe I (Klassenstufen 9 bis 10) untersucht. Neben der Veränderung der Testleistungen in der Gesamtpopulation wurden die Assoziationen ausgewählter institutioneller (Schulform), familiärer (Zuwanderungshintergrund und sozioökonomischer familiärer Status) und individueller Merkmale (Geschlecht) mit der Leistungsentwicklung erfasst. In Übereinstimmung mit aktuellen Studien, die eine abflachende Entwicklung der Leseleistung in späteren Phasen der Beschulung zeigen, konnten wir keinen Leistungszuwachs in der Gesamtstichprobe feststellen. Ebenso fanden sich keine belastbaren Hinweise dafür, dass die betrachteten Erklärungsvariablen mit der Kompetenzentwicklung assoziiert sind. Die Auswertungen lieferten jedoch deutliche Indizien dafür, dass die schülerseitige Persistenz der Testbearbeitung, die mittels Positionseffekten erfasst wurde, sich systematisch in Abhängigkeit der Hintergrundvariablen veränderte, wobei stärkere Abnahmen der Bearbeitungspersistenz an nichtgymnasialen Schulformen, bei Jungen, und Schülerinnen und Schülern aus sozioökonomisch schlechter gestellten Familien festgestellt wurden. Die Nichtberücksichtigung des Testbearbeitungsverhaltens führte zu "Scheineffekten" der Erklärungsvariablen Schulform und Geschlecht, die sich bei einer genaueren Betrachtung jedoch nicht auf den realen Kompetenzzuwachs bezogen. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Change in test-taking motivation and its relationship to test performance in low-stakes assessments
Penk, Christiane; Richter, Dirk
Zeitschriftenbeitrag
| In: Educational Assessment, Evaluation and Accountability | 2017
36815 Endnote
Autor*innen:
Penk, Christiane; Richter, Dirk
Titel:
Change in test-taking motivation and its relationship to test performance in low-stakes assessments
In:
Educational Assessment, Evaluation and Accountability, 29 (2017) 1, S. 55-79
DOI:
10.1007/s11092-016-9248-7
URN:
urn:nbn:de:0111-pedocs-174284
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-174284
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Datenanalyse; Deutschland; Erfolg; Erwartung; Kognitive Kompetenz; Längsschnittuntersuchung; Latente Wachstumskurvenmodelle; Leistungsmessung; Mathematik; Motivation; Schüler; Schülerleistungstest; Strukturgleichungsmodell; Test
Abstract (english):
Since the turn of the century, an increasing number of low-stakes assessments (i.e., assessments without direct consequences for the test-takers) are being used to evaluate the quality of educational systems. Internationally, research has shown that low-stakes test results can be biased due to students' low test-taking motivation and that students' effort levels can vary throughout a testing session involving both cognitive and noncognitive tests. Thus, it is possible that students' motivation varies throughout a single cognitive test and in turn affects test performance. This study examines the change in test-taking motivation within a 2-h cognitive low-stakes test and its association with test performance. Based on expectancy-value theory, we assessed three components of test-taking motivation (expectancy for success, value, and effort) and investigated its change. Using data from a large-scale student achievement study of German ninth-graders, we employed second-order latent growth modeling and structural equation modeling to predict test performance in mathematics. On average, students' effort and perceived value of the test decreased, whereas expectancy for success remained stable. Overall, initial test-taking motivation was a better predictor of test performance than change in motivation. Only the variability of change in the expectancy component was positively related to test performance. The theoretical and practical implications for test practitioners are discussed. (DIPF/Orig.)
DIPF-Abteilung:
Struktur und Steuerung des Bildungswesens
Markierungen aufheben
Alle Treffer markieren
Export
<
1
2
(aktuell)
3
...
5
>
Alle anzeigen
(51)