Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Leistungsmessung")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
228
Inhalte gefunden
Alle Details anzeigen
The interplay of gender and social background. A longitudinal study of interaction effects in […]
Becker, Michael; McElvany, Nele
Zeitschriftenbeitrag
| In: British Journal of Educational Psychology | 2018
38783 Endnote
Autor*innen:
Becker, Michael; McElvany, Nele
Titel:
The interplay of gender and social background. A longitudinal study of interaction effects in reading attitudes and behaviour
In:
British Journal of Educational Psychology, 88 (2018) 4, S. 529-549
DOI:
10.1111/bjep.12199
URN:
urn:nbn:de:0111-pedocs-169174
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-169174
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Grundschüler; Lesekompetenz; Leistungsmessung; Lesetest; Vergleich; Befragung; Längsschnittuntersuchung; Berlin; Lesen; Leseverhalten; Geschlechtsspezifischer Unterschied; Mädchen; Junge; Stereotyp; Einflussfaktor; Identität; Selbstkonzept; Überzeugung; Motivation; Sozioökonomische Lage; Soziale Herkunft; Migrationshintergrund; Eltern; Bildungsniveau; Erwartung; Grundschule
Abstract (english):
Background: Researchers often report and discuss gender differences. However, recent research has drawn attention to interaction effects between gender and other social categories. Aims: This study analysed the development of disparities in students' reading‐related self‐concept, intrinsic motivation, and behaviour, as they relate to differences in gender and socio‐economic family background. Drawing on expectancy‐value theory, we regarded reading‐related self‐concept, motivation, and behaviour as key to explaining the growing differences between boys and girls in adolescence. Specifically, we focused on the interaction between gender and socio‐economic background in children, which has been discussed in the context of moderating gender differences but not in the context of reading‐related attitudes and behaviour. Sample: The investigation is based on a longitudinal sample of N = 717 German students between third and sixth grades. Method: We used questionnaire data from both students and parents. To compare students' development across time, we applied multigroup latent growth curve models. Results: We found evidence of increasing gender differences, which were also moderated by the socio‐economic status (SES) of parents: a gender gap either already existed (intrinsic motivation and reading behaviour) or intensified (reading self‐concept and reading behaviour) between third and sixth grades. The interaction of gender and SES seemed particularly important for reading self‐concept, with the gender gap growing less substantially for higher‐SES children. Moreover, this pattern persisted for reading self‐concept, even when controlling for achievement differences. Conclusions: The results provide evidence that gender, social background, and the interaction of the two are relevant for development in the domain of reading, even in young children. (DIPF/Orig.)
DIPF-Abteilung:
Struktur und Steuerung des Bildungswesens
The impact of ignoring the partially compensatory relation between ability dimensions on […]
Buchholz, Janine; Hartig, Johannes
Zeitschriftenbeitrag
| In: Psychological Test and Assessment Modeling | 2018
38692 Endnote
Autor*innen:
Buchholz, Janine; Hartig, Johannes
Titel:
The impact of ignoring the partially compensatory relation between ability dimensions on norm-referenced test scores
In:
Psychological Test and Assessment Modeling, 60 (2018) 3, S. 369-385
URL:
https://www.psychologie-aktuell.com/fileadmin/Redaktion/Journale/ptam_3-2018_369-385.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Schülerleistung; Leistungsmessung; Test; Interpretation; Item-Response-Theory; Modell; Methode; Validität; Mathematische Kompetenz; Sprachfertigkeit; Simulation; Empirische Untersuchung
Abstract (english):
The IRT models most commonly employed to estimate within-item multidimensionality are compensatory and suggest that some dimensions (e.g., traits or abilities) can make up for a lack in others. However, many assessment frameworks in educational large-scale assessments suggest partially compensatory relations among dimensions. In two Monte-Carlo simulation studies we varied the loading pattern, the latent correlation between dimensions and the ability distribution to evaluate the impact on test scores when a compensatory model is incorrectly applied onto partially compensatory data. Findings imply only negligible effects when true abilities are bivariate normal. Assuming a uniform distribution, however, analyses of differences in test scores demonstrated systematic effects for specific patterns of true ability: High abilities are largely underestimated when the other ability required to solve some of the items was low. These findings highlight the necessity of applying the partially compensatory model under data conditions likely to occur in educational large-scale assessments. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Stichwort - formatives Assessment
Schütze, Birgit; Souvignier, Elmar; Hasselhorn, Marcus
Zeitschriftenbeitrag
| In: Zeitschrift für Erziehungswissenschaft | 2018
38521 Endnote
Autor*innen:
Schütze, Birgit; Souvignier, Elmar; Hasselhorn, Marcus
Titel:
Stichwort - formatives Assessment
In:
Zeitschrift für Erziehungswissenschaft, 21 (2018) 4, S. 697-715
DOI:
10.1007/s11618-018-0838-7
URN:
urn:nbn:de:0111-pedocs-167542
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-167542
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Schülerleistung; Leistungsbeurteilung; Leistungsmessung; Feedback; Lernen; Förderung; Umsetzung; Effektivität; Diagnostik; Aufgabe; Testverfahren; Forschungsstand
Abstract:
Formatives Assessment gilt als eines der wirksamsten Rahmenkonzepte zur Förderung schulischen Lernens. Es bezeichnet die lernbegleitende Beurteilung von Schülerleistung mit dem Ziel, diagnostische Informationen zu nutzen, um Unterricht und Lernen zu verbessern. Grundlegende Merkmale von forma- tivem Assessment sind die Klärung von Lernzielen, die Diagnose der individuellen Leistung sowie eine darauf basierende Rückmeldung und Förderung. Die Gestaltung von formativem Assessment reicht von spontanem on-the-fly-Assessment bis hin zu im Voraus geplantem, formalisiertem und curricular eingebettetem Assessment. Studien untermauern die lernförderliche Wirkung von formativem Assessment, wobei diese von der konkreten Gestaltung abhängt. Obwohl politische, wissenschaftliche und schulische Entwicklungen zur Implementation von formativem Assessment bei tragen, ist die Umsetzung nach wie vor herausfordernd. Im vorliegenden Beitrag wird der aktuelle Forschungsstand dargelegt, indem eine begriffliche Bestimmung und Charakterisierung des Konstrukts vorgenommen wird, empirische Befunde zur Wirksamkeit präsentiert sowie implementationsrelevante Entwicklungen und Herausforderungen beschrieben werden. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Simpel, aber doch komplex. Vom Dekodieren zum Leseverständnis
Ehm, Jan-Henning
Zeitschriftenbeitrag
| In: Schulmanagement | 2018
38147 Endnote
Autor*innen:
Ehm, Jan-Henning
Titel:
Simpel, aber doch komplex. Vom Dekodieren zum Leseverständnis
In:
Schulmanagement, 49 (2018) 1, S. 28-30
URN:
urn:nbn:de:0111-pedocs-169205
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-169205
Dokumenttyp:
3b. Beiträge in weiteren Zeitschriften; praxisorientiert
Sprache:
Deutsch
Schlagwörter:
Empirische Untersuchung; Deutschland; Lesen; Leseverstehen; Textverständnis; Schriftsprache; Gesprochene Sprache; Phonologie; Schreibenlernen; Lesenlernen; Langzeitgedächtnis; Kognitive Prozesse; Vorwissen; Kind; Vorschulalter; Grundschulalter; Lesekompetenz; Leistungsmessung; Leistungssteigerung
Abstract:
Wenn Sie beginnen, diesen Text zu lesen, tun Sie dies vor allem mit einem Ziel: Sie wollen den Inhalt des Textes verstehen. Für ein erfolgreiches Leseverständnis ist der Erwerb unterschiedlicher Fertigkeiten erforderlich. Der folgende Beitrag stellt die Ergebnisse einer Studie zum Lesen lernen vor, die die Bedeutung schriftsprachlicher Vorläuferfertigkeiten verdeutlicht und aufzeigt, wie wichtig die Dekodierfähigkeit für das Leseverständnis ist und schon leichte Verbesserungen, gerade bei schwachen Lesern, mit deutlichen Leistungssteigerungen im Leseverständnis einhergehen können. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Perspektiven zur Entwicklung der empirischen Bildungsforschung
Helsper, Werner; Klieme, Eckhard; Terhart, Ewald
Sammelbandbeitrag
| Aus: Krüger, Anja; Radisch, Falk; Willems, Ariane S.; Häcker, Thomas; Walm, Maik (Hrsg.): Empirische Bildungsforschung im Kontext von Schule und Lehrer*innenbildung | Bad Heilbrunn: Klinkhardt | 2018
38537 Endnote
Autor*innen:
Helsper, Werner; Klieme, Eckhard; Terhart, Ewald
Titel:
Perspektiven zur Entwicklung der empirischen Bildungsforschung
Aus:
Krüger, Anja; Radisch, Falk; Willems, Ariane S.; Häcker, Thomas; Walm, Maik (Hrsg.): Empirische Bildungsforschung im Kontext von Schule und Lehrer*innenbildung, Bad Heilbrunn: Klinkhardt, 2018 , S. 21-50
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Bildungsforschung; Empirische Forschung; Entwicklung; PISA <Programme for International Student Assessment>; Schülerleistung; Leistungsmessung; Erziehungswissenschaft; Lehrerausbildung; Unterrichtsforschung; Schulforschung; Veränderung; Internationalisierung; Qualitätssicherung; Forscher; Netzwerk
Abstract:
Der Beitrag ist die Verschriftlichung einer anregenden Diskussion, die ein Teil des Herausgeber*innenteams mit den Autoren des Beitrages im Sommer 2017 in Dortmund führen konnte. Werner Helsper, Eckhard Klieme und Ewald Terhart diskutieren gemeinsam die Frage, ob sich die Empirische Bildungsforschung "ohne Ende weiterentwickelt" oder sich "bereits im Verfall befindet" und zeigen resümierend Perspektiven zur Entwicklung der empirischen Bildungsforschung auf. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Individuelle Voraussetzungen erfolgreichen Lernens. Entwicklungsveränderungen und diagnostische […]
Nagler, Telse; Hasselhorn, Marcus
Sammelbandbeitrag
| Aus: Lütje-Klose, Birgit; Riecke-Baulecke, Thomas; Werning, Rolf (Hrsg.): Basiswissen Lehrerbildung: Inklusion in Schule und Unterricht - Grundlagen in der Sonderpädagogik | Seelze: Friedrich Verlag | 2018
39007 Endnote
Autor*innen:
Nagler, Telse; Hasselhorn, Marcus
Titel:
Individuelle Voraussetzungen erfolgreichen Lernens. Entwicklungsveränderungen und diagnostische Möglichkeiten
Aus:
Lütje-Klose, Birgit; Riecke-Baulecke, Thomas; Werning, Rolf (Hrsg.): Basiswissen Lehrerbildung: Inklusion in Schule und Unterricht - Grundlagen in der Sonderpädagogik, Seelze: Friedrich Verlag, 2018 , S. 299-320
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Lerndiagnostik; Lernen; Lernerfolg; Lernvoraussetzungen; Modell; Kognitive Kompetenz; Aufmerksamkeit; Arbeitsgedächtnis; Lernstrategie; Metakognition; Vorwissen; Motivation; Kompetenz; Leistungsmotivation; Attribution; Selbstkonzept; Diagnostik; Leistungsmessung
Abstract:
Als individuelle Voraussetzungen erfolgreichen Lernens lassen sich kognitive, motivationale und volitionale Kompetenzen identifizieren. Bei den kognitiven Kompetenzen spielen vor allem die selektive Aufmerksamkeit, die Funktionstüchtigkeit des Arbeitsgedächtnisses, der Einsatz von Lernstrategien und dessen metakognitive Regulation sowie das bestehende Vorwissen eine zentrale Rolle. Als motivationale Kompetenzen zeichnen sich die Lern- und Leistungsmotivation, einhergehende Ursachenzuschreibungen (Attributionsstil) für Erfolg und Misserfolg sowie das subjektive Fähigkeitsselbstkonzept aus. Volitionale Kompetenzen beziehen sich auf die gewollte Initiierung und Ausführung von geeigneten Handlungen für die Zielerreichung. Um den Verlauf und die Entwicklung der lernrelevanten Grundvoraussetzungen messen zu können, bieten sich verschiedene Diagnostikinstrumente an. Das Kompetenz- und Leistungsniveau schulischer Fertigkeiten kann über Verfahren der Leistungsdiagnostik (z.B. über ELFE, die DERET- und DEMAT-Testreihen) oder den Einsatz von Verfahren der Verlaufsdiagnostik (z.B. über LSL, VSL oder LVD-M 2-4) ermittelt werden. Auch unabhängig von den schulischen Leistungen können zentrale individuelle Voraussetzungen erfolgreichen Lernens individuell festgestellt werden. So kann etwa die differenzielle Funktionstüchtigkeit des Arbeitsgedächtnisses diagnostiziert werden (z.B. über die AGTB 5-12). Auch können Informationen zu motivationalen Ausprägungen systematisch erfasst und für die Erstellung von Förderplänen bzw. bei der Diagnostik von Lern- und Leistungsproblemen unterstützend eingesetzt werden (z.B. über die Diagnostikinstrumente SELLMO, FLM oder SESSKO). (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Isn't something missing? Latent variable models accounting for item nonresponse
Köhler, Carmen
Monographie
| Berlin: Freie Universität | 2017
37162 Endnote
Autor*innen:
Köhler, Carmen
Titel:
Isn't something missing? Latent variable models accounting for item nonresponse
Erscheinungsvermerk:
Berlin: Freie Universität, 2017
URN:
urn:nbn:de:kobv:188-fudissthesis000000103203-8
URL:
http://www.diss.fu-berlin.de/diss/receive/FUDISS_thesis_000000103203
Dokumenttyp:
1. Monographien (Autorenschaft); Monographie
Sprache:
Englisch
Schlagwörter:
Empirische Forschung; Evaluation; Fehlende Daten; Item-Response-Theory; Kompetenz; Leistungsmessung; Modell; Schülerleistung; Schülerleistungstest; Statistische Methode; Testauswertung
Abstract:
Item nonresponse in competence tests pose a threat to a valid and reliable competence measurement, especially if the missing values occur systematically and relate to the unobserved response. This is often the case in the context of large-scale assessments, where the failure to respond to an item relates to examinee ability. Researchers developed methods that consider the dependency between ability and item nonresponse by incorporating a model for the process that causes missing values into the measurement model for ability. These model-based approaches seem very promising and might prove superior to common missing data approaches, which typically fail at taking the dependency between ability and nonresponse into account. Up to this point, the approaches have barely been investigated in terms of applicability and performance with regard to the scaling of competence tests in large-scale assessments. The current dissertation bridges the gap between these theoretically postulated models and their possible implementation in the context of large-scale assessments. It aims at (1) testing the applicability of model-based approaches to competence test data, and (2) evaluating whether and under what missing data conditions these approaches are superior to common missing data approaches. Three research studies were conducted for this purpose. Study 1 investigated the assumptions of model-based approaches, whether they hold in empirical practice, and how violations to those assumptions affect individual person parameters. Study 2 focused on features of examinees' nonresponse behavior, such as its stability across different competence tests and how it relates to other examinee characteristics. Study 3 examined the performance of model-based approaches compared to other approaches. Results demonstrate that model-based approaches can be applied to large-scale assessment data, though slight extensions of the models might enhance accuracy in parameter estimates. Further, persons' tendencies not to respond can be considered person-specific attributes, which are relatively constant across different competence tests and also relate to other stable person characteristics. Findings from the third study confirmed the superiority of the model-based approaches compared to common missing data approaches, although a model that simply ignores missing values also led to acceptable results. Model-based approaches show serval advantages over common missing data approaches. Considering their complexity, however, the benefits and drawbacks from different methods need to be weighed. Important issues in the debate on an appropriate scaling method concern model complexity, consequences on examinees' test-taking behavior, and precision of parameter estimates. For many large-scale assessments, a change in the missing data treatment is clearly necessary. Whether model-based approaches will replace former methods is yet to be determined. They certainly count amongst the most advanced methods to handle missing values in the scaling of competence tests. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Experimental validation strategies for heterogeneous computer-based assessment items
Engelhardt, Lena; Goldhammer, Frank; Naumann, Johannes; Frey, Andreas
Zeitschriftenbeitrag
| In: Computers in Human Behavior | 2017
37464 Endnote
Autor*innen:
Engelhardt, Lena; Goldhammer, Frank; Naumann, Johannes; Frey, Andreas
Titel:
Experimental validation strategies for heterogeneous computer-based assessment items
In:
Computers in Human Behavior, 76 (2017) , S. 683-692
DOI:
10.1016/j.chb.2017.02.020
URN:
urn:nbn:de:0111-dipfdocs-176056
URL:
http://www.dipfdocs.de/volltexte/2019/17605/pdf/Engelhardt_et_al._2017_ManuscriptAccepted_A.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Leistungstest; Leistungsmessung; Medienkompetenz; Computerunterstütztes Verfahren; Validität; Testaufgabe; Testkonstruktion; Anpassung; Strategie; Veränderung; Testmethodik; Testtheorie
Abstract (english):
Computer-based assessments open up new possibilities to measure constructs in authentic settings. They are especially promising to measure 21st century skills, as for instance information and communication technologies (ICT) skills. Items tapping such constructs may be diverse regarding design principles and content and thus form a heterogeneous item set. Existing validation approaches, as the construct representation approach by Embretson (1983), however, require homogenous item sets in the sense that a particular task characteristic can be applied to all items. To apply this validation rational also for heterogeneous item sets, two experimental approaches are proposed based on the idea to create variants of items by systematically manipulating task characteristics. The change-approach investigates whether the manipulation affects construct-related demands and the eliminate-approach whether the test score represents the targeted skill dimension. Both approaches were applied within an empirical study (N = 983) using heterogeneous items from an ICT skills test. The results show how changes of ICT-specific task characteristics influenced item difficulty without changing the represented construct. Additionally, eliminating the intended skill dimension led to easier items and changed the construct partly. Overall, the suggested experimental approaches provide a useful validation tool for 21st century skills assessed by heterogeneous items. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Increased instruction hours and the widening gap in student performance
Huebener, Mathias; Kuger, Susanne; Marcus, Jan
Zeitschriftenbeitrag
| In: Labour Economics | 2017
37661 Endnote
Autor*innen:
Huebener, Mathias; Kuger, Susanne; Marcus, Jan
Titel:
Increased instruction hours and the widening gap in student performance
In:
Labour Economics, 47 (2017) , S. 15-34
DOI:
10.1016/j.labeco.2017.04.007
URL:
http://www.sciencedirect.com/science/article/pii/S0927537116302755
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Datenanalyse; Deutschland; Leistungsfähigkeit; Leistungsmessung; Lerninhalt; PISA <Programme for International Student Assessment>; Schüler; Schülerleistung; Schuljahr 09; Schulreform; Schulzeit; Unterrichtszeit; Unterschied; Vergleich; Wirkung; Zeitbudget
Abstract (english):
Do increased instruction hours improve the performance of all students? Using PISA scores of students in ninth grade, we analyse the effect of a German education reform that increased weekly instruction hours by two hours (6.5 percent) over almost five years. In the additional time, students are taught new learning content. On average, the reform improves student performance. However, treatment effects are small and differ across the student performance distribution. Low-performing students benefit less than high-performing students. We argue that the content of additional instruction time is an important determinant explaining this pattern. The findings demonstrate that increases in instruction hours can widen the gap between low- and high-performing students. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Practical significance of item misfit in educational assessments
Köhler, Carmen; Hartig, Johannes
Zeitschriftenbeitrag
| In: Applied Psychological Measurement | 2017
37161 Endnote
Autor*innen:
Köhler, Carmen; Hartig, Johannes
Titel:
Practical significance of item misfit in educational assessments
In:
Applied Psychological Measurement, 41 (2017) 5, S. 388-400
DOI:
10.1177/0146621617692978
URN:
urn:nbn:de:0111-pedocs-156084
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-156084
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Item-Response-Theory; Korrelation; Leistungsmessung; Rasch-Modell; Schülerleistung; Schülerleistungstest; Testkonstruktion; Testtheorie; Validität
Abstract:
Testing item fit is an important step when calibrating and analyzing item response theory (IRT)-based tests, as model fit is a necessary prerequisite for drawing valid inferences from estimated parameters. In the literature, numerous item fit statistics exist, sometimes resulting in contradictory conclusions regarding which items should be excluded from the test. Recently, researchers argue to shift the focus from statistical item fit analyses to evaluating practical consequences of item misfit. This article introduces a method to quantify potential bias of relationship estimates (e.g., correlation coefficients) due to misfitting items. The potential deviation informs about whether item misfit is practically significant for outcomes of substantial analyses. The method is demonstrated using data from an educational test. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Markierungen aufheben
Alle Treffer markieren
Export
<
1
...
3
4
(aktuell)
5
...
20
>
Alle anzeigen
(228)