Menü Überspringen
Contact
Deutsch
English
Not track
Data Protection
Search
Log in
DIPF News
Research
Infrastructures
Institute
Zurück
Contact
Deutsch
English
Not track
Data Protection
Search
Home
>
Research
>
Publications
>
Publications Data Base
Search results in the DIPF database of publications
Your query:
(Schlagwörter: "Testdurchführung")
Advanced Search
Search term
Only Open Access
Search
Unselect matches
Select all matches
Export
24
items matching your search terms.
Show all details
IGLU 2021. Lesekompetenz von Grundschulkindern im internationalen Vergleich und im Trend über 20 […]
McElvany, Nele; Lorenz, Ramona; Goldhammer, Frank; Schilcher, Anita; Stubbe, Tobias C. (Hrsg.)
Compilation Book
| Münster: Waxmann | 2023
43956 Endnote
Editor(s)
McElvany, Nele; Lorenz, Ramona; Goldhammer, Frank; Schilcher, Anita; Stubbe, Tobias C.
Title:
IGLU 2021. Lesekompetenz von Grundschulkindern im internationalen Vergleich und im Trend über 20 Jahre
Published:
Münster: Waxmann, 2023
URL:
https://www.waxmann.com/index.php?eID=download&buchnr=4700
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Bundesland; Curriculum; Deutschland; Differenzierung; Digitale Medien; Empirische Untersuchung; Erhebungsinstrument; Grundschule; Grundschüler; IGLU <Internationale Grundschul-Lese-Untersuchung>; Internationaler Vergleich; Junge; Klassenführung; Kognitive Aktivierung; Leistungsmessung; Lesekompetenz; Lesetest; Leseunterricht; Leseverhalten; Leseverstehen; Mädchen; Migrationshintergrund; Motivation; Schülerleistung; Schülerleistungstest; Schuljahr 04; Soziale Herkunft; Testdurchführung; Testkonstruktion; Validität; Wohlbefinden
Abstract:
Lesekompetenz ist die zentrale Grundlage für das gesamte schulische sowie außerschulische Lernen, gesellschaftliche Teilhabe und den weiteren Lebensweg der Schülerinnen und Schüler. Sie ermöglicht es, Informationen aus schriftlichem Material zu entnehmen, Inhalte zu verknüpfen, Schlussfolgerungen zu ziehen und Inhalte, Quellen sowie Intentionen kritisch zu reflektieren. Seit nun 20 Jahren ermöglicht die Internationale Grundschul-Lese-Untersuchung (IGLU) die Beschreibung des Stands und der Bedingungsfaktoren der Schlüsselkompetenz Lesen am Ende der vierten Klassenstufe im internationalen Vergleich. Die Erhebung 2021 fand im Kontext besonderer Bedingungen statt: Es wurden Grundschulkinder in den Blick genommen, die etwas mehr als ein Jahr lang unter den Bedingungen der COVID-19-Pandemie-Schutzmaßnahmen beschult wurden. Erstmals können durch die kontinuierliche Studienteilnahme Deutschlands seit 2001 neben der wichtigen Kernfrage der internationalen Verortung der mittleren Lesekompetenz von Viertklässlerinnen und Viertklässlern in Deutschland Informationen zum Trend dieser Befunde für die Zeit von 20 Jahren dargestellt werden. Damit erlauben die Befunde von IGLU 2021 auch eine Antwort auf die drängende Frage, inwieweit es in Deutschland gelungen ist, die nach dem PISA-Schock 2000 durch die Kultusministerkonferenz formulierten Ziele für die Weiterentwicklung der Bildung in Deutschland zu erreichen. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Book Chapter
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2022
42714 Endnote
Author(s):
Frey, Andreas; Hartig, Johannes
Title:
Kompetenzdiagnostik
In:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2022 , S. 928-937
Publication Type:
4. Beiträge in Sammelbänden; Lexika/Enzyklopädie o.ä.
Language:
Deutsch
Keywords:
Empirische Forschung; Kompetenz; Diagnostik; Schüler; Schullaufbahn; Schülerleistung; Leistungsmessung; Testkonstruktion; Testtheorie; Testauswertung; Psychometrie; Qualität; Testdurchführung; Planung; Datenanalyse; Interpretation
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten im Bereich Kompetenzdiagnostik. (DIPF/Orig.)
DIPF-Departments:
Lehr und Lernqualität in Bildungseinrichtungen
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based […]
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Journal Article
| In: Educational Measurement | 2019
39814 Endnote
Author(s):
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Title:
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based assessments
In:
Educational Measurement, 38 (2019) 3, S. 97-111
DOI:
10.1111/emip.12280
URL:
https://onlinelibrary.wiley.com/doi/abs/10.1111/emip.12280
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Einflussfaktor; Schülerleistung; Frage; Antwort; Interaktion; Unterschied; Vergleich; Item-Response-Theory; Deutschland; PISA <Programme for International Student Assessment>; Leseverstehen; Messverfahren; Testkonstruktion; Korrelation; Äquivalenz; Papier-Bleistift-Test; Computerunterstütztes Verfahren; Technologiebasiertes Testen; Leistungsmessung; Testverfahren; Testdurchführung
Abstract:
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
Abstract (english):
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
DIPF-Departments:
Bildungsqualität und Evaluation
Kompetenzdiagnostik
Frey, Andreas; Hartig, Johannes
Book Chapter
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2019
38881 Endnote
Author(s):
Frey, Andreas; Hartig, Johannes
Title:
Kompetenzdiagnostik
In:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2019 , S. 849-858
Publication Type:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Kompetenz; Diagnostik; Schülerleistung; Leistungsmessung; Kognitive Kompetenz; Schülerleistungstest; Testkonstruktion; Datenerfassung; Testauswertung; Interpretation; Qualität; Bewertung; Testdurchführung; Planung
Abstract:
Mit dem vorliegenden Beitrag wird das Feld der Kompetenzdiagnostik zusammenfassend dargestellt. Konkret wird dabei beschrieben, (a) was unter Kompetenzdiagnostik zu verstehen ist und welche Ziele mit ihr verfolgt werden, (b) wie Kompetenztests entwickelt und (c) wie sie angewendet werden. Das Kapitel schließt mit einem zusammenfassenden Fazit und einem Ausblick auf künftige Entwicklungsmöglichkeiten. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Vertiefende Analysen zur Umstellung des Modus von Papier auf Computer
Goldhammer, Frank; Harrison, Scott; Bürger, Sarah; Kroehne, Ulf; Lüdtke, Oliver; […]
Book Chapter
| Aus: Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf (Hrsg.): PISA 2018: Grundbildung im internationalen Vergleich | Münster: Waxmann | 2019
39806 Endnote
Author(s):
Goldhammer, Frank; Harrison, Scott; Bürger, Sarah; Kroehne, Ulf; Lüdtke, Oliver; Robitzsch, Alexander; Köller, Olaf; Heine, Jörg-Henrik; Mang, Julia
Title:
Vertiefende Analysen zur Umstellung des Modus von Papier auf Computer
In:
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf (Hrsg.): PISA 2018: Grundbildung im internationalen Vergleich, Münster: Waxmann, 2019 , S. 163-186
URL:
https://www.pisa.tum.de/fileadmin/w00bgi/www/Berichtsbaende_und_Zusammenfassungungen/PISA_2018_Berichtsband_online_29.11.pdf#page=163
Publication Type:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
PISA <Programme for International Student Assessment>; Papier-Bleistift-Test; Technologiebasiertes Testen; Veränderung; Methode; Wirkung; Computerunterstütztes Verfahren; Testaufgabe; Antwort; Schwierigkeit; Lesen; Mathematik; Naturwissenschaften; Testkonstruktion; Testdurchführung; Korrelation; Vergleich; Deutschland
Abstract:
In PISA 2015 wurde der Erhebungsmodus von Papier zu Computer umgestellt. Eine nationale Ergänzungsstudie im Rahmen von PISA 2018 hatte entsprechend das Ziel, vertiefende Analysen zu möglichen Unterschieden papierbasierter und computerbasierter Messungen durchzuführen. Im Fokus standen die Vergleichbarkeit des gemessenen Konstrukts und der einzelnen Aufgaben (Items), beispielsweise hinsichtlich ihrer Schwierigkeit. Darüber hinaus wurden die Auswirkungen des Moduswechsels auf die Vergleichbarkeit mit den Ergebnissen früherer PISA-Erhebungen in Deutschland untersucht. Als empirische Basis wurden Daten aus dem PISA-2015-Feldtest genutzt sowie Daten, die im Rahmen der nationalen PISA-Haupterhebung 2018 an einem zweiten Testtag mit papierbasierten Testheften aus PISA 2009 zusätzlich erhoben wurden. Erste Ergebnisse der Ergänzungsstudie liefern Belege für die Konstruktäquivalenz zwischen papier- und computerbasierten Messungen. Zudem weisen die Daten der Ergänzungsstudie darauf hin, dass die computerbasierten Items im Mittel etwas schwieriger sind als die papierbasierten Items. Hinsichtlich der Veränderungen zwischen 2015 und 2018 zeigt sich eine hohe Übereinstimmung von international berichtetem (originalem) und nationalem (marginalem) Trend. Die Veränderungen zwischen 2009 und 2018 fallen für den nationalen Trend, der allein auf papierbasierten Messungen beruht, insgesamt etwas günstiger aus als für den originalen Trend. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
What to make of and how to interpret process data
Goldhammer, Frank; Zehner, Fabian
Journal Article
| In: Measurement: Interdisciplinary Research and Perspectives | 2017
38066 Endnote
Author(s):
Goldhammer, Frank; Zehner, Fabian
Title:
What to make of and how to interpret process data
In:
Measurement: Interdisciplinary Research and Perspectives, 15 (2017) 3/4, S. 128-132
DOI:
10.1080/15366367.2017.1411651
URN:
urn:nbn:de:0111-dipfdocs-192082
URL:
http://www.dipfdocs.de/volltexte/2020/19208/pdf/Measurement_2017_3-4_Goldhammer_Zehner_What_to_make_of_and_how_to_interpret_process_data_A.pdf
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Technologiebasiertes Testen; Kognitive Kompetenz; Testdurchführung; Kognitive Prozesse; Datenanalyse; Indikator; Interpretation; Validität
Abstract (english):
Maddox (2017) argues that respondents' talk and gesture during an assessment inform researchers how a response product has evolved. Indeed, how a task is performed represents key information for psychological and educational assessment. [...] Recently, process data has increasingly gained attention in cognitive ability testing given the digitalization of measurement and the possibility of exploiting log file data. [...] As shown by Maddox for large-scale assessments, even talk and gesture can be regarded as useful process data. In this case, the process data is not only video-recorded but also observed by the interviewer in situ; the interviewer interactively uses it to influence the test-taking process and to reduce construct-irrelevant variance. Thus, like product data (e.g., scores), process data is used to draw inferences. We argue in the following that the interpretation and use of process data and derived indicators require validation, just as product data do (Kane, 2013). This theoretical background, including some examples about log file data, sets the ground for our comments on Maddox's use of "talk and gesture as process data." (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
PISA 2015. Eine Studie zwischen Kontinuität und Innovation
Reiss, Kristina; Sälzer, Christine; Schiepe-Tiska, Anja; Klieme, Eckhard; Köller, Olaf (Hrsg.)
Compilation Book
| Münster: Waxmann | 2016
36828 Endnote
Editor(s)
Reiss, Kristina; Sälzer, Christine; Schiepe-Tiska, Anja; Klieme, Eckhard; Köller, Olaf
Title:
PISA 2015. Eine Studie zwischen Kontinuität und Innovation
Published:
Münster: Waxmann, 2016
URL:
https://www.waxmann.com/fileadmin/media/zusatztexte/3555Volltext.pdf
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Deutschland; Einstellung <Psy>; Eltern; Empirische Untersuchung; Entdeckendes Lernen; Forschendes Lernen; Fragebogen; Freude; Geschlechtsspezifischer Unterschied; Interesse; Internationale Organisation; Internationaler Vergleich; Jugendlicher; Kompetenzerwerb; Konzeption; Leistungsmessung; Lernbedingungen; Lernumgebung; Lesekompetenz; Mathematische Kompetenz; Migrationshintergrund; Motivation; Naturwissenschaftliche Kompetenz; Naturwissenschaftlicher Unterricht; OECD-Länder; Organisation; PISA <Programme for International Student Assessment>; Qualität; Querschnittuntersuchung; Reliabilität; Schulentwicklung; Schülerleistung; Schülerleistungstest; Schulform; Schulklima; Sekundarbereich; Selbstwirksamkeit; Skalierung; Soziale Herkunft; Stichprobe; Technologiebasiertes Testen; Teilnehmer; Testaufgabe; Testauswertung; Testdurchführung; Testkonstruktion; Testmethodik; Überzeugung; Validität; Veränderung; Wahrnehmung
Abstract:
Alle drei Jahre testet PISA den Stand der Grundbildung fünfzehnjähriger Jugendlicher in den Bereichen Naturwissenschaften, Mathematik und Lesen und untersucht so Stärken und Schwächen von Bildungssystemen im Vergleich der OECD-Staaten. Zentral ist dabei die Frage, inwieweit es den teilnehmenden Staaten gelingt, die Schülerinnen und Schüler während der Schulpflicht auf ihre weiteren Bildungs- und Berufswege vorzubereiten. Der nationale Berichtsband stellt die Ergebnisse aus PISA 2015 vor, die von den Schülerinnen und Schülern in Deutschland erreicht wurden, und setzt sie in Relation zu den Ergebnissen in anderen OECD-Staaten. Der Schwerpunkt der Erhebungen und Auswertungen liegt dabei auf den Naturwissenschaften. PISA 2015 bildet als sechste Erhebungsrunde des Programme for International Student Assessment der OECD zugleich den Abschluss des zweiten Zyklus der Studie und den Beginn der computerbasierten Testung. Unter Beibehaltung wesentlicher Standards der Datenerhebung und -auswertung wurden in PISA 2015 mit dem Erhebungsmodus am Computer, einem differenzierteren Skalierungsmodell und einem erweiterten Testdesign mehrere Neuerungen eingeführt. Sie tragen Veränderungen in der Lern- und Lebenswelt Rechnung und werden die Aussagekraft der PISA-Studien auf lange Sicht verbessern. Mit Blick auf diese Balance zwischen Kontinuität und Innovation werden die Befunde aus PISA 2015 in diesem Band eingeordnet und diskutiert. (DIPF/Verlag)
DIPF-Departments:
Bildungsqualität und Evaluation
Die Automatisierung prozeduralen Wissens. Eine Analyse basierend auf Prozessdaten
Stelter, Annette; Goldhammer, Frank; Naumann, Johannes; Rölke, Heiko
Book Chapter
| Aus: Stiller, Jurik; Laschke, Christin (Hrsg.): Berlin-Brandenburger Beiträge zur Bildungsforschung 2015: Herausforderungen, Befunde und Perspektiven interdisziplinärer Bildungsforschung | Frankfurt am Main: Lang | 2015
35596 Endnote
Author(s):
Stelter, Annette; Goldhammer, Frank; Naumann, Johannes; Rölke, Heiko
Title:
Die Automatisierung prozeduralen Wissens. Eine Analyse basierend auf Prozessdaten
In:
Stiller, Jurik; Laschke, Christin (Hrsg.): Berlin-Brandenburger Beiträge zur Bildungsforschung 2015: Herausforderungen, Befunde und Perspektiven interdisziplinärer Bildungsforschung, Frankfurt am Main: Lang, 2015 , S. 111-132
URL:
http://www.peterlang.com/index.cfm?event=cmp.ccc.seitenstruktur.detailseiten&seitentyp=produkt&pk=83370&concordeid=265709
Publication Type:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Language:
Deutsch
Keywords:
Antwort; Aufgabe; Automatisierung; Datenanalyse; Kognitive Kompetenz; Kompetenzerwerb; Leistung; PIAAC <Programme for the International Assessment of Adult Competencies>; Regressionsanalyse; Technologiebasiertes Testen; Teilnehmer; Test; Testdurchführung; Wissen; Zeit
Abstract:
Prozessbezogene Verhaltensdaten aus computerbasierten Large Scale Assessments bieten neue Möglichkeiten zur Beschreibung des Bearbeitungsprozesses von Testteilnehmern. Dazu gehört auch die Anwendung von prozeduralem Wissen bei der Aufgabenbearbeitung. Prozedurales Wissen ist Wissen darüber, wie Tätigkeiten ausgeführt werden. Dabei nimmt mit zunehmender Expertise der Automatisierungsgrad prozeduralen Wissens zu, was anspruchsvollere kognitive Leistungen ermöglicht. Testteilnehmer brauchen zum Lösen komplexer Probleme unter anderem prozedurales Wissen und werden sich dabei im Grad der Automatisierung dieses Wissens unterscheiden. In dieser Studie wird ein Indikator für Automatisierung anhand aggregierter Testteilnehmerinteraktionen aus Protokolldaten extrahiert. Hierfür werden Daten aus dem computerbasierten Teil des 'Programme for the International Assessment of Adult Competencies' (PIAAC) genutzt. Basierend auf theoretischen Annahmen zum Kompetenzerwerb werden basale Teilaufgaben identifiziert, für die der individuelle Grad an Automatisierungen durch zeitbasierte Indikatoren erfasst wird. Anschließend werden logistische Regressionen berechnet, um die Beziehung dieser Indikatoren zur Wahrscheinlichkeit, mit der eine Aufgabe gelöst wird, zu ermitteln. Die Ergebnisse zeigen erwartungsgemäß einen negativen Zusammenhang zwischen der Lösungswahrscheinlichkeit einer Problemlöseaufgabe und der Geschwindigkeit bei der Bearbeitung basaler Teilaufgaben.
Abstract (english):
In educational research there are new ways of answering research questions through the use of behavioral process data. Behavioral process data gives detailed insight into the problem solving behavior of each test taker, including the activation of procedural knowledge. Procedural knowledge means knowing how to solve a task. With a higher degree of experience this kind of knowledge will become more automated and allows persons to successfully engage in more demanding cognitive tasks. Problem Solving requires this automation in procedural knowledge and test takers will differ in their degree of automation. This study shows how the degree of automation is related to success in problem solving tasks. To this end, we use data from the 'Programme for the International Assessment of Adult Competencies' (PIAAC). We first identify routine steps in PIAAC problem solving tasks that can be accomplished by activation of automated procedural knowledge. We measure the degree of automation through the time subjects need to take these routine steps. Logistic regression models are used to calculate the relation between the time taken and the probability of success on the task. First results show that indeed probability of success is highest, when subjects need only little time to take routine steps, presumably due to a high degree of automation.
DIPF-Departments:
Bildungsqualität und Evaluation; Informationszentrum Bildung
PIAAC Germany 2012. Technical report
Zabal, Anouk; Martin, Silke; Massing, Natascha; Ackermann, Daniela; Helmschrott, Susanne; […]
Monograph
| Münster: Waxmann | 2014
34754 Endnote
Author(s):
Zabal, Anouk; Martin, Silke; Massing, Natascha; Ackermann, Daniela; Helmschrott, Susanne; Barkow, Ingo; Rammstedt, Beatrice
Title:
PIAAC Germany 2012. Technical report
Published:
Münster: Waxmann, 2014
URL:
http://www.gesis.org/fileadmin/piaac/Downloadbereich/TechnicalReport-ebook.pdf
Publication Type:
1. Monographien (Autorenschaft); Monographie
Language:
Englisch
Keywords:
Bericht; Daten; Deutschland; Erhebungsinstrument; Erwachsener; Forschungsdesign; Fragebogen; Interview; Kognitive Kompetenz; Leistungsmessung; Leistungstest; Lesekompetenz; Mathematische Kompetenz; PIAAC <Programme for the International Assessment of Adult Competencies>; Problemlösen; Qualität; Technologiebasiertes Testen; Testdurchführung; Testkonstruktion
Abstract:
The Programme for the International Assessment of Adult Competencies (PIAAC) is a large-scale initiative of the Organization for Economic Cooperation and Development (OECD) that aims at assessing key adult competencies considered important for individual and societal success. This technical report describes how the PIAAC survey was conducted in Germany. It provides information on the PIAAC instruments: the background questionnaire and the cognitive assessment. Furthermore, it describes sampling, fieldwork, weighting, and nonresponse bias analyses. The report concludes with an overview of the data management processes and data products as well as a brief evaluation of the overall data quality. (DIPF/Verlag)
DIPF-Departments:
Informationszentrum Bildung
Diagnostik mathematischer Kompetenzen
Hasselhorn, Marcus; Heinze, Aiso; Schneider, Wolfgang; Trautwein, Ulrich (Hrsg.)
Compilation Book
| Göttingen: Hogrefe | 2013
33479 Endnote
Editor(s)
Hasselhorn, Marcus; Heinze, Aiso; Schneider, Wolfgang; Trautwein, Ulrich
Title:
Diagnostik mathematischer Kompetenzen
Published:
Göttingen: Hogrefe, 2013 (Tests und Trends. N.F., 11)
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Arithmetik; Computerunterstütztes Verfahren; Deutschland; Diagnose; Diagnostik; Didaktik; Empirische Forschung; Erzieher; Evaluation; Förderungsmaßnahme; Größe; Grundschulalter; Grundschule; Interview; Kind; Kindergarten; Kompetenzerwerb; Leistungstest; Mathematiklehrer; Mathematische Kompetenz; Mathematisches Denken; Modellierung; Papier-Bleistift-Test; Prognose; Raumvorstellung; Rechenschwierigkeit; Rechentest; Rechenunterricht; Screening-Verfahren; Sekundarstufe I; Testdurchführung; Testkonstruktion; Testtheorie; Testverfahren; Vorschulalter; Zahlbegriff
Abstract:
Die diagnostische Erfassung von mathematischen Kompetenzen ist in der Praxis und der Forschung von zentralem Interesse und Bestandteil vieler empirischer Untersuchungen. Letztere behandeln neben Fragestellungen der Grundlagenforschung aus der Psychologie, den Erziehungswissenschaften oder der Mathematikdidaktik auch die Auswahl geeigneter Maßnahmen für das Bildungsmonitoring oder die individuelle Förderung von Lernenden in Bildungseinrichtungen. Die vorliegenden Testverfahren bedienen sich je nach Ziel spezifischer Methoden und Vorgehensweisen. So werden neben dem klassischen Papier und Bleistift-Test etwa auch computergestützte Verfahren eingesetzt, IRT-skalierte Itempools für Längsschnittstudien entwickelt oder Interviewverfahren mit qualitativen und quantitativen Auswertungsmöglichkeiten bereitgestellt. Der vorliegende Band greift diesen Forschungsbereich in seiner gesamten Breite auf und ergänzt den ersten Mathematikband dieser Reihe von 2005 um aktuelle Tests und Trends. Somit erhält der Leser einerseits Informationen über die aktuellen Ergebnisse der pädagogisch-psychologischen und mathematikdidaktischen Forschung zu Mathematikleistungen, -kompetenzen und -schwächen. Andererseits informiert der Band in bewährter Manier über die aktuell verfügbaren und sich in Vorbereitung befindlichen Testverfahren zur Diagnose mathematischer Kompetenzen und Schwierigkeiten.
DIPF-Departments:
Bildung und Entwicklung
Unselect matches
Select all matches
Export
1
2
3
>
Show all
(24)