Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Fehlende Daten")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
11
Inhalte gefunden
Alle Details anzeigen
Zentrale quantitative Auswertungsverfahren
Becker, Michael; Maaz, Kai
Sammelbandbeitrag
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2022
42715 Endnote
Autor*innen:
Becker, Michael; Maaz, Kai
Titel:
Zentrale quantitative Auswertungsverfahren
Aus:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2022 , S. 948-958
Dokumenttyp:
4. Beiträge in Sammelbänden; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Fehlende Daten; Quantitative Forschung; Schulforschung; Bildungsforschung; Statistische Methode; Modellierung; Stichprobe; Datenanalyse; Verfahren; Mehrebenenanalyse; Pfadanalyse; Skalierung; Längsschnittuntersuchung; Panel
Abstract:
[Im Beitrag wird] nach einer kurzen Darstellung der Gemeinsamkeiten statistischer Modellierung, die die Schul- und Bildungsforschung mit den meisten Sozialwissenschaften teilt, ein Überblick über die spezifischen Auswertungsverfahren gegeben, die sich vor allem in der quantitativen Bildungs- und Schulforschung häufig finden. Hierbei wird weniger auf die Darstellung spezifischer Kennwerte und ihrer Eigenschaften als auf die generelle Verwendung und den epistemologischen Zweck der Verfahren eingegangen. Der Fokus ist darauf gelegt, die wichtigsten statistischen Probleme und gegenwärtig gängigen analytischen Lösungen, wie sie in einer Vielzahl von Studien der Bildungs- und Schulforschung vorzufinden und zu adressieren sind, auf einer konzeptuellen Ebene zusammenzufassen und Hinweise für einen tieferen Einstieg in die Themen zu geben. Insofern sollen - nach einer kurzen Erläuterung der beiden grundlegenden Aspekte statistischer Modellierung (Deskriptive und Inferenzstatistik) im Allgemeinen - vier Aspekte quantitativer Auswertungen vorgestellt werden, wie sie unserer Meinung nach zentral für die quantitative Bildungs- und Schulforschung sind: (1) Hierarchische Datenstrukturen und Mehrebenenmodelle, (2) Pfadanalysen und längsschnittliche cross-lagged panel-Analysen, Fragen (3) fehlender Werte und (4) der Leistungsskalierung. (DIPF/Orig.)
DIPF-Abteilung:
Struktur und Steuerung des Bildungswesens
Zentrale quantitative Auswertungsverfahren
Becker, Michael; Maaz, Kai
Sammelbandbeitrag
| Aus: Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik | Münster: Waxmann | 2019
38906 Endnote
Autor*innen:
Becker, Michael; Maaz, Kai
Titel:
Zentrale quantitative Auswertungsverfahren
Aus:
Harring, Marius; Rohlfs, Carsten; Gläser-Zikuda, Michaela (Hrsg.): Handbuch Schulpädagogik, Münster: Waxmann, 2019 , S. 869-879
Dokumenttyp:
4. Beiträge in Sammelwerken; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Schulforschung; Quantitative Forschung; Statistische Methode; Datenanalyse; Modell; Mehrebenenanalyse; Pfadanalyse; Fehlende Daten; Skalierung; Panel
Abstract:
[Es wird] nach einer kurzen Darstellung der Gemeinsamkeiten statistischer Modellierung, die die Schul- und Bildungsforschung mit den meisten Sozialwissenschaften teilt, ein Überblick über die spezifischen Auswertungsverfahren gegeben, die sich vor allem in der quantitativen Bildungs- und Schulforschung häufig finden. Hierbei wird weniger auf die Darstellung spezifischer Kennwerte und ihrer Eigenschaften als auf die generelle Verwendung und den epistemologischen Zweck der Verfahren eingegangen. Der Fokus ist darauf gelegt, die wichtigsten statistischen Probleme und gegenwärtig gängigen analytischen Lösungen, wie sie in einer Vielzahl von Studien der Bildungs- und Schulforschung vorzufinden und zu adressieren sind, auf einer konzeptuellen Ebene zusammenzufassen und Hinweise für einen tieferen Einstieg in die Themen zu geben. Insofern sollen - nach einer kurzen Erläuterung der beiden grundlegenden Aspekte statistischer Modellierung (Deskriptive und inferenzstatistik) im Allgemeinen - vier Aspekte quantitativer Auswertungen vorgestellt werden, wie sie unserer Meinung nach zentral für die quantitative Bildungs- und Schulforschung sind: (1) Hierarchische Datenstrukturen und Mehrebenenmodelle, (2) Pfadanalysen und längsschnittliche cross-lagged panel-Analysen, Fragen (3) fehlender Werte und (4) der Leistungsskalierung. (DIPF/Orig.)
DIPF-Abteilung:
Struktur und Steuerung des Bildungswesens
Response time-based treatment of omitted responses in computer-based testing
Frey, Andreas; Spoden, Christian; Goldhammer, Frank; Wenzel, S. Franziska C.
Zeitschriftenbeitrag
| In: Behaviormetrika | 2018
38894 Endnote
Autor*innen:
Frey, Andreas; Spoden, Christian; Goldhammer, Frank; Wenzel, S. Franziska C.
Titel:
Response time-based treatment of omitted responses in computer-based testing
In:
Behaviormetrika, 45 (2018) 2, S. 505-526
DOI:
10.1007/s41237-018-0073-9
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Methode; Technologiebasiertes Testen; Antwort; Dauer; Verhalten; Item-Response-Theory; Fehlende Daten; Datenanalyse; Testaufgabe; Typologie; Medienkompetenz; Schülerleistungstest; Testauswertung
Abstract:
A new response time-based method for coding omitted item responses in computer-based testing is introduced and illustrated with empirical data. The new method is derived from the theory of missing data problems of Rubin and colleagues and embedded in an item response theory framework. Its basic idea is using item response times to statistically test for each individual item whether omitted responses are missing completely at random (MCAR) or missing due to a lack of ability and, thus, not at random (MNAR) with fixed type-1 and type-2 error levels. If the MCAR hypothesis is maintained, omitted responses are coded as not administered (NA), and as incorrect (0) otherwise. The empirical illustration draws from the responses given by N = 766 students to 70 items of a computer-based ICT skills test. The new method is compared with the two common deterministic methods of scoring omitted responses as 0 or as NA. In result, response time thresholds from 18 to 58 s were identified. With 61%, more omitted responses were recoded into 0 than into NA (39%). The differences in difficulty were larger when the new method was compared to deterministically scoring omitted responses as NA compared to scoring omitted responses as 0. The variances and reliabilities obtained under the three methods showed small differences. The paper concludes with a discussion of the practical relevance of the observed effect sizes, and with recommendations for the practical use of the new method as a method to be applied in the early stage of data processing. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Questionnaire development and design for international large-scale asessments (ILSAs) Current […]
Jude, Nina; Kuger, Susanne
Verschiedenartige Dokumente
| 2018
38276 Endnote
Autor*innen:
Jude, Nina; Kuger, Susanne
Titel:
Questionnaire development and design for international large-scale asessments (ILSAs) Current practice, challenges, and recommendations
Erscheinungsvermerk:
Washington; DC: National Academy of Education, 2018
URL:
http://naeducation.org/wp-content/uploads/2018/02/2018-Questionnaire-Design-for-ILSA_v02-1.pdf
Dokumenttyp:
5. Arbeits- und Diskussionspapiere; Stellungnahme/Positionspapier
Sprache:
Englisch
Schlagwörter:
Konzeption; Fragebogen; Bildungsforschung; Empirische Forschung; Indikator; Schülerleistung; Motivation; Messverfahren; Erhebungsinstrument; Computerunterstütztes Verfahren; Anpassung; Übersetzung; Sozioökonomische Lage; Heterogenität; Inklusion; Antwort; Fehlende Daten; Validität; Daten; Dokumentation; Vergleichsuntersuchung; Internationaler Vergleich
Abstract:
This paper summarizes the latest practices and research topics in questionnaire use for international large-scale assessments (ILSAs). We point to the most important aspects in questionnaire design and development for international studies and highlight current challenges for the cross-cultural measurement of context factors in education. Finally, we open the discussion for research and policy issues that might lead to recommendations concerning an improved usage of context questionnaires in future studies. While we provide insight into a range of different studies, many of our examples will focus on the Program for International Student Assessment (PISA), one of the best known ILSAs and our area of expertise. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Isn't something missing? Latent variable models accounting for item nonresponse
Köhler, Carmen
Monographie
| Berlin: Freie Universität | 2017
37162 Endnote
Autor*innen:
Köhler, Carmen
Titel:
Isn't something missing? Latent variable models accounting for item nonresponse
Erscheinungsvermerk:
Berlin: Freie Universität, 2017
URN:
urn:nbn:de:kobv:188-fudissthesis000000103203-8
URL:
http://www.diss.fu-berlin.de/diss/receive/FUDISS_thesis_000000103203
Dokumenttyp:
1. Monographien (Autorenschaft); Monographie
Sprache:
Englisch
Schlagwörter:
Empirische Forschung; Evaluation; Fehlende Daten; Item-Response-Theory; Kompetenz; Leistungsmessung; Modell; Schülerleistung; Schülerleistungstest; Statistische Methode; Testauswertung
Abstract:
Item nonresponse in competence tests pose a threat to a valid and reliable competence measurement, especially if the missing values occur systematically and relate to the unobserved response. This is often the case in the context of large-scale assessments, where the failure to respond to an item relates to examinee ability. Researchers developed methods that consider the dependency between ability and item nonresponse by incorporating a model for the process that causes missing values into the measurement model for ability. These model-based approaches seem very promising and might prove superior to common missing data approaches, which typically fail at taking the dependency between ability and nonresponse into account. Up to this point, the approaches have barely been investigated in terms of applicability and performance with regard to the scaling of competence tests in large-scale assessments. The current dissertation bridges the gap between these theoretically postulated models and their possible implementation in the context of large-scale assessments. It aims at (1) testing the applicability of model-based approaches to competence test data, and (2) evaluating whether and under what missing data conditions these approaches are superior to common missing data approaches. Three research studies were conducted for this purpose. Study 1 investigated the assumptions of model-based approaches, whether they hold in empirical practice, and how violations to those assumptions affect individual person parameters. Study 2 focused on features of examinees' nonresponse behavior, such as its stability across different competence tests and how it relates to other examinee characteristics. Study 3 examined the performance of model-based approaches compared to other approaches. Results demonstrate that model-based approaches can be applied to large-scale assessment data, though slight extensions of the models might enhance accuracy in parameter estimates. Further, persons' tendencies not to respond can be considered person-specific attributes, which are relatively constant across different competence tests and also relate to other stable person characteristics. Findings from the third study confirmed the superiority of the model-based approaches compared to common missing data approaches, although a model that simply ignores missing values also led to acceptable results. Model-based approaches show serval advantages over common missing data approaches. Considering their complexity, however, the benefits and drawbacks from different methods need to be weighed. Important issues in the debate on an appropriate scaling method concern model complexity, consequences on examinees' test-taking behavior, and precision of parameter estimates. For many large-scale assessments, a change in the missing data treatment is clearly necessary. Whether model-based approaches will replace former methods is yet to be determined. They certainly count amongst the most advanced methods to handle missing values in the scaling of competence tests. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Dealing with item nonresponse in large-scale cognitive assessments. The impact of missing data […]
Köhler, Carmen; Pohl, Steffi; Carstensen, Claus H.
Zeitschriftenbeitrag
| In: Journal of Educational Measurement | 2017
38004 Endnote
Autor*innen:
Köhler, Carmen; Pohl, Steffi; Carstensen, Claus H.
Titel:
Dealing with item nonresponse in large-scale cognitive assessments. The impact of missing data methods on estimated explanatory relationships
In:
Journal of Educational Measurement, 54 (2017) 4, S. 397-419
DOI:
10.1111/jedm.12154
URN:
urn:nbn:de:0111-dipfdocs-174619
URL:
http://www.dipfdocs.de/volltexte/2019/17461/pdf/KoehlerPohlCarstensen2017_A.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Datenanalyse; Schülerleistungstest; Leistungsmessung; Fehlende Daten; Fragebogen; Antwort; Wirkung; Messverfahren; PISA <Programme for International Student Assessment>; Panel; Lesekompetenz; Regression; Simulation
Abstract:
Competence data from low-stakes educational large-scale assessment studies allow for evaluating relationships between competencies and other variables. The impact of item-level nonresponse has not been investigated with regard to statistics that determine the size of these relationships (e.g., correlations, regression coefficients). Classical approaches such as ignoring missing values or treating them as incorrect are currently applied in many large-scale studies, while recent model-based approaches that can account for nonignorable nonresponse have been developed. Estimates of item and person parameters have been demonstrated to be biased for classical approaches when missing data are missing not at random (MNAR). In our study, we focus on parameter estimates of the structural model (i.e., the true regression coefficient when regressing competence on an explanatory variable), simulating data according to various missing data mechanisms. We found that model-based approaches and ignoring missing values performed well in retrieving regression coefficients even when we induced missing data that were MNAR. Treating missing values as incorrect responses can lead to substantial bias. We demonstrate the validity of our approach empirically and discuss the relevance of our results. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Handling missing data in structural equation models in R. A replication study for applied […]
Wolgast, Anett; Schwinger, Malte; Hahnel, Carolin; Stiensmeier-Pelster, Joachim
Zeitschriftenbeitrag
| In: Electronic Journal of Research in Educational Psychology | 2017
37327 Endnote
Autor*innen:
Wolgast, Anett; Schwinger, Malte; Hahnel, Carolin; Stiensmeier-Pelster, Joachim
Titel:
Handling missing data in structural equation models in R. A replication study for applied researchers
In:
Electronic Journal of Research in Educational Psychology, 15 (2017) 1, S. 5-47
DOI:
10.14204/ejrep.41.16125
URL:
http://investigacion-psicopedagogica.org/revista/articulos/41/english/Art_41_16125.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Strukturgleichungsmodell; Fehlende Daten; Datenanalyse; Beispiel; Lehramtsstudent; Schüler; Selbstkonzept; Ziel; Fragebogenerhebung; Empirische Untersuchung; Deutschland
Abstract:
Introduction. Multiple imputation (MI) is one of the most highly recommended methods for replacing missing values in research data. The scope of this paper is to demonstrate missing data handling in SEM by analyzing two modified data examples from educational psychology, and to give practical recommendations for applied researchers. Method. We provide two examples (N = 589 and N = 621, respectively) based on previous studies of students' self-concepts, mastery goals and performance avoidance goals, and a 7-step tutorial. Then, we produced 20% and 40% missing data under three missing mechanisms by these complete, genuine data sets. The resulting datasets were then analyzed by (1) listwise deletion and structural equation models (SEM), (2) full information maximum likelihood (FIML) with SEM, and (3) MI combined with SEM and pooling. Thus, the results stem from 2 x 3 x 3 conditions. Results. Previous research was replicated by illustrating a practical way to combine MI with SEM and pooling. The assumed factor structure was depicted in both examples with multiply imputed values applied. Discussion. We suggest adding variables to clarify the missing data mechanism, especially for dependent variables as motivation. Such variables might indicate whether missing values in dependent variables are correlated with independent variables (e.g., interest) or the dependent variable itself (e.g. lack of motivation independently of interest). (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Durchführung, Datengrundlage, Erhebungsinstrumente und statistische Methoden
Becker, Michael; Neumann, Marko; Radmann, Susanne; Jansen, Malte; Nagy, Gabriel; […]
Sammelbandbeitrag
| Aus: Neumann, Marko; Becker, Michael; Baumert, Jürgen; Maaz, Kai; Köller, Olaf (Hrsg.): Zweigliedrigkeit im deutschen Schulsystem: Potenziale und Herausforderungen in Berlin | Münster: Waxmann | 2017
37457 Endnote
Autor*innen:
Becker, Michael; Neumann, Marko; Radmann, Susanne; Jansen, Malte; Nagy, Gabriel; Borzikowsky, Christoph; Kropf, Michaela; Köller, Olaf; Maaz, Kai; Baumert, Jürgen
Titel:
Durchführung, Datengrundlage, Erhebungsinstrumente und statistische Methoden
Aus:
Neumann, Marko; Becker, Michael; Baumert, Jürgen; Maaz, Kai; Köller, Olaf (Hrsg.): Zweigliedrigkeit im deutschen Schulsystem: Potenziale und Herausforderungen in Berlin, Münster: Waxmann, 2017 , S. 55-80
Dokumenttyp:
4. Beiträge in Sammelbänden; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Schulsystem; Sekundarbereich; Vergleich; Struktur; Reform; Datenerfassung; Datenanalyse; Statistische Methode; Forschungsdesign; Durchführung; Schüler; Schuljahr 09; Leistungstest; Stichprobe; Fehlende Daten; Vergleichsuntersuchung; Empirische Untersuchung; Berlin
Abstract:
In diesem Kapitel wird die Datengrundlage für die Analyse des Vergleichs der Schülerinnen und Schüler in den beiden Berliner Sekundarschulsystemen vor und nach der Schulstrukturreform vorgestellt. Die beiden Untersuchungsgruppen bildeten Schülerinnen und Schüler des Schuljahres 2010/11 (Untersuchungsmodul 3; im Folgenden auch als "M3" oder als "Kontrollkohorte" bezeichnet) bzw. des Schuljahres 2013/14 (Untersuchungsmodul 2; im Folgenden auch "M2" oder "Reformkohorte" bezeichnet) im Sekundarschulsystem. Die untersuchte Schülerschaft befand sich entweder in der 9. Jahrgangsstufe des jeweiligen Schulsystems oder war Teil der Population 15-jähriger Schülerinnen und Schüler. Als Orientierung für die Instrumentierung dienten maßgeblich Instrumente aus dem Untersuchungsmodul 1 der BERLIN-Studie (Maaz, Baumert, Neumann, Becker, & Dumont, 2013), der Untersuchung Programme for International Student Assessment (PISA) aus dem Schuljahr 2005/06 (Prenzel, Artelt et al., 2007; Prenzel et al., 2008) sowie der Bildungsstandardsuntersuchung für die Sekundarstufe I aus dem Schuljahr 2008/09 (Köller, Knigge & Tesch, 2010). Im vorliegenden Kapitel wird zusammenfassend dargestellt, wie die BERLIN-Studie mit ihren Untersuchungsmodulen 2 und 3 angelegt wurde, um einen Vergleich der Kohorten vor und nach der Reform zu ermöglichen. Zunächst werden das grundlegende Design, die Beschreibung der spezifischen Populationen und Stichprobenziehungen und -gewichtungen beschrieben. Hierauf folgen eine Darstellung der realisierten Stichproben und ihrer Repräsentativität für die Jahrgänge sowie eine vergleichende Beschreibung der Stichproben der beiden Kohorten. Daran anschließend werden die statistischen Methoden zur Datenauswertung und zur Skalierung der Leistungswerte sowie der Umgang mit fehlenden Werten und der hierarchischen Datenstruktur beschrieben. (DIPF/Orig.)
DIPF-Abteilung:
Struktur und Steuerung des Bildungswesens
Aktuelle Lösungsansätze für methodische Herausforderungen in der Talent- und Begabungsforschung
Zettler, Ingo; Thoemmes, Franz; Hasselhorn, Marcus; Trautwein, Ulrich
Sammelbandbeitrag
| Aus: Stamm, Margrit (Hrsg.): Handbuch Talententwicklung: Theorien, Methoden und Praxis in Psychologie und Pädagogik | Bern: Huber | 2014
34390 Endnote
Autor*innen:
Zettler, Ingo; Thoemmes, Franz; Hasselhorn, Marcus; Trautwein, Ulrich
Titel:
Aktuelle Lösungsansätze für methodische Herausforderungen in der Talent- und Begabungsforschung
Aus:
Stamm, Margrit (Hrsg.): Handbuch Talententwicklung: Theorien, Methoden und Praxis in Psychologie und Pädagogik, Bern: Huber, 2014 , S. 475-484
Dokumenttyp:
4. Beiträge in Sammelwerken; Lexika/Enzyklopädie o.ä.
Sprache:
Deutsch
Schlagwörter:
Adaptives Testen; Begabtenförderung; Begabung; Fehlende Daten; Forschung; Forschungsdesign; Intervention; Mehrebenenanalyse; Methode; Standard; Verfahren
Abstract:
Es wird ein Überblick über zentrale methodische Herausforderungen in der Talentforschung gegeben und für die folgenden Herausforderungen Lösungsstrategien bzw. -ansätze skizziert: (1) mangelnde Standardisierung der Talentdefinitionen, (2) Schwierigkeit der Identifikation geeigneter Kontrollgruppen, (3) Dropout bei Interventions- und Längsschnittstudien, (4) erhöhtes Risiko der Varianzreduktion durch Deckeneffekte. Diskutiert wird die Nutzungsmöglichkeit von Mehrebenenanalysen, die Regressions-Diskontinuitäts-Analyse, das Propensity-Score-Matching, das Maximum-Likelihood-Verfahren, die Imputation fehlender Werte, das off-level-Testen sowie adaptives Testen.
DIPF-Abteilung:
Bildung und Entwicklung
Qualitätsstandards zur Entwicklung, Anwendung und Bewertung von Messinstrumenten in der […]
Rammstedt, Beatrice; Beierlein, Constanze; Brähler, Elmar; Eid, Michael; Hartig, Johannes; […]
Verschiedenartige Dokumente
| 2014
35103 Endnote
Autor*innen:
Rammstedt, Beatrice; Beierlein, Constanze; Brähler, Elmar; Eid, Michael; Hartig, Johannes; Kersting, Martin; Liebig, Stefan; Lukas, Josef; Mayer, Anne-Kathrin; Menold, Natalja; Schupp, Jürgen; Weichselgartner, Erich
Titel:
Qualitätsstandards zur Entwicklung, Anwendung und Bewertung von Messinstrumenten in der sozialwissenschaftlichen Umfrageforschung
Erscheinungsvermerk:
Mannheim: GESIS - Leibniz-Institut für Sozialwissenschaften, 2014
URL:
http://ratswd.de/dl/RatSWD_WP_230.pdf
Dokumenttyp:
5. Arbeits- und Diskussionspapiere; Arbeits- und Diskussionspapier (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Datenanalyse; Erhebungsinstrument; Fehlende Daten; Fehler; Forschung; Forschungsplanung; Fragebogen; Interpretation; Konzeption; Messung; Messverfahren; Qualität; Qualitätssicherung; Reliabilität; Sozialforschung; Sozialwissenschaften; Standard; Umfrage; Validität; Wirtschaftswissenschaft
Abstract:
Ende 2010 hat sich der Rat für Sozial- und Wirtschaftsdaten (RatSWD) der Fragestellung gewidmet, wie sich die Qualität von Erhebungsinstrumenten in den Sozial- und Wirtschaftswissenschaften, insbesondere in der entsprechenden Umfrageforschung prüfen und sichern lässt. Der RatSWD hat daher auf seiner Sitzung am 9. November 2012 beschlossen, eine Arbeitsgruppe Qualitätssicherung von Erhebungsinstrumenten unter Leitung von Prof. Rammstedt einzurichten. Insbesondere war die Berufung der Arbeitsgruppe mit dem Wunsch verbunden, Qualitätsstandards zu definieren, um hierdurch die Qualität zu sichern und zu optimieren. Die Arbeitsgruppe hat sich die Formulierung dieser Standards zum primären Ziel gesetzt. Die vorliegende Publikation stellt diese Standards dar.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Mathematische Kompetenz von Schülerinnen und Schülern mit Zuwanderungshintergrund
Gebhardt, Markus; Rauch, Dominique; Mang, Julia; Sälzer, Christine; Stanat, Petra
Sammelbandbeitrag
| Aus: Prenzel, Manfred; Sälzer, Christine; Klieme,Eckhard; Köller, Olaf (Hrsg.): PISA 2012: Fortschritte und Herausforderungen in Deutschland | Münster: Waxmann | 2013
34240 Endnote
Autor*innen:
Gebhardt, Markus; Rauch, Dominique; Mang, Julia; Sälzer, Christine; Stanat, Petra
Titel:
Mathematische Kompetenz von Schülerinnen und Schülern mit Zuwanderungshintergrund
Aus:
Prenzel, Manfred; Sälzer, Christine; Klieme,Eckhard; Köller, Olaf (Hrsg.): PISA 2012: Fortschritte und Herausforderungen in Deutschland, Münster: Waxmann, 2013 , S. 275-308
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
PISA <Programme for International Student Assessment>; Deutschland; Schüler; Migrationshintergrund; Mathematische Kompetenz; Schülerleistung; Unterschied; Herkunftsland; Fehlende Daten; Internationaler Vergleich; Familie; Sozioökonomische Lage; Erste Generation; Zweite Generation; Sprachgebrauch; Bildungsbeteiligung
Abstract:
In diesem Kapitel [werden] die Lebens- und Lernumwelten sowie die Mathematikkompetenz der Schülerinnen und Schüler mit und der Jugendlichen ohne Zuwanderungshintergrund beschrieben. In der Tradition des bisherigen natironalen PISA-Berichterstattung wurden dabei sowohl eine internationale wie auch eine auf Deutschland zugeschnittene, vertiefende Perspektive eingenommen. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Markierungen aufheben
Alle Treffer markieren
Export
Alle anzeigen
(11)