Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Validität")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
135
Inhalte gefunden
Alle Details anzeigen
Validität von Testwertinterpretationen
Hartig, Johannes; Frey, Andreas; Jude, Nina
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40526 Endnote
Autor*innen:
Hartig, Johannes; Frey, Andreas; Jude, Nina
Titel:
Validität von Testwertinterpretationen
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 529-545
DOI:
10.1007/978-3-662-61532-4_21
URL:
https://link.springer.com/chapter/10.1007%2F978-3-662-61532-4_21
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Test; Wert; Testauswertung; Interpretation; Validität; Qualität; Datenanalyse; Testkonstruktion; Testtheorie; Argumentation; Methode
Abstract:
Das Gütekriterium der Validität ist ein zentrales Qualitätskriterium. Es ist den Gütekriterien Objektivität und Reliabilität übergeordnet. Validität bezieht sich darauf, inwieweit Interpretationen von Testwerten und beabsichtigte Verwendungen von Tests gerechtfertigt sind. Das Verständnis von Validität hat sich in den letzten Jahrzehnten deutlich weiterentwickelt. Während sich im vergangenen Jahrhundert zunächst eine wenig praktikable Vielzahl "verschiedener Validitäten" herausgebildet hatte, wird Validität inzwischen als einheitliches Qualitätskriterium betrachtet, das Informationen aus verschiedenen Quellen integriert. Zudem wurde Validität früher als Eigenschaft eines Tests betrachtet, heute bezieht sie sich auf die Interpretation von Testwerten. Ein Test kann demnach nicht als solcher valide sein, vielmehr erfordert jede intendierte Testwertinterpretation eine separate Validierung. Im Kontext aktueller internationaler Forschung wird die Validierung von Testwertinterpretationen im Rahmen des sog. "argumentationsbasierten Ansatzes" beschrieben. Dabei muss zunächst die zu validierende Testwertinterpretation präzise formuliert werden. Dann werden empirische überprüfbare Grundannahmen der Testwertinterpretationen identifiziert. Hierauf wird empirische Evidenz gesammelt, anhand derer die Grundannahmen widerlegt oder vorläufig gestützt werden können. Wichtige Evidenzquellen sind die Testinhalte, die bei der Testbeantwortung ablaufenden kognitiven Prozesse, die interne Struktur der Testdaten und die Beziehungen der Testwerte zu anderen Variablen. Bei der abschließenden zusammenfassenden Bewertung wird eine Testwertinterpretation dann als valide betrachtet, wenn keine der zugrunde liegenden Annahmen widerlegt werden konnte. Die argumentationsbasierte Validierung gleicht theoriegeleiteter und hypothesenbasierter Forschung und erfolgt spezifisch für jede intendierte Testwertinterpretation. Der Abschluss eines Validierungsprozesses hat einen vorläufigen Charakter, da zukünftige Befunde eine Testwertinterpretation hinsichtlich einer oder mehrerer Grundannahmen widerlegen und damit infrage stellen können. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Scaling procedures and construct validation of context questionnaire data
Buchholz, Janine; Jude, Nina; Komorowski, Felix; Leck, Johanna
Verschiedenartige Dokumente
| 2020
39820 Endnote
Autor*innen:
Buchholz, Janine; Jude, Nina; Komorowski, Felix; Leck, Johanna
Titel:
Scaling procedures and construct validation of context questionnaire data
Erscheinungsvermerk:
Paris: OECD, 2020 (PISA 2018 technical report)
URL:
https://www.oecd.org/pisa/data/pisa2018technicalreport/PISA2018_Technical-Report-Chapter-16-Background-Questionnaires.pdf
Dokumenttyp:
5. Arbeits- und Diskussionspapiere; Forschungsbericht/Projektberichte/Schulrückmeldungen
Sprache:
Englisch
Schlagwörter:
PISA <Programme for International Student Assessment>; Fragebogen; Skalierung; Validität; Variable; Index; Berechnung; OECD-Staaten
Abstract:
The PISA 2018 Context Questionnaire are based on the questionnaire framework (OECD, 2018), described in chapter 3 of this report. Many questionnaire items were designed to be combined in some way in order to measure latent constructs that cannot be observed directly (e.g. a student's achievement motivation or economic, social and cultural background). To these items, transformations or scaling procedures were applied to contruct meaningful indices. In the following, these indices are referred to as "derived variables". This chapter describes derived variables based on one or more items that were constructed and validated for all questionnaires administered in PISA 2018.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Detecting mistakes in CPR training with multimodal data and neural networks
Di Mitri, Daniele; Schneider, Jan; Specht, Marcus; Drachsler, Hendrik
Zeitschriftenbeitrag
| In: Sensors | 2019
39363 Endnote
Autor*innen:
Di Mitri, Daniele; Schneider, Jan; Specht, Marcus; Drachsler, Hendrik
Titel:
Detecting mistakes in CPR training with multimodal data and neural networks
In:
Sensors, 19 (2019) 14, S. 3099
DOI:
10.3390/s19143099
URL:
https://www.mdpi.com/1424-8220/19/14/3099
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Neuropsychologie; Psychomotorik; Praktisches Lernen; Student; Medizin; Lernprozess; Datenanalyse; Computerprogramm; Messung; Fehler; Feedback; Automatisierung; Tutorensystem; Validität; Indikator
Abstract:
This study investigated to what extent multimodal data can be used to detect mistakes during Cardiopulmonary Resuscitation (CPR) training. We complemented the Laerdal QCPR ResusciAnne manikin with the Multimodal Tutor for CPR, a multi-sensor system consisting of a Microsoft Kinect for tracking body position and a Myo armband for collecting electromyogram information. We collected multimodal data from 11 medical students, each of them performing two sessions of two-minute chest compressions (CCs). We gathered in total 5254 CCs that were all labelled according to five performance indicators, corresponding to common CPR training mistakes. Three out of five indicators, CC rate, CC depth and CC release, were assessed automatically by the ReusciAnne manikin. The remaining two, related to arms and body position, were annotated manually by the research team. We trained five neural networks for classifying each of the five indicators. The results of the experiment show that multimodal data can provide accurate mistake detection as compared to the ResusciAnne manikin baseline. We also show that the Multimodal Tutor for CPR can detect additional CPR training mistakes such as the correct use of arms and body weight. Thus far, these mistakes were identified only by human instructors. Finally, to investigate user feedback in the future implementations of the Multimodal Tutor for CPR, we conducted a questionnaire to collect valuable feedback aspects of CPR training. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Validating test score interpretations using time information
Engelhardt, Lena; Goldhammer, Frank
Zeitschriftenbeitrag
| In: Frontiers in Psychology | 2019
39162 Endnote
Autor*innen:
Engelhardt, Lena; Goldhammer, Frank
Titel:
Validating test score interpretations using time information
In:
Frontiers in Psychology, (2019) , S. 10:1131
DOI:
10.3389/fpsyg.2019.01131
URN:
urn:nbn:de:0111-dipfdocs-174371
URL:
http://www.dipfdocs.de/volltexte/2020/17437/pdf/fpsyg-2019_may_Engelhardt_Goldhammer_Validating_test_score_interpretations_using_time_information_A.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Strukturgleichungsmodell; Empirische Untersuchung; Deutschland; Test; Validität; Computerunterstütztes Verfahren; Aufgabe; Antwort; Zeit; Fertigkeit; Kognitive Prozesse; Kognitive Kompetenz; Lesekompetenz; Denken; Leistungstest; PIAAC <Programme for the International Assessment of Adult Competencies>; Datenanalyse
Abstract (english):
A validity approach is proposed that uses processing times to collect validity evidence for the construct interpretation of test scores. The rationale of the approach is based on current research of processing times and on classical validity approaches, providing validity evidence based on relationships with other variables. Within the new approach, convergent validity evidence is obtained if a component skill, that is expected to underlie the task solution process in the target construct, positively moderates the relationship between effective speed and effective ability in the corresponding target construct. Discriminant validity evidence is provided if a component skill, that is not expected to underlie the task solution process in the target construct, does indeed not moderate the speed-ability relation in this target construct. Using data from a study that follows up the German PIAAC sample, this approach was applied to reading competence, assessed with PIAAC literacy items, and to quantitative reasoning, assessed with Number Series. As expected from theory, the effect of speed on ability in the target construct was only moderated by the respective underlying component skill, that is, word meaning activation skill as an underlying component skill of reading competence, and perceptual speed as an underlying component skill of reasoning. Accordingly, no positive interactions were found for the component skill that should not underlie the task solution process, that is, word meaning activation for reasoning and perceptual speed for reading. Furthermore, the study shows the suitability of the proposed validation approach. The use of time information in association with task results brings construct validation closer to the actual response process than widely used correlations of test scores. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of […]
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Zeitschriftenbeitrag
| In: Educational Assessment, Evaluation and Accountability | 2019
39120 Endnote
Autor*innen:
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Titel:
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of teaching quality
In:
Educational Assessment, Evaluation and Accountability, 31 (2019) 2, S. 201-220
DOI:
10.1007/s11092-019-09295-7
URN:
urn:nbn:de:0111-pedocs-190654
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-190654
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
PISA <Programme for International Student Assessment>; Unterricht; Qualität; Messung; Schüler; Wahrnehmung; Daten; Interkultureller Vergleich; Klassenführung; Kognitives Lernen; Sprache; Einflussfaktor; Messverfahren; Kulturdifferenz; Sprachproblem; Frage; Antwort; Testauswertung; Validität; Reliabilität; Vergleichende Bildungsforschung; Macau; Schanghai; Taipei; England; Schottland; Irland; Frankreich; Belgien; Schweiz; Österreich; Deutschland; Mexiko; Kolumbien
Abstract (english):
Valid cross-country comparisons of student learning and pivotal factors contributing to it, such as teaching quality, offer the possibility to learn from outstandingly effective educational systems across the world and to improve learning in classrooms by providing policy relevant information. Yet, it often remains unclear whether the instruments used in international large-scale assessments work similarly across different cultural and linguistic groups, and thus can be used for comparing them. Using PISA 2012 data, we investigated data comparability of three teaching quality dimensions, namely student support, classroom management, and cognitive activation using a newly developed psychometric approach, namely alignment. Focusing on 15 countries, grouped into five linguistic clusters, we secondly assessed the impact of linguistic similarity on data comparability. Main findings include that (1) comparability of teaching quality measures is limited when comparing linguistically diverse countries; (2) the level of comparability varies across dimensions; (3) linguistic similarity considerably enhances the degree of comparability, except across the Chinese-speaking countries. Our study illustrates new and more flexible possibilities to test for data comparability and outlines the importance to consider cultural and linguistic differences when comparing teaching-related measures across groups. We discuss possible sources of lacking data comparability and implications for comparative educational research. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Validating process variables of sourcing in an assessment of multiple document comprehension
Hahnel, Carolin; Kroehne, Ulf; Goldhammer, Frank; Schoor, Cornelia; Mahlow, Nina; Artelt, Cordula
Zeitschriftenbeitrag
| In: British Journal of Educational Psychology | 2019
39118 Endnote
Autor*innen:
Hahnel, Carolin; Kroehne, Ulf; Goldhammer, Frank; Schoor, Cornelia; Mahlow, Nina; Artelt, Cordula
Titel:
Validating process variables of sourcing in an assessment of multiple document comprehension
In:
British Journal of Educational Psychology, 89 (2019) 3, S. 524-537
DOI:
10.1111/bjep.12278
URN:
urn:nbn:de:0111-dipfdocs-191514
URL:
https://onlinelibrary.wiley.com/doi/full/10.1111/bjep.12278
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Leistungsmessung; Technologiebasiertes Testen; Dokument; Verstehen; Quelle; Information; Strategie; Logdatei; Indikator; Validität; Student; Universität; Deutschland
Abstract:
Background: With digital technologies, competence assessments can provide process data, such as mouse clicks with corresponding timestamps, as additional information about the skills and strategies of test takers. However, in order to use variables generated from process data sensibly for educational purposes, their interpretation needs to be validated with regard to their intended meaning. Aims: This study seeks to demonstrate how process data from an assessment of multiple document comprehension can be used to represent sourcing, which summarizes activities for the consideration of the origin and intention of documents. The investigated process variables were created according to theoretical assumptions about sourcing, and systematically tested for differences between persons, units (i.e., documents and items), and properties of the test administration. Sample: The sample included 310 German university students (79.4% female), enrolled in several bachelor's or master's programmes of the social sciences and humanities. Methods: Regarding the hierarchical data structure, the hypotheses were analysed with generalized linear mixed models (GLMM). Results: The results mostly revealed expected differences between individuals and units. However, unexpected effects of the administered order of units and documents were detected. Conclusions: The study demonstrates the theory‐informed construction of process variables from log‐files and an approach for empirical validation of their interpretation. The results suggest that students apply sourcing for different reasons, but also stress the need of further validation studies and refinements in the operationalization of the indicators investigated. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Do practical and academic preparation paths lead to differential commercial teacher "quality"?
Holtsch, Doreen; Hartig, Johannes; Shavelson, Richard
Zeitschriftenbeitrag
| In: Vocations and Learning | 2019
38707 Endnote
Autor*innen:
Holtsch, Doreen; Hartig, Johannes; Shavelson, Richard
Titel:
Do practical and academic preparation paths lead to differential commercial teacher "quality"?
In:
Vocations and Learning, 12 (2019) , S. 23-46
DOI:
10.1007/s12186-018-9208-0
URL:
http://link.springer.com/article/10.1007/s12186-018-9208-0
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Berufsschullehrer; Lehrerausbildung; Fachhochschule; Universität; Fachwissen; Fachkompetenz; Pädagogik; Wissen; Berufsschule; Unterricht; Qualität; Schulpraktikum; Test; Testkonstruktion; Bachelor-Studiengang; Master-Studiengang; Messverfahren; Validität; Reliabilität; Wirtschaftskunde; Zertifizierung; Vergleich; Multivariate Analyse; Schweiz
Abstract (english):
The Swiss teacher education and training system offers a practically and academically oriented path for aspiring commercial vocational education and training (VET) teachers. Although teachers' content knowledge (CK) and pedagogical content knowledge (PCK) are considered crucial for teaching quality and students' achievement, little is known about Swiss VET teachers' Economics CK and PCK. Using assessments of teachers' economics CK and PCK as proxies of "quality" we found that teachers regardless of practical or academic preparation were similar in CK and PCK once in the teaching profession. This finding contradicts popular belief that academic preparation with its selectivity and education would produce higher quality teachers. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Instruktionssensitivität von Tests und Items
Naumann, Alexander; Musow, Stephanie; Aichele, Christine; Hochweber, Jan; Hartig, Johannes
Zeitschriftenbeitrag
| In: Zeitschrift für Erziehungswissenschaft | 2019
38407 Endnote
Autor*innen:
Naumann, Alexander; Musow, Stephanie; Aichele, Christine; Hochweber, Jan; Hartig, Johannes
Titel:
Instruktionssensitivität von Tests und Items
In:
Zeitschrift für Erziehungswissenschaft, 22 (2019) 1, S. 181-202
DOI:
10.1007/s11618-018-0832-0
URL:
https://link.springer.com/article/10.1007%2Fs11618-018-0832-0
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Unterricht; Effektivität; Schülerleistung; Leistungsmessung; Test; Messverfahren; Empirische Forschung; Konzeption; Validität; Daten; Interpretation; Psychometrie; Item-Response-Theory; Modell
Abstract:
Testergebnisse von Schülerinnen und Schülern dienen regelmäßig als ein zentrales Kriterium für die Beurteilung der Effektivität von Schule und Unterricht. Gültige Rückschlüsse über Schule und Unterricht setzen voraus, dass die eingesetzten Testinstrumente mögliche Effekte des Unterrichts auffangen können, also instruktionssensitiv sind. Jedoch wird diese Voraussetzung nur selten empirisch überprüft. Somit bleibt mitunter unklar, ob ein Test nicht instruktionssensitiv oder ein Unterricht nicht effektiv war. Die Klärung dieser Frage erfordert die empirische Untersuchung der Instruktionssensitivität der eingesetzten Tests und Items. Während die Instruktionssensitivität in den USA bereits seit Langem diskutiert wird, findet das Konzept im deutschsprachigen Diskurs bislang nur wenig Beachtung. Unsere Arbeit zielt daher darauf ab, das Konzept Instruktionssensitivität in den deutschsprachigen Diskurs über schulische Leistungsmessung einzubetten. Dazu werden drei Themenfelder behandelt, (a) der theoretische Hintergrund des Konzepts Instruktionssensitivität, (b) die Messung von Instruktionssensitivität sowie (c) die Identifikation von weiteren Forschungsbedarfen. (DIPF/Orig.)
Abstract (english):
Students' performance in assessments is regularly attributed to more or less effective teaching. Valid interpretation requires that outcomes are affected by instruction to a significant degree. Hence, instruments need to be capable of detecting effects of instruction, that is, instruments need to be instructionally sensitive. However, empirical investigation of the instructional sensitivity of tests and items is seldom in practice. In consequence, in many cases, it remains unclear whether teaching was ineffective or the instrument was insensitive. While there is a living discussion on the instructional sensitivity of tests and items in the USA, the concept of instructional sensitivity is rather unknown in German-speaking countries. Thus, the present study aims at (a) introducing the concept of instructional sensitivity, (b) providing an overview on current approaches of measuring instructional sensitivity, and (c) identifying further research directions. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Anforderungen, Entscheidungsfreiräume und Stress im Studium. Erste Befunde zu Reliabilität und […]
Schmidt, Laura I.; Scheiter, Fabian; Neubauer, Andreas B.; Sieverding, Monika
Zeitschriftenbeitrag
| In: Diagnostica | 2019
38753 Endnote
Autor*innen:
Schmidt, Laura I.; Scheiter, Fabian; Neubauer, Andreas B.; Sieverding, Monika
Titel:
Anforderungen, Entscheidungsfreiräume und Stress im Studium. Erste Befunde zu Reliabilität und Validität eines Fragebogens zu strukturellen Belastungen und Ressourcen (StrukStud) in Anlehnung an den Job Content Questionnaire
In:
Diagnostica, 65 (2019) 2, S. 63-74
DOI:
10.1026/0012-1924/a000213
URN:
urn:nbn:de:0111-pedocs-180602
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-180602
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Studium; Universität; Stress; Belastung; Wohlbefinden; Gesundheit; Entscheidung; Freiheit; Unterstützung; Student; Selbsteinschätzung; Modell; Fragebogen; Psychometrie; Validität; Reliabilität; Faktorenanalyse; Itemanalyse; Empirische Untersuchung; Heidelberg; Deutschland
Abstract:
Mit dem Demand-Control-Modell und dem dazugehörigen Job Content Questionnaire (JCQ) existiert im Arbeitsumfeld ein bewährtes Modell zur Vorhersage physischer und psychischer Gesundheitsrisiken. Um diese auch unter Studierenden theoriegeleitet vorhersagen zu können, passten wir den JCQ auf den Hochschulkontext an und untersuchten mittels unseres Fragebogens zu strukturellen Belastungen und Ressourcen im Studium (StrukStud) den Erklärungsbeitrag hinsichtlich Stresserleben und Wohlbefinden. In 4 Studien mit insgesamt 732 Studierenden (Psychologie, Lehramt, Soziale Arbeit, Wirtschaftsrecht und Erziehung & Bildung) wurden die Demand-Control-Dimensionen (StrukStud), Stresserleben (Heidelberger Stress-Index HEI-STRESS & Perceived Stress Questionnaire) und weitere Referenzkonstrukte wie Studienzufriedenheit und körperliche Beschwerden erfasst. Befunde zur Reliabilität und Validität werden vorgestellt. Die Ergebnisse belegen die psychometrische Qualität des StrukStud sowie dessen Potenzial zur Erklärung von Stress im Studium. Mit dem StrukStud liegt für den deutschsprachigen Raum erstmals ein ökonomisches Selbsteinschätzungsinstrument zur Erfassung von psychologischen Anforderungen und Entscheidungsfreiräumen im Studium vor.
Abstract (english):
Karasek's demand-control model and the corresponding Job Content Questionnaire (JCQ) have greatly influenced research conducted on psychosocial factors at work and health. In our questionnaire on structural conditions (StrukStud), we applied the JCQ to the situation of university students in order to explore the contribution of the Karasek dimensions on outcomes such as psychological distress. In 4 studies of 732 university students (Psychology, Teaching, Social Work, Business Law, and Educational Science) we assessed the demand-control dimensions (StrukStud), stress (Heidelberg Stress Index [HEI-STRESS] and Perceived Stress Questionnaire), and related constructs such as study satisfaction and physical health complaints. Initial findings on reliability and validity are presented. Results demonstrate the psychometric properties of the StrukStud and its potential to explain study-related stress. For the German-speaking countries, the StrukStud is the first economic self-report measure for psychological demands and decision latitude in the context of higher education.
DIPF-Abteilung:
Bildung und Entwicklung
The internal/external frame of reference (I/E) model. Extension to five school subjects and […]
Arens, A. Katrin; Becker, Michael; Möller, Jens
Zeitschriftenbeitrag
| In: Learning and Individual Differences | 2018
38539 Endnote
Autor*innen:
Arens, A. Katrin; Becker, Michael; Möller, Jens
Titel:
The internal/external frame of reference (I/E) model. Extension to five school subjects and invariance across German secondary school ability tracks
In:
Learning and Individual Differences, 67 (2018) , S. 143-155
DOI:
10.1016/j.lindif.2018.07.005
URN:
urn:nbn:de:0111-pedocs-167944
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-167944
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Längsschnittuntersuchung; Nordrhein-Westfalen; Schüler; Sekundarbereich; Schulform; Selbstkonzept; Deutschunterricht; Mathematikunterricht; Biologieunterricht; Physikunterricht; Englischunterricht; Vergleich; Schülerleistung; Peergroup; Bildungsgang; Gymnasium; Realschule; Hauptschule; Schuljahr 07; Modell; Validität
Abstract:
The internal/external frame of reference (I/E) model assumes the interplay of social and dimensional comparisons in the formation of domain-specific academic self-concepts. The present study tests the generalizability of the I/E model assumptions across students from different ability tracks. While the findings from previous studies implied the similar use of social comparisons with students from different ability tracks, evidence has been missing so far whether students from different ability tracks apply dimensional comparisons to the same extent. Students from lower ability tracks are said to be confronted with negative stereotypes and felt deprivation which might enforce or weaken the use of dimensional comparisons. For the analyses, students from the academic track (N = 702) and the vocational track (N = 528) of German secondary schools were included as these two groups represent two extreme groups of ability tracks which might thus maximize the power of detecting differences in the use of social and dimensional comparisons. Both the original I/E model only including math and verbal achievement and self-concepts measures and an I/E model extended to five school subjects (math, German, English, physics, and biology) were examined. The results indicated invariance across school tracks for both the original I/E model and the extended I/E model when controlling for students' gender, socioeconomic status, and cognitive ability. (DIPF/Orig.)
Abstract (english):
The internal/external frame of reference (I/E) model assumes the interplay of social and dimensional comparisons in the formation of domain-specific academic self-concepts. The present study tests the generalizability of the I/E model assumptions across students from different ability tracks. While the findings from previous studies implied the similar use of social comparisons with students from different ability tracks, evidence has been missing so far whether students from different ability tracks apply dimensional comparisons to the same extent. Students from lower ability tracks are said to be confronted with negative stereotypes and felt deprivation which might enforce or weaken the use of dimensional comparisons. For the analyses, students from the academic track (N = 702) and the vocational track (N = 528) of German secondary schools were included as these two groups represent two extreme groups of ability tracks which might thus maximize the power of detecting differences in the use of social and dimensional comparisons. Both the original I/E model only including math and verbal achievement and self-concepts measures and an I/E model extended to five school subjects (math, German, English, physics, and biology) were examined. The results indicated invariance across school tracks for both the original I/E model and the extended I/E model when controlling for students' gender, socioeconomic status, and cognitive ability.
DIPF-Abteilung:
Bildung und Entwicklung; Struktur und Steuerung des Bildungswesens
Markierungen aufheben
Alle Treffer markieren
Export
<
1
...
3
4
(aktuell)
5
...
14
>
Alle anzeigen
(135)