Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Programm")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
280
Inhalte gefunden
Alle Details anzeigen
Digitale Ressourcen für Bildungshistoriker*innen - ein Überblick
Mattes, Monika
Verschiedenartige Dokumente
| 2020
40026 Endnote
Autor*innen:
Mattes, Monika
Titel:
Digitale Ressourcen für Bildungshistoriker*innen - ein Überblick
Erscheinungsvermerk:
Berlin: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation, 2020 (bildungsgeschichte.de)
DOI:
10.25523/32552.2
URL:
https://bildungsgeschichte.de/beitrag/1082
Dokumenttyp:
5. Arbeits- und Diskussionspapiere; Dokumentarischer Beitrag
Sprache:
Deutsch
Schlagwörter:
Bildungsgeschichte; Erziehungsgeschichte; Quelle; Ressource; Digitales Objekt; Digitale Bibliothek; Text; Bild; Schulprogramm; Wandbild; Lehrer; Berufsbiografie; Schulbuch; Lehrplan; Kinderbuch; Portrait; Verzeichnis; Überblick; Deutschland; Schweiz
Abstract:
Die folgende Link-Zusammenstellung soll einen Überblick über die wichtigsten frei zugänglichen Sammlungen digitaler Quellen der Bildungs- und Erziehungsgeschichte bieten, ohne dabei Anspruch auf Vollständigkeit zu erheben. (DIPF/Orig.)
DIPF-Abteilung:
Bibliothek für Bildungsgeschichtliche Forschung
PISA 2018. Grundbildung im internationalen Vergleich; Zusammenfassung
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf (Hrsg.)
Sammelband
| Münster: Waxmann | 2019
39838 Endnote
Herausgeber*innen:
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf
Titel:
PISA 2018. Grundbildung im internationalen Vergleich; Zusammenfassung
Erscheinungsvermerk:
Münster: Waxmann, 2019
URL:
https://www.pisa.tum.de/fileadmin/w00bgi/www/Berichtsbaende_und_Zusammenfassungungen/Zusammenfassung_PISA2018.pdf
Dokumenttyp:
2. Herausgeberschaft; Monographie
Sprache:
Deutsch
Schlagwörter:
Migrationshintergrund; Mathematische Kompetenz; Naturwissenschaftliche Kompetenz; Internationaler Vergleich; Deutschland; OECD-Länder; PISA <Programme for International Student Assessment>; Schülerleistung; Leistungsmessung; Lesekompetenz; Leseverhalten; Strategie; Digitale Medien; Motivation; Selbstkonzept; Schüler; Schulform; Geschlechtsspezifischer Unterschied; Soziale Herkunft
Abstract:
Mit der PISA-Studie werden grundlegende Kompetenzen von Fünfzehnjährigen gegen Ende der Pflichtschulzeit erfasst. Ziel ist es, Aussagen darüber zu treffen, wie gut die Jugendlichen auf eine erfolgreiche Teilhabe an der modernen Gesellschaft vorbereitet sind. Die Ergebnisse der PISA-Studie ermöglichen alle drei Jahre den internationalen Vergleich von Kompetenzen Fünfzehnjähriger in den Bereichen Naturwissenschaften, Mathematik und Lesen und damit Aussagen über die Wirksamkeit von Bildungssystemen. Mit der PISA-Studie 2018 begann der dritte Zyklus und zum dritten Mal war Lesen die Hauptdomäne. Die Rahmenkonzeption der Lesekompetenz wurde für die PISA-Studie 2018 einer Revision unterzogen und berücksichtigt nun die sich verändernde Lesepraxis, die mit der Nutzung digitaler Medien einhergeht. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
PISA 2018: Grundbildung im internationalen Vergleich
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf (Hrsg.)
Sammelband
| Münster: Waxmann | 2019
39839 Endnote
Herausgeber*innen:
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf
Titel:
PISA 2018: Grundbildung im internationalen Vergleich
Erscheinungsvermerk:
Münster: Waxmann, 2019
DOI:
10.31244/9783830991007
URN:
urn:nbn:de:0111-pedocs-183155
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-183155
Dokumenttyp:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Leseförderung; Textverständnis; Schüler; Migrationshintergrund; Muttersprache; Außerunterrichtliche Aktivität; Soziale Herkunft; Einflussfaktor; Mathematische Kompetenz; Geschlechtsspezifischer Unterschied; Naturwissenschaftliche Kompetenz; Schulform; Methodologie; PISA <Programme for International Student Assessment>; Schülerleistung; Leistungsmessung; Lesekompetenz; Schülerleistungstest; Digitale Medien; Mediennutzung; Veränderung; Leseverhalten; Testaufgabe; Antwort; Lesen; Strategie; Selbstkonzept; Motivation; Sprachförderung; Technologiebasiertes Testen; Testkonstruktion; Konzeption; Internationaler Vergleich; OECD-LÄnder; Deutschland
Abstract:
Der nationale Berichtsband stellt die Ergebnisse der Schülerinnen und Schüler in Deutschland aus der PISA-Studie 2018 vor und setzt sie in Relation zu den Ergebnissen in anderen Staaten. Der Schwerpunkt der Erhebungen und Auswertungen liegt dabei auf der Lesekompetenz. Die Rahmenkonzeption der Lesekompetenz wurde für die PISA-Studie 2018 im Vergleich zu den vorigen Runden einer Revision unterzogen und berücksichtigt nun die sich verändernde Lesepraxis, die mit der Nutzung digitaler Medien einhergeht. Es werden leistungsbezogene Variablen genauso wie motivationale Orientierungen, Einstellungen und Verhalten erfasst, die für die Lesekompetenz wichtig sein können. Daneben wird der Beitrag der sozialen Herkunft und des Zuwanderungshintergrunds für die Lesekompetenzen untersucht. Darüber hinaus werden die Kompetenzen der Jugendlichen in der Mathematik und den Naturwissenschaften vorgestellt und diskutiert. (DIPF/Verlag).
DIPF-Abteilung:
Bildungsqualität und Evaluation
Konzepte zur Sprach- und Schriftsprachförderung: Praxiserfahrungen
Titz, Cora; Geyer, Sabrina; Ropeter, Anna; Wagner, Hanna; Weber, Susanne; Hasselhorn, Marcus (Hrsg.)
Sammelband
| Stuttgart: Kohlhammer | 2019
38962 Endnote
Herausgeber*innen:
Titz, Cora; Geyer, Sabrina; Ropeter, Anna; Wagner, Hanna; Weber, Susanne; Hasselhorn, Marcus
Titel:
Konzepte zur Sprach- und Schriftsprachförderung: Praxiserfahrungen
Erscheinungsvermerk:
Stuttgart: Kohlhammer, 2019 (Bildung durch Sprache und Schrift, 3)
Dokumenttyp:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Sprachförderung; Schriftsprache; Förderung; Konzeption; Kindertagesstätte; Fachkraft; Qualifizierung; Professionalisierung; Weiterbildung; Curriculum; Kompetenz; Diagnostik; Wissenstransfer; Akteur; Lerngemeinschaft; Grundschule; Mathematikunterricht; Wortschatz; Leseförderung; Lesekompetenz; Programm; Umsetzung; Projekt; Kooperation; Praxisbezug; Rheinland-Pfalz; Nordrhein-Westfalen; Baden-Württemberg; Sachsen; Bayern; Hamburg; Hessen; Deutschland
Abstract:
Dieser Band demonstriert anhand einiger Beispiele die konkrete Arbeit mit Konzepten der Sprach- und Schriftsprachförderung im Elementar- und Schulbereich. Autorinnen und Autoren aus exemplarischen BiSS-Verbünden, in denen mehrere Kitas oder Schulen zusammenarbeiten, erläutern, welche Ziele der jeweilige Verbund mit seinem Konzept verfolgt und über welche Wege diese Ziele erreicht werden sollen. Ausführlich wird dabei auf Vorgehensweisen und Instrumente (Tools) eingegangen, die im Bereich Diagnostik, Förderung und Professionalisierung zum Einsatz kommen, und auch darauf, was die Autorinnen und Autoren als Belege für den Erfolg der eigenen Arbeit bewerten. Erläutert wird außerdem, wie die Kitas oder Schulen eines Verbundes ihre Kooperation organisiert haben. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Detecting mistakes in CPR training with multimodal data and neural networks
Di Mitri, Daniele; Schneider, Jan; Specht, Marcus; Drachsler, Hendrik
Zeitschriftenbeitrag
| In: Sensors | 2019
39363 Endnote
Autor*innen:
Di Mitri, Daniele; Schneider, Jan; Specht, Marcus; Drachsler, Hendrik
Titel:
Detecting mistakes in CPR training with multimodal data and neural networks
In:
Sensors, 19 (2019) 14, S. 3099
DOI:
10.3390/s19143099
URL:
https://www.mdpi.com/1424-8220/19/14/3099
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Neuropsychologie; Psychomotorik; Praktisches Lernen; Student; Medizin; Lernprozess; Datenanalyse; Computerprogramm; Messung; Fehler; Feedback; Automatisierung; Tutorensystem; Validität; Indikator
Abstract:
This study investigated to what extent multimodal data can be used to detect mistakes during Cardiopulmonary Resuscitation (CPR) training. We complemented the Laerdal QCPR ResusciAnne manikin with the Multimodal Tutor for CPR, a multi-sensor system consisting of a Microsoft Kinect for tracking body position and a Myo armband for collecting electromyogram information. We collected multimodal data from 11 medical students, each of them performing two sessions of two-minute chest compressions (CCs). We gathered in total 5254 CCs that were all labelled according to five performance indicators, corresponding to common CPR training mistakes. Three out of five indicators, CC rate, CC depth and CC release, were assessed automatically by the ReusciAnne manikin. The remaining two, related to arms and body position, were annotated manually by the research team. We trained five neural networks for classifying each of the five indicators. The results of the experiment show that multimodal data can provide accurate mistake detection as compared to the ResusciAnne manikin baseline. We also show that the Multimodal Tutor for CPR can detect additional CPR training mistakes such as the correct use of arms and body weight. Thus far, these mistakes were identified only by human instructors. Finally, to investigate user feedback in the future implementations of the Multimodal Tutor for CPR, we conducted a questionnaire to collect valuable feedback aspects of CPR training. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
The role of planning in complex problem solving
Eichmann, Beate; Goldhammer, Frank; Greiff, Samuel; Pucite, Liene; Naumann, Johannes
Zeitschriftenbeitrag
| In: Computers & Education | 2019
38657 Endnote
Autor*innen:
Eichmann, Beate; Goldhammer, Frank; Greiff, Samuel; Pucite, Liene; Naumann, Johannes
Titel:
The role of planning in complex problem solving
In:
Computers & Education, 128 (2019) , S. 1-12
DOI:
10.1016/j.compedu.2018.08.004
URN:
urn:nbn:de:0111-dipfdocs-174087
URL:
https://nbn-resolving.org/urn:nbn:de:0111-dipfdocs-174087
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Problemlösen; Planung; Technologiebasiertes Testen; Logdatei; PISA <Programme for International Student Assessment>
Abstract:
Complex problem solving (CPS) is a highly transversal competence needed in educational and vocational settings as well as everyday life. The assessment of CPS is often computer-based, and therefore provides data regarding not only the outcome but also the process of CPS. However, research addressing this issue is scarce. In this article we investigated planning activities in the process of complex problem solving. We operationalized planning through three behavioral measures indicating the duration of the longest planning interval, the delay of the longest planning interval and the variance of intervals between each two successive interactions. We found a significant negative average effect for our delay indicator, indicating that early planning in CPS is more beneficial. However, we also found effects depending on task and interaction effects for all three indicators, suggesting that the effects of different planning behaviors on CPS are highly intertwined. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Validating test score interpretations using time information
Engelhardt, Lena; Goldhammer, Frank
Zeitschriftenbeitrag
| In: Frontiers in Psychology | 2019
39162 Endnote
Autor*innen:
Engelhardt, Lena; Goldhammer, Frank
Titel:
Validating test score interpretations using time information
In:
Frontiers in Psychology, (2019) , S. 10:1131
DOI:
10.3389/fpsyg.2019.01131
URN:
urn:nbn:de:0111-dipfdocs-174371
URL:
http://www.dipfdocs.de/volltexte/2020/17437/pdf/fpsyg-2019_may_Engelhardt_Goldhammer_Validating_test_score_interpretations_using_time_information_A.pdf
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Strukturgleichungsmodell; Empirische Untersuchung; Deutschland; Test; Validität; Computerunterstütztes Verfahren; Aufgabe; Antwort; Zeit; Fertigkeit; Kognitive Prozesse; Kognitive Kompetenz; Lesekompetenz; Denken; Leistungstest; PIAAC <Programme for the International Assessment of Adult Competencies>; Datenanalyse
Abstract (english):
A validity approach is proposed that uses processing times to collect validity evidence for the construct interpretation of test scores. The rationale of the approach is based on current research of processing times and on classical validity approaches, providing validity evidence based on relationships with other variables. Within the new approach, convergent validity evidence is obtained if a component skill, that is expected to underlie the task solution process in the target construct, positively moderates the relationship between effective speed and effective ability in the corresponding target construct. Discriminant validity evidence is provided if a component skill, that is not expected to underlie the task solution process in the target construct, does indeed not moderate the speed-ability relation in this target construct. Using data from a study that follows up the German PIAAC sample, this approach was applied to reading competence, assessed with PIAAC literacy items, and to quantitative reasoning, assessed with Number Series. As expected from theory, the effect of speed on ability in the target construct was only moderated by the respective underlying component skill, that is, word meaning activation skill as an underlying component skill of reading competence, and perceptual speed as an underlying component skill of reasoning. Accordingly, no positive interactions were found for the component skill that should not underlie the task solution process, that is, word meaning activation for reasoning and perceptual speed for reading. Furthermore, the study shows the suitability of the proposed validation approach. The use of time information in association with task results brings construct validation closer to the actual response process than widely used correlations of test scores. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of […]
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Zeitschriftenbeitrag
| In: Educational Assessment, Evaluation and Accountability | 2019
39120 Endnote
Autor*innen:
Fischer, Jessica; Praetorius, Anna-Katharina; Klieme, Eckhard
Titel:
The impact of linguistic similarity on cross-cultural comparability of students' perceptions of teaching quality
In:
Educational Assessment, Evaluation and Accountability, 31 (2019) 2, S. 201-220
DOI:
10.1007/s11092-019-09295-7
URN:
urn:nbn:de:0111-pedocs-190654
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-190654
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
PISA <Programme for International Student Assessment>; Unterricht; Qualität; Messung; Schüler; Wahrnehmung; Daten; Interkultureller Vergleich; Klassenführung; Kognitives Lernen; Sprache; Einflussfaktor; Messverfahren; Kulturdifferenz; Sprachproblem; Frage; Antwort; Testauswertung; Validität; Reliabilität; Vergleichende Bildungsforschung; Macau; Schanghai; Taipei; England; Schottland; Irland; Frankreich; Belgien; Schweiz; Österreich; Deutschland; Mexiko; Kolumbien
Abstract (english):
Valid cross-country comparisons of student learning and pivotal factors contributing to it, such as teaching quality, offer the possibility to learn from outstandingly effective educational systems across the world and to improve learning in classrooms by providing policy relevant information. Yet, it often remains unclear whether the instruments used in international large-scale assessments work similarly across different cultural and linguistic groups, and thus can be used for comparing them. Using PISA 2012 data, we investigated data comparability of three teaching quality dimensions, namely student support, classroom management, and cognitive activation using a newly developed psychometric approach, namely alignment. Focusing on 15 countries, grouped into five linguistic clusters, we secondly assessed the impact of linguistic similarity on data comparability. Main findings include that (1) comparability of teaching quality measures is limited when comparing linguistically diverse countries; (2) the level of comparability varies across dimensions; (3) linguistic similarity considerably enhances the degree of comparability, except across the Chinese-speaking countries. Our study illustrates new and more flexible possibilities to test for data comparability and outlines the importance to consider cultural and linguistic differences when comparing teaching-related measures across groups. We discuss possible sources of lacking data comparability and implications for comparative educational research. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Cross-cultural comparability of noncognitive constructs in TIMSS and PISA
He, Jia; Barrera-Pedemonte, Fabian; Buchholz, Janine
Zeitschriftenbeitrag
| In: Assessment in Education | 2019
38403 Endnote
Autor*innen:
He, Jia; Barrera-Pedemonte, Fabian; Buchholz, Janine
Titel:
Cross-cultural comparability of noncognitive constructs in TIMSS and PISA
In:
Assessment in Education, 26 (2019) 4, S. 369-385
DOI:
10.1080/0969594X.2018.1469467
URL:
https://www.tandfonline.com/doi/full/10.1080/0969594X.2018.1469467
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
PISA <Programme for International Student Assessment>; TIMSS <Third International Mathematics and Science Study>; Schülerleistung; Leistungsmessung; Mathematikunterricht; Naturwissenschaftlicher Unterricht; Freude; Motivation; Schule; Identifikation <Psy>; Sekundarstufe I; Schüler; Messverfahren; Vergleich; Item-Response-Theory; Faktorenanalyse; OECD-Länder
Abstract:
Noncognitive assessments in Programme for International Student Assessment (PISA) and Trends in International Mathematics and Science Study share certain similarities and provide complementary information, yet their comparability is seldom checked and convergence not sought. We made use of student self-report data of Instrumental Motivation, Enjoyment of Science and Sense of Belonging to School targeted in both surveys in 29 overlapping countries to (1) demonstrate levels of measurement comparability, (2) check convergence of different scaling methods within survey and (3) check convergence of these constructs with student achievement across surveys. We found that the three scales in either survey (except Sense of Belonging to School in PISA) reached at least metric invariance. The scale scores from the multigroup confirmatory factor analysis and the item response theory analysis were highly correlated, pointing to robustness of scaling methods. The correlations between each construct and achievement was generally positive within each culture in each survey, and the correlational pattern was similar across surveys (except for Sense of Belonging), indicating certain convergence in the cross-survey validation. We stress the importance of checking measurement invariance before making comparative inferences, and we discuss implications on the quality and relevance of these constructs in understating learning. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based […]
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Zeitschriftenbeitrag
| In: Educational Measurement | 2019
39814 Endnote
Autor*innen:
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Titel:
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based assessments
In:
Educational Measurement, 38 (2019) 3, S. 97-111
DOI:
10.1111/emip.12280
URL:
https://onlinelibrary.wiley.com/doi/abs/10.1111/emip.12280
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Einflussfaktor; Schülerleistung; Frage; Antwort; Interaktion; Unterschied; Vergleich; Item-Response-Theory; Deutschland; PISA <Programme for International Student Assessment>; Leseverstehen; Messverfahren; Testkonstruktion; Korrelation; Äquivalenz; Papier-Bleistift-Test; Computerunterstütztes Verfahren; Technologiebasiertes Testen; Leistungsmessung; Testverfahren; Testdurchführung
Abstract:
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
Abstract (english):
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Markierungen aufheben
Alle Treffer markieren
Export
<
1
...
3
4
(aktuell)
5
...
20
>
Alle anzeigen
(280)