Menü Überspringen
Contact
Deutsch
English
Not track
Data Protection
Search
Log in
DIPF News
Research
Infrastructures
Institute
Zurück
Contact
Deutsch
English
Not track
Data Protection
Search
Home
>
Research
>
Publications
>
Publications Data Base
Search results in the DIPF database of publications
Your query:
(Schlagwörter: "Testkonstruktion")
Advanced Search
Search term
Only Open Access
Search
Unselect matches
Select all matches
Export
77
items matching your search terms.
Show all details
Computergestützte, adaptive und verhaltensnahe Erfassung informations- und […]
Wenzel, S. Franziska C.; Engelhardt, Lena; Hartig, Katja; Kuchta, Kathrin; Frey, Andreas; […]
Book Chapter
| Aus: Bundesministerium für Bildung und Forschung (Hrsg.): Forschungsvorhaben in Ankopplung an Large-Scale-Assessments | Berlin: Bundesministerium für Bildung und Forschung | 2016
36592 Endnote
Author(s):
Wenzel, S. Franziska C.; Engelhardt, Lena; Hartig, Katja; Kuchta, Kathrin; Frey, Andreas; Goldhammer, Frank; Naumann, Johannes; Forz, Holger
Title:
Computergestützte, adaptive und verhaltensnahe Erfassung informations- und kommunikations-technologiebezogener Fertigkeiten (ICT-Skills) (CavE-ICT)
In:
Bundesministerium für Bildung und Forschung (Hrsg.): Forschungsvorhaben in Ankopplung an Large-Scale-Assessments, Berlin: Bundesministerium für Bildung und Forschung, 2016 (Bildungsforschung, 44), S. 161-180
URL:
https://www.bmbf.de/pub/Bildungsforschung_Band_44.pdf#page=163
Publication Type:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Adaptives Testen; Computerunterstütztes Verfahren; Deutschland; Entwicklung; Fertigkeit; Informationstechnologische Bildung; Informations- und Kommunikationstechnologie; Messung; Projekt; Testkonstruktion
Abstract:
2011 startete das Bundesministerium für Bildung und Forschung (BMBF) die Initiative zur Förderung von Forschungsvorhaben in Ankopplung an Large-Scale-Assessments (LSA). Large-Scale-Assessments werden als wichtige Instrumente des Bildungsmonitorings angesehen (z.B. Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland [KMK], 2006). Mit der Ausschreibung der Förderinitiative werden Forschungsaktivitäten unterstützt, die neben Fragestellungen zur Kompetenzdiagnostik Testkonzeption und Methoden ständig zu verbessern suchen, weitere Domänen, Kompetenzen und Bedienungsfelder erschließen und in angemessener Weise modellieren wollen. Das Projekt "Computergestützte, adaptive und verhaltensnahe Erfassung informations- und kommunikationstechnologiebezogener Fertigkeiten (ICT-Skills)" (CavE-ICT) war in der genannten Initiative angesiedelt. Es widmete sich der Entwicklung eines computergestützten Testverfahrens zur simulationsbasierten Erfassung von informations- und kommunikationstechnologiebezogenen Fertigkeiten. Im vorliegenden Beitrag werden die zentralen Ergebnisse der Testentwicklung dargelegt. Der Einsatz des entwickelten Testinstruments kann im Kontext von Large-Scale-Assessments, aber auch zur Individualdiagnostik erfolgen. Der Test ist zudem potenziell adaptiv einsetzbar und beruht auf einer soliden theoretischen Basis. CavE-ICT war ein Kooperationsprojekt zwischen der Goethe-Universität Frankfurt am Main, dem Deutschen Institut für Internationale Pädagogische Forschung in Frankfurt am Main und der Friedrich-Schiller-Universität Jena. Die übergeordnete "Vision" des Projekts bestand in der Entwicklung eines computerbasierten, verhaltensnahen sowie adaptiven Instruments zur Messung von ICT-Skills, das bei künftigen (internationalen) Large-Scale-Assessments, wie etwa PISA, dem nationalen Bildungspanel (NEPS; Artelt, Weinert & Carstensen, 2013) oder der International Computer and Information Literacy Study (ICILS; Bos et al., 2014), Verwendung finden kann. Die Struktur des [...] Beitrags orientiert sich am Projektablauf. Zunächst wird die theoretische Rahmenkonzeption vorgestellt (Kapitel 2), auf deren Basis der computerisierte Test entwickelt wurde. Anschließend wird der Prozess der Itementwicklung skizziert (Kapitel 3) und schließlich die Erprobung der entwickelten Items im Rahmen der Kalibrierungsstudie dargestellt (Kapitel 4). Abschließend wird ein kurzes Fazit gezogen und ein Ausblick gegeben (Kapitel 5). (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Diagnostik im Vorschulalter
Esser, Günter; Hasselhorn, Marcus; Schneider, Wolfgang (Hrsg.)
Compilation Book
| Göttingen: Hogrefe | 2015
35324 Endnote
Editor(s)
Esser, Günter; Hasselhorn, Marcus; Schneider, Wolfgang
Title:
Diagnostik im Vorschulalter
Published:
Göttingen: Hogrefe, 2015 (Tests und Trends. N. F., 13)
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Deutschland; Diagnostik; Eltern; Empirische Forschung; Entwicklungsstörung; Erzählen; Forschungsstand; Fragebogen; Frühe Kindheit; Grundschulalter; Grundschule; Intelligenzmessung; Intelligenztest; Kind; Kindergarten; Lesekompetenz; Lesetest; Mathematische Kompetenz; Motorische Entwicklung; Qualität; Rechnen; Reliabilität; Schreibenlernen; Sprachentwicklung; Sprachstandsforschung; Testkonstruktion; Testtheorie; Testverfahren; Validität; Vorschulalter; Wortschatz
Abstract:
Eine erfolgreiche Förderung beginnt stets mit einer gründlichen Diagnostik. Bereits für das Vorschulalter liegen zahlreiche Verfahren vor, die dazu geeignet sind, Entwicklungsauffälligkeiten zu identifizieren, und damit ermöglichen, schulischen Anpassungs- und Lernproblemen frühzeitig entgegenzuwirken. Der Fokus dieses Bandes liegt auf Tests, die Vorläuferfertigkeiten schulischer Leistungen abbilden, und es werden unterschiedliche Ansätze der Erfassung schriftsprachlicher und numerischer Fähigkeiten dargestellt. Darüber hinaus werden jedoch auch übergeordnete Ansätze wie die Messung der nonverbalen Intelligenz behandelt und Verfahren zur Erfassung spezifischer Leistungsbereiche wie Sprach- und motorische Entwicklung vorgestellt. (DIPF/Orig.)
DIPF-Departments:
Bildung und Entwicklung
Generalising IRT to discriminate between examinees
Boubekki, Ahcène; Brefeld, Ulf; Delacroix, Thomas
Book Chapter
| Aus: Santos, O. C.; Boticario, J. G.; Romero, C.; Pechenizkiy, M.; Merceron, A.; Mitros, P.;Luna, J. M.; Mihaescu, C.; Moreno, P.; Hershkovitz, A. ;Ventura, S.; Desmarais, M. (Hrsg.): Proceedings of the 8th International Conference on Educational Data Mining (EMD 2015) 26-29 June Madrid, Spain | Madrid: International Educational Data Mining Society | 2015
35623 Endnote
Author(s):
Boubekki, Ahcène; Brefeld, Ulf; Delacroix, Thomas
Title:
Generalising IRT to discriminate between examinees
In:
Santos, O. C.; Boticario, J. G.; Romero, C.; Pechenizkiy, M.; Merceron, A.; Mitros, P.;Luna, J. M.; Mihaescu, C.; Moreno, P.; Hershkovitz, A. ;Ventura, S.; Desmarais, M. (Hrsg.): Proceedings of the 8th International Conference on Educational Data Mining (EMD 2015) 26-29 June Madrid, Spain, Madrid: International Educational Data Mining Society, 2015 , S. 604-606
URL:
http://www.educationaldatamining.org/EDM2015/proceedings/edm2015_proceedings.pdf
Publication Type:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Language:
Englisch
Keywords:
Item-Response-Theory; Leistungstest; PISA <Programme for International Student Assessment>; Rasch-Modell; Testauswertung; Testkonstruktion
Abstract:
We present a generalisation of the IRT framework that allows to discriminate between examinees. Our model therefore introduces examinee parameters that can be optimised with Expectation Maximisation-like algorithms. We provide empirical results on PISA data showing that our approach leads to a more appropriate grouping of PISA countries than by test scores and socio-economic indicators. (DIPF/Orig.)
DIPF-Departments:
Informationszentrum Bildung
Computergestützte, adaptive und verhaltensnahe Erfassung Informations- und […]
Wenzel, S. Franziska C.; Engelhardt, Lena; Kuchta, Kathrin; Hartig, Katja; Naumann, Johannes; […]
Working Papers
| 2015
36844 Endnote
Author(s):
Wenzel, S. Franziska C.; Engelhardt, Lena; Kuchta, Kathrin; Hartig, Katja; Naumann, Johannes; Goldhammer, Frank; Frey, Andreas; Horz, Holger
Title:
Computergestützte, adaptive und verhaltensnahe Erfassung Informations- und Kommunikationstechnologie-bezogener Fähigkeiten (ICT-Skills) in PISA. Projekt CavE - ICT - PISA; Schlussbericht
Published:
Frankfurt am Main: Universitätsbibliothek; Technische Informationsbibliothek, 2015
DOI:
10.2314/GBV:838771823
URL:
http://edok01.tib.uni-hannover.de/edoks/e01fb15/838771823.pdf
Publication Type:
5. Arbeits- und Diskussionspapiere; Forschungsbericht/Projektberichte/Schulrückmeldungen
Language:
Deutsch
Keywords:
Adaptives Testen; Computerunterstütztes Verfahren; Fähigkeit; Forschungsprojekt; Informations- und Kommunikationstechnologie; Messverfahren; PISA <Programme for International Student Assessment>; Projektbericht; Skalierung; Testkonstruktion; Validität
Abstract:
Mit dem Projektvorhaben CavE-ICT-PISA sollten Konstrukte und Erhebungsverfahren im Kontext der internationalen PISA Option ICT Familiarity Questionnaire weiterentwickelt werden. Ziel dabei war es zunächst eine stärkere theoretische Verankerung für das Konstrukt ICT-Skills zu schaffen und darauf aufbauend eine verhaltensbasierten und computerisierten ICT-Test zu entwickeln und zu erproben. In diesem Sinne wurde zunächst ein theoretisches Framework erstellt, das auf Basis einer Synthese bestehender Frameworks dazu verwendet wurde Testitems zu entwickeln. Es wurden 70 funktionsfähige Items in einem umfangreichen Qualitätssicherungsprozess entwickelt, computerisiert und verhaltensbasiert in Simulationsumgebungen implementiert. Die entwickelten Items können mit einem Werkzeug in verschiedene Sprachen übersetzt werden und sind damit auch international einsetzbar. Die Testadministration erfolgte, unter Nutzung von USB-Sticks, an insgesamt 33 Schulen, deren IT-Ausstattung zuvor hinsichtlich spezifischer Leistungsanforderungen geprüft wurde. Die Stichprobe besteht aus 983 15jährigen Schülerinnen und Schülern. Auf Basis der Kalibrierungsergebnisse der ICT-Items wurden 64 Aufgaben für den endgültigen ICT-Test selektiert, welcher eine Reliabilität von .80 erreicht. Bei der Berechnung der Kompetenzverteilung wurden zudem latente Zusammenhänge mit Variablen wie Alter, Geschlecht oder Computernutzung, berücksichtigt. Eine verkürzte Version des ICT-Tests, wie auch ein adaptiver Testalgorithmus wurden unter Nutzung von Monte-Carlo-Simulationsstudien erprobt. Insgesamt kann festgehalten werden, dass im Rahmen von CavE-ICT-PISA innerhalb eines kurzen Zeitrahmens ein Testinstrument auf höchstem internationalem Standard konstruiert und zum Einsatz gebracht wurde. Der entstandene ICT-Test könnte auch als Kurzversion oder adaptiv, beispielsweise in computerbasierten Messungen als Kontrollvariable zum Einsatz kommen. (DIPF/Orig.)
Abstract (english):
Goal of the project CavE-ICT-PISA was to develop constructs and assessment instruments in the context of PISA further, based on the optional ICT Familiarity Questionnaire. The first partial goal aimed to corroborate the construct ICT-Skills more theoretically and to develop a behavior-related and computer-based test. With this in mind a theoretical framework concept was prepared based on a synthesis of existing frameworks including several feedback loops for optimization and implemented fully functional in simulation environment. The items can be translated in other languages, thus the test is international applicable. The test was delivered on USB flash drives at 33 German schools, after the schools were selected regarding their readiness of soft- and hardware. The sample consists of 983 15 year old students. Based on the study results, 64 items were selected for the final item pool, which has a reliability of .80. For the ability distribution, latent relations to variables like age, sex and computer experience were modeled. A shorter version of the test as well as an adaptive test algorithm was developed using Monte-Carlo-simulations. Thus, the goal of the project to develop and apply an assessment instrument in line with international standards was met. The developed test can be used as a short version or adaptive test für instance to control in computer-based assessments for ICT-skills. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
PIAAC Germany 2012. Technical report
Zabal, Anouk; Martin, Silke; Massing, Natascha; Ackermann, Daniela; Helmschrott, Susanne; […]
Monograph
| Münster: Waxmann | 2014
34754 Endnote
Author(s):
Zabal, Anouk; Martin, Silke; Massing, Natascha; Ackermann, Daniela; Helmschrott, Susanne; Barkow, Ingo; Rammstedt, Beatrice
Title:
PIAAC Germany 2012. Technical report
Published:
Münster: Waxmann, 2014
URL:
http://www.gesis.org/fileadmin/piaac/Downloadbereich/TechnicalReport-ebook.pdf
Publication Type:
1. Monographien (Autorenschaft); Monographie
Language:
Englisch
Keywords:
Bericht; Daten; Deutschland; Erhebungsinstrument; Erwachsener; Forschungsdesign; Fragebogen; Interview; Kognitive Kompetenz; Leistungsmessung; Leistungstest; Lesekompetenz; Mathematische Kompetenz; PIAAC <Programme for the International Assessment of Adult Competencies>; Problemlösen; Qualität; Technologiebasiertes Testen; Testdurchführung; Testkonstruktion
Abstract:
The Programme for the International Assessment of Adult Competencies (PIAAC) is a large-scale initiative of the Organization for Economic Cooperation and Development (OECD) that aims at assessing key adult competencies considered important for individual and societal success. This technical report describes how the PIAAC survey was conducted in Germany. It provides information on the PIAAC instruments: the background questionnaire and the cognitive assessment. Furthermore, it describes sampling, fieldwork, weighting, and nonresponse bias analyses. The report concludes with an overview of the data management processes and data products as well as a brief evaluation of the overall data quality. (DIPF/Verlag)
DIPF-Departments:
Informationszentrum Bildung
Lernverlaufsdiagnostik
Hasselhorn, Marcus; Schneider, Wolfgang; Trautwein, Ulrich (Hrsg.)
Compilation Book
| Göttingen: Hogrefe | 2014
34387 Endnote
Editor(s)
Hasselhorn, Marcus; Schneider, Wolfgang; Trautwein, Ulrich
Title:
Lernverlaufsdiagnostik
Published:
Göttingen: Hogrefe, 2014 (Tests und Trends. N.F., 12)
Publication Type:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Bildungsmonitoring; Computerunterstütztes Verfahren; Deutschland; Empirische Untersuchung; Englischunterricht; Erhebungsinstrument; Evaluation; Fähigkeit; Feedback; Grundschule; Indikator; Inklusion; Kind; Kindergarten; Leistungsbeurteilung; Lerndiagnostik; Lernstandserhebung; Lernstörung; Lesekompetenz; Lesen; Mathematikunterricht; Mathematische Kompetenz; Messverfahren; Migrationshintergrund; Modell; Pädagogische Diagnostik; Pädagogische Psychologie; Prävention; Qualität; Reliabilität; Schülerleistung; Schuljahr 01; Schuljahr 02; Schuljahr 04; Sekundarbereich; Testauswertung; Testkonstruktion; Validität; Wirkung
Abstract:
Der vorliegende Band gibt einen Überblick über die Geschichte, Herausforderungen und neueren Entwicklungen der Lernverlaufsdiagnostik und illustriert damit das Potenzial dieses Ansatzes für unterschiedliche schulische Inhaltsbereiche und unterschiedliche Altersgruppen. Zudem stellt er in bewährter Manier eine Auswahl der besten vorliegenden oder sich in Vorbereitung befindlichen Testverfahren vor. Der Band schließt damit eine Lücke in einem für Wissenschaft und Praxis hoch relevanten Arbeitsbereich.
DIPF-Departments:
Bildung und Entwicklung
Student, school, and country differences in sustained test-taking effort in the 2009 PISA reading […]
Debeer, Dries; Buchholz, Janine; Hartig, Johannes; Janssen, Rianne
Journal Article
| In: Journal of Educational and Behavioral Statistics | 2014
35151 Endnote
Author(s):
Debeer, Dries; Buchholz, Janine; Hartig, Johannes; Janssen, Rianne
Title:
Student, school, and country differences in sustained test-taking effort in the 2009 PISA reading assessment
In:
Journal of Educational and Behavioral Statistics, 39 (2014) 6, S. 502-523
URN:
urn:nbn:de:0111-pedocs-123507
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-123507
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Einflussfaktor; Internationaler Vergleich; Item-Response-Theory; Leistungsmessung; Leistungsmotivation; Leistungsversagen; Lesekompetenz; OECD-Länder; PISA <Programme for International Student Assessment>; Schule; Schüler; Schülerleistung; Schülerleistungstest; Selbsteinschätzung; Testaufgabe; Testkonstruktion; Validität
Abstract:
In this article, the change in examinee effort during an assessment, which we will refer to as persistence, is modeled as an effect of item position. A multilevel extension is proposed to analyze hierarchically structured data and decompose the individual differences in persistence. Data from the 2009 Program of International Student Achievement (PISA) reading assessment from N = 467,819 students from 65 countries are analyzed with the proposed model, and the results are compared across countries. A decrease in examinee effort during the PISA reading assessment was found consistently across countries, with individual differences within and between schools. Both the decrease and the individual differences are more pronounced in lower performing countries. Within schools, persistence is slightly negatively correlated with reading ability; but at the school level, this correlation is positive in most countries. The results of our analyses indicate that it is important to model and control examinee effort in low-stakes assessments. (DIPF/Orig.)
DIPF-Departments:
Bildungsqualität und Evaluation
Assessing students' understandings of biological models and their use in science to evaluate a […]
Grünkorn, Juliane; Upmeier zu Belzen, Annette; Krüger, Dirk
Journal Article
| In: International Journal of Science Education | 2014
34215 Endnote
Author(s):
Grünkorn, Juliane; Upmeier zu Belzen, Annette; Krüger, Dirk
Title:
Assessing students' understandings of biological models and their use in science to evaluate a theoretical framework
In:
International Journal of Science Education, 36 (2014) 10, S. 1651-1684
DOI:
10.1080/09500693.2013.873155
URN:
urn:nbn:de:0111-pedocs-189963
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-189963
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Biologieunterricht; Deutschland; Empirische Untersuchung; Evaluation; Gymnasium; Inhaltsanalyse; Leistungsmessung; Modell; Naturwissenschaftliche Kompetenz; Naturwissenschaftlicher Unterricht; Schüler; Schülerleistung; Schülerleistungstest; Sekundarbereich; Testauswertung; Testkonstruktion; Testtheorie; Verstehen
Abstract:
Research in the field of students' understandings of models and their use in science describes different frameworks concerning these understandings. Currently, there is no conjoint framework that combines these structures and so far, no investigation has focused on whether it reflects students' understandings sufficiently (empirical evaluation). Therefore, the purpose of this article is to present the results of an empirical evaluation of a conjoint theoretical framework. The theoretical framework integrates relevant research findings and comprises five aspects which are subdivided into three levels each: nature of models, multiple models, purpose of models, testing, and changing models. The study was conducted with a sample of 1,177 seventh to tenth graders (aged 11-19 years) using open-ended items. The data were analysed by identifying students' understandings of models (nature of models and multiple models) and their use in science (purpose of models, testing, and changing models), and comparing as well as assigning them to the content of the theoretical framework. A comprehensive category system of students' understandings was thus developed. Regarding the empirical evaluation, the students' understandings of the nature and the purpose of models were sufficiently described by the theoretical framework. Concerning the understandings of multiple, testing, and changing models, additional initial understandings (only one model possible, no testing of models, and no change of models) need to be considered. This conjoint and now empirically tested framework for students' understandings can provide a common basis for future science education research. Furthermore, evidence-based indications can be provided for teachers and their instructional practice.
DIPF-Departments:
Bildungsqualität und Evaluation
Modeling instructional sensitivity using a longitudinal multilevel differential item functioning […]
Naumann, Alexander; Hochweber, Jan; Hartig, Johannes
Journal Article
| In: Journal of Educational Measurement | 2014
35094 Endnote
Author(s):
Naumann, Alexander; Hochweber, Jan; Hartig, Johannes
Title:
Modeling instructional sensitivity using a longitudinal multilevel differential item functioning approach
In:
Journal of Educational Measurement, 51 (2014) 4, S. 381-399
DOI:
10.1111/jedm.12051
URN:
urn:nbn:de:0111-dipfdocs-189977
URL:
http://www.dipfdocs.de/volltexte/2020/18997/pdf/Naumann_et_al_2014_Modeling_instructional_sensitivity_using_LML-DIF_A.pdf
Publication Type:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Language:
Englisch
Keywords:
Curriculum; DESI <Deutsch-Englisch-Schülerleistungen-International>; Grundschule; Itemanalyse; Längsschnittuntersuchung; Leistungsmessung; Leistungstest; Modell; Qualität; Schülerleistung; Sekundarbereich; Testkonstruktion; Unterricht; Validität; Wirkung
Abstract (english):
Students' performance in assessments is commonly attributed to more or less effective teaching. This implies that students' responses are significantly affected by instruction. However, the assumption that outcome measures indeed are instructionally sensitive is scarcely investigated empirically. In the present study, we propose a longitudinal multilevel-differential item functioning (DIF) model to combine two existing yet independent approaches to evaluate items' instructional sensitivity. The model permits for a more informative judgment of instructional sensitivity, allowing the distinction of global and differential sensitivity. Exemplarily, the model is applied to two empirical data sets, with classical indices (Pretest-Posttest Difference Index and posttest multilevel-DIF) computed for comparison. Results suggest that the approach works well in the application to empirical data, and may provide important information to test developers. (DIPF/Autor)
DIPF-Departments:
Bildungsqualität und Evaluation
Das Konstrukt der computer- und informationsbezogenen Kompetenzen in ICILS 2013
Senkbeil, Martin; Goldhammer, Frank; Bos, Wilfried; Eickelmann, Birgit; Schwippert, Knut; […]
Book Chapter
| Aus: Bos, Wilfried;Eickelmann, Birgit;Gerick, Julia;Goldhammer, Frank;Schaumburg, Heike;Schwippert, Knut;Senkbeil, Martin;Schulz-Zander, Renate;Wendt, Heike (Hrsg.): ICILS 2013: Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern in der 8. Jahrgangsstufe im internationalen Vergleich | Münster: Waxmann | 2014
35044 Endnote
Author(s):
Senkbeil, Martin; Goldhammer, Frank; Bos, Wilfried; Eickelmann, Birgit; Schwippert, Knut; Gerick, Julia
Title:
Das Konstrukt der computer- und informationsbezogenen Kompetenzen in ICILS 2013
In:
Bos, Wilfried;Eickelmann, Birgit;Gerick, Julia;Goldhammer, Frank;Schaumburg, Heike;Schwippert, Knut;Senkbeil, Martin;Schulz-Zander, Renate;Wendt, Heike (Hrsg.): ICILS 2013: Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern in der 8. Jahrgangsstufe im internationalen Vergleich, Münster: Waxmann, 2014 , S. 83-112
Publication Type:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Language:
Deutsch
Keywords:
Computer; Deutschland; Forschungsstand; Informationskompetenz; Informations- und Kommunikationstechnologie; Internet; Kompetenz; Konzeption; Leistungsmessung; Medienkompetenz; Mediennutzung; Modell; Panel; PISA <Programme for International Student Assessment>; Schüler; Schülerleistung; Schülerleistungstest; Schuljahr 08; Technologiebasiertes Testen; Testaufgabe; Testkonstruktion; Vergleich
Abstract:
Im Folgenden wird zunächst auf das Konstrukt der computer- und informationsbezogenen Kompetenzen, wie es im Rahmen von ICILS 2013 angelegt ist, eingegangen. Dazu werden die theoretischen Grundlagen dargelegt und nachfolgend die Erfassung des Konstrukts beschrieben (Abschnitt 2). Anschließend wird das im Rahmen von ICILS 2013 empirisch geprüfte Kompetenzstufenmodell erläutert. Die fünf Kompetenzstufen computer- und informationsbezogener Kompetenzen werden durch Beispielitems aus dem in ICILS 2013 eingesetzten Schülertest veranschaulicht (Abschnitt 3.2). Um das Konstrukt der computer- und informationsbezogenen Kompetenzen im Kontext aktueller Forschung zu Konzepten der ICT-Literacy zu verorten und um Gemeinsamkeiten und Unterschiede herauszuarbeiten, wird im letzten Teil [...] auf affine Konstrukte eingegangen, die aktuell in internationalen und nationalen Studien entwickelt und eingesetzt werden (Abschnitt 4). (DIPF/Orig.)
Unselect matches
Select all matches
Export
<
1
...
4
5
6
...
8
>
Show all
(77)