Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Technologie")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
133
Inhalte gefunden
Alle Details anzeigen
Computerbasiertes Assessment
Goldhammer, Frank; Kröhne, Ulf
Sammelbandbeitrag
| Aus: Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion | Berlin: Springer | 2020
40530 Endnote
Autor*innen:
Goldhammer, Frank; Kröhne, Ulf
Titel:
Computerbasiertes Assessment
Aus:
Moosbrugger, Helfried; Kelava, Augustin (Hrsg.): Testtheorie und Fragebogenkonstruktion, Berlin: Springer, 2020 , S. 119-141
DOI:
10.1007/978-3-662-61532-4_6
URL:
https://link.springer.com/chapter/10.1007/978-3-662-61532-4_6
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Datenanalyse; Technologiebasiertes Testen; Computerunterstütztes Verfahren; Testverfahren; Psychologische Forschung; Sozialwissenschaften; Definition; Beispiel; Konzeption; Antwort; Datenerfassung; Interaktion; Bewertung; Testkonstruktion; Evidenz; Software; Fragebogen; Messverfahren
Abstract:
Das Kapitel gibt einen Überblick, wie mit Hilfe von Computern im weiteren Sinne Tests und Fragebogen realisiert und dabei die Möglichkeiten von klassischen Papier-und-Bleistift-Verfahren erweitert bzw. deutlich überschritten werden können. Dies betrifft beispielsweise die Entwicklung computerbasierter Items mit innovativen Antwortformaten und multimedialen Stimuli sowie die automatische Bewertung des gezeigten Antwortverhaltens. Des Weiteren ermöglicht der Computer eine flexiblere Testzusammenstellung, d. h., Items können automatisch unter Berücksichtigung inhaltlicher und statistischer Kriterien sequenziert werden. Das Kapitel behandelt außerdem die Frage, wie durch Logfiledaten das Analysepotential gesteigert und durch die automatische und zeitnahe Rückmeldung von Testdaten beispielsweise das Lernen unterstützt werden kann. Das Kapitel schließt mit Hinweisen auf einschlägige und frei zugängliche Softwarelösungen für Assessmentzwecke. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Eine Sammlung verschiedener Formate. Der Goldstandard für OER in Form von Webseiten und Blogs
Fahrer, Sigrid; Hirsch, Nele; Tacke, Oliver
Verschiedenartige Dokumente
| 2020
40736 Endnote
Autor*innen:
Fahrer, Sigrid; Hirsch, Nele; Tacke, Oliver
Titel:
Eine Sammlung verschiedener Formate. Der Goldstandard für OER in Form von Webseiten und Blogs
Erscheinungsvermerk:
Frankfurt am Main: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation, 2020 (OERinfo)
URL:
https://open-educational-resources.de/goldstandard-website/
Dokumenttyp:
5. Arbeits- und Diskussionspapiere; Arbeits- und Diskussionspapier (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Web log; Website; Open Educational Resources; Lerninhalt; Standard; Technologie; Multimedia; Lizenz; Open Source; Barrierefreiheit; Tools; Veröffentlichung; Kollaboration
Abstract:
Blogs und Webseiten werden oft noch gar nicht als Format für OER wahrgenommen. Dabei eignen sie sich hervorragend dafür, Lehr- und Lerninhalte zu verbreiten und dabei verschiedene Medienformate bereitzustellen. Worauf es ankommt, um Blogs und Webseiten unter dem Gold-Standard für OER zu veröffentlichen, haben Sigrid Fahrer, Nele Hirsch und Oliver Tacke zusammengefasst. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
PISA 2018: Grundbildung im internationalen Vergleich
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf (Hrsg.)
Sammelband
| Münster: Waxmann | 2019
39839 Endnote
Herausgeber*innen:
Reiss, Kristina; Weis, Mirjam; Klieme, Eckhard; Köller, Olaf
Titel:
PISA 2018: Grundbildung im internationalen Vergleich
Erscheinungsvermerk:
Münster: Waxmann, 2019
DOI:
10.31244/9783830991007
URN:
urn:nbn:de:0111-pedocs-183155
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-183155
Dokumenttyp:
2. Herausgeberschaft; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Leseförderung; Textverständnis; Schüler; Migrationshintergrund; Muttersprache; Außerunterrichtliche Aktivität; Soziale Herkunft; Einflussfaktor; Mathematische Kompetenz; Geschlechtsspezifischer Unterschied; Naturwissenschaftliche Kompetenz; Schulform; Methodologie; PISA <Programme for International Student Assessment>; Schülerleistung; Leistungsmessung; Lesekompetenz; Schülerleistungstest; Digitale Medien; Mediennutzung; Veränderung; Leseverhalten; Testaufgabe; Antwort; Lesen; Strategie; Selbstkonzept; Motivation; Sprachförderung; Technologiebasiertes Testen; Testkonstruktion; Konzeption; Internationaler Vergleich; OECD-LÄnder; Deutschland
Abstract:
Der nationale Berichtsband stellt die Ergebnisse der Schülerinnen und Schüler in Deutschland aus der PISA-Studie 2018 vor und setzt sie in Relation zu den Ergebnissen in anderen Staaten. Der Schwerpunkt der Erhebungen und Auswertungen liegt dabei auf der Lesekompetenz. Die Rahmenkonzeption der Lesekompetenz wurde für die PISA-Studie 2018 im Vergleich zu den vorigen Runden einer Revision unterzogen und berücksichtigt nun die sich verändernde Lesepraxis, die mit der Nutzung digitaler Medien einhergeht. Es werden leistungsbezogene Variablen genauso wie motivationale Orientierungen, Einstellungen und Verhalten erfasst, die für die Lesekompetenz wichtig sein können. Daneben wird der Beitrag der sozialen Herkunft und des Zuwanderungshintergrunds für die Lesekompetenzen untersucht. Darüber hinaus werden die Kompetenzen der Jugendlichen in der Mathematik und den Naturwissenschaften vorgestellt und diskutiert. (DIPF/Verlag).
DIPF-Abteilung:
Bildungsqualität und Evaluation
The role of planning in complex problem solving
Eichmann, Beate; Goldhammer, Frank; Greiff, Samuel; Pucite, Liene; Naumann, Johannes
Zeitschriftenbeitrag
| In: Computers & Education | 2019
38657 Endnote
Autor*innen:
Eichmann, Beate; Goldhammer, Frank; Greiff, Samuel; Pucite, Liene; Naumann, Johannes
Titel:
The role of planning in complex problem solving
In:
Computers & Education, 128 (2019) , S. 1-12
DOI:
10.1016/j.compedu.2018.08.004
URN:
urn:nbn:de:0111-dipfdocs-174087
URL:
https://nbn-resolving.org/urn:nbn:de:0111-dipfdocs-174087
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Problemlösen; Planung; Technologiebasiertes Testen; Logdatei; PISA <Programme for International Student Assessment>
Abstract:
Complex problem solving (CPS) is a highly transversal competence needed in educational and vocational settings as well as everyday life. The assessment of CPS is often computer-based, and therefore provides data regarding not only the outcome but also the process of CPS. However, research addressing this issue is scarce. In this article we investigated planning activities in the process of complex problem solving. We operationalized planning through three behavioral measures indicating the duration of the longest planning interval, the delay of the longest planning interval and the variance of intervals between each two successive interactions. We found a significant negative average effect for our delay indicator, indicating that early planning in CPS is more beneficial. However, we also found effects depending on task and interaction effects for all three indicators, suggesting that the effects of different planning behaviors on CPS are highly intertwined. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Validating process variables of sourcing in an assessment of multiple document comprehension
Hahnel, Carolin; Kroehne, Ulf; Goldhammer, Frank; Schoor, Cornelia; Mahlow, Nina; Artelt, Cordula
Zeitschriftenbeitrag
| In: British Journal of Educational Psychology | 2019
39118 Endnote
Autor*innen:
Hahnel, Carolin; Kroehne, Ulf; Goldhammer, Frank; Schoor, Cornelia; Mahlow, Nina; Artelt, Cordula
Titel:
Validating process variables of sourcing in an assessment of multiple document comprehension
In:
British Journal of Educational Psychology, 89 (2019) 3, S. 524-537
DOI:
10.1111/bjep.12278
URN:
urn:nbn:de:0111-dipfdocs-191514
URL:
https://onlinelibrary.wiley.com/doi/full/10.1111/bjep.12278
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Leistungsmessung; Technologiebasiertes Testen; Dokument; Verstehen; Quelle; Information; Strategie; Logdatei; Indikator; Validität; Student; Universität; Deutschland
Abstract:
Background: With digital technologies, competence assessments can provide process data, such as mouse clicks with corresponding timestamps, as additional information about the skills and strategies of test takers. However, in order to use variables generated from process data sensibly for educational purposes, their interpretation needs to be validated with regard to their intended meaning. Aims: This study seeks to demonstrate how process data from an assessment of multiple document comprehension can be used to represent sourcing, which summarizes activities for the consideration of the origin and intention of documents. The investigated process variables were created according to theoretical assumptions about sourcing, and systematically tested for differences between persons, units (i.e., documents and items), and properties of the test administration. Sample: The sample included 310 German university students (79.4% female), enrolled in several bachelor's or master's programmes of the social sciences and humanities. Methods: Regarding the hierarchical data structure, the hypotheses were analysed with generalized linear mixed models (GLMM). Results: The results mostly revealed expected differences between individuals and units. However, unexpected effects of the administered order of units and documents were detected. Conclusions: The study demonstrates the theory‐informed construction of process variables from log‐files and an approach for empirical validation of their interpretation. The results suggest that students apply sourcing for different reasons, but also stress the need of further validation studies and refinements in the operationalization of the indicators investigated. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based […]
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Zeitschriftenbeitrag
| In: Educational Measurement | 2019
39814 Endnote
Autor*innen:
Kroehne, Ulf; Buerger, Sarah; Hahnel, Carolin; Goldhammer, Frank
Titel:
Construct equivalence of PISA reading comprehension measured with paper‐based and computer‐based assessments
In:
Educational Measurement, 38 (2019) 3, S. 97-111
DOI:
10.1111/emip.12280
URL:
https://onlinelibrary.wiley.com/doi/abs/10.1111/emip.12280
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Einflussfaktor; Schülerleistung; Frage; Antwort; Interaktion; Unterschied; Vergleich; Item-Response-Theory; Deutschland; PISA <Programme for International Student Assessment>; Leseverstehen; Messverfahren; Testkonstruktion; Korrelation; Äquivalenz; Papier-Bleistift-Test; Computerunterstütztes Verfahren; Technologiebasiertes Testen; Leistungsmessung; Testverfahren; Testdurchführung
Abstract:
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
Abstract (english):
For many years, reading comprehension in the Programme for International Student Assessment (PISA) was measured via paper‐based assessment (PBA). In the 2015 cycle, computer‐based assessment (CBA) was introduced, raising the question of whether central equivalence criteria required for a valid interpretation of the results are fulfilled. As an extension of the PISA 2012 main study in Germany, a random subsample of two intact PISA reading clusters, either computerized or paper‐based, was assessed using a random group design with an additional within‐subject variation. The results are in line with the hypothesis of construct equivalence. That is, the latent cross‐mode correlation of PISA reading comprehension was not significantly different from the expected correlation between the two clusters. Significant mode effects on item difficulties were observed for a small number of items only. Interindividual differences found in mode effects were negatively correlated with reading comprehension, but were not predicted by basic computer skills or gender. Further differences between modes were found with respect to the number of missing values.
DIPF-Abteilung:
Bildungsqualität und Evaluation
Invariance of the response processes between gender and modes in an assessment of reading
Kroehne, Ulf; Hahnel, Carolin; Goldhammer, Frank
Zeitschriftenbeitrag
| In: Frontiers in Applied Mathematics and Statistics | 2019
39231 Endnote
Autor*innen:
Kroehne, Ulf; Hahnel, Carolin; Goldhammer, Frank
Titel:
Invariance of the response processes between gender and modes in an assessment of reading
In:
Frontiers in Applied Mathematics and Statistics, (2019) , S. 5:2
DOI:
10.3389/fams.2019.00002
URL:
https://www.frontiersin.org/articles/10.3389/fams.2019.00002/full
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Beitrag in Sonderheft
Sprache:
Englisch
Schlagwörter:
Lesefertigkeit; Technologiebasiertes Testen; Computerunterstütztes Verfahren; Papier-Bleistift-Test; Antwort; Zeit; Messung; Item-Response-Theory; Modell; Geschlechtsspezifischer Unterschied; Logdatei; Datenanalyse; Empirische Untersuchung; Deutschland
Abstract:
In this paper, we developed a method to extract item-level response times from log data that are available in computer-based assessments (CBA) and paper-based assessments (PBA) with digital pens. Based on response times that were extracted using only time differences between responses, we used the bivariate generalized linear IRT model framework (B-GLIRT, [1]) to investigate response times as indicators for response processes. A parameterization that includes an interaction between the latent speed factor and the latent ability factor in the cross-relation function was found to fit the data best in CBA and PBA. Data were collected with a within-subject design in a national add-on study to PISA 2012 administering two clusters of PISA 2009 reading units. After investigating the invariance of the measurement models for ability and speed between boys and girls, we found the expected gender effect in reading ability to coincide with a gender effect in speed in CBA. Taking this result as indication for the validity of the time measures extracted from time differences between responses, we analyzed the PBA data and found the same gender effects for ability and speed. Analyzing PBA and CBA data together we identified the ability mode effect as the latent difference between reading measured in CBA and PBA. Similar to the gender effect the mode effect in ability was observed together with a difference in the latent speed between modes. However, while the relationship between speed and ability is identical for boys and girls we found hints for mode differences in the estimated parameters of the cross-relation function used in the B-GLIRT model. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Kollaboratives Problemlösen in PISA 2015. Deutschland im Fokus
Zehner, Fabian; Weis, Mirjam; Vogel, Freydis; Leutner, Detlev; Reiss, Kristina
Zeitschriftenbeitrag
| In: Zeitschrift für Erziehungswissenschaft | 2019
39123 Endnote
Autor*innen:
Zehner, Fabian; Weis, Mirjam; Vogel, Freydis; Leutner, Detlev; Reiss, Kristina
Titel:
Kollaboratives Problemlösen in PISA 2015. Deutschland im Fokus
In:
Zeitschrift für Erziehungswissenschaft, 22 (2019) 3, S. 617-646
DOI:
10.1007/s11618-019-00874-4
URN:
urn:nbn:de:0111-pedocs-176046
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-176046
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Schülerleistungstest; Fragebogen; PISA <Programme for International Student Assessment>; Internationaler Vergleich; Deutschland; OECD-Länder; Schüler; Problemlösen; Kooperation; Kompetenz; Schuljahr; Schulform; Computerunterstütztes Verfahren; Simulation; Technologiebasiertes Testen; Messverfahren; Qualität; Psychometrie; Item-Response-Theory; Skalierung
Abstract:
Dieser Beitrag fokussiert die Ergebnisse in Deutschland zum internationalen Vergleich kollaborativer Problemlösekompetenz bei Fünfzehnjährigen im Programme for International Student Assessment (PISA) 2015 und berichtet Ergebnisse einer Kreuzvalidierung der Skalierung. Eingesetzt wurde ein neuer computerbasierter Test, der die Schülerinnen und Schüler mit simulierten Gruppenmitgliedern Probleme lösen lässt. Daten von n = 124.994 Fünfzehnjährigen aus 51 Staaten zur kollaborativen Problemlösekompetenz wurden erhoben. Die Schülerinnen und Schüler in Deutschland weisen eine überdurchschnittliche Kompetenz auf (525 Punkte), liegen eine viertel Standardabweichung unter dem OECD-Spitzenstaat Japan (552 Punkte) und eine viertel Standardabweichung über dem OECD-Schnitt (500 Punkte). In allen Staaten weisen Mädchen höhere Werte auf als Jungen. Während der Anteil hochkompetenter Jugendlicher in Deutschland vergleichbar hoch mit den Spitzenstaaten ausfällt, erreichen 21 % nur Kompetenzstufe I oder bleiben darunter, doppelt so viele wie in Japan. Der Beitrag präsentiert zudem nationale Ergebnisse, liefert empirische Evidenz zur Qualität des Tests und diskutiert diesen kritisch. (DIPF/Orig.)
Abstract (english):
Focusing on Germany, this article presents results from the international comparison of fifteen-year-olds in collaborative problem solving and a cross validation of the scaling in the Programme for International Student Assessment (PISA) 2015. A new computer-based test was used requesting students to solve a problem jointly with simulated group members. Data from collaborative problem solving of fifteen-year-olds (n = 124,994) in 51 countries were assessed. The German mean competence level (525 points) is a quarter standard deviation above the OECD average (500 points) and a quarter standard deviation below the OECD's top performing country Japan (552 points). In all participating countries, girls outperform boys. While the percentage of top-performing students in Germany is comparable to proportions in the best-performing OECD countries, 21% of the students in Germany only reach competence level I or below, twice as many as in Japan. National results are presented as well as empirical evidence on the quality of the test, which is critically discussed. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Künstliche Intelligenz. Ihr Potenzial und der Mythos des Lehrkraft-Bots
Zehner, Fabian
Zeitschriftenbeitrag
| In: Schulmanagement-Handbuch | 2019
39057 Endnote
Autor*innen:
Zehner, Fabian
Titel:
Künstliche Intelligenz. Ihr Potenzial und der Mythos des Lehrkraft-Bots
In:
Schulmanagement-Handbuch, (2019) 169, S. 6-30
URN:
urn:nbn:de:0111-pedocs-175610
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-175610
Dokumenttyp:
3b. Beiträge in weiteren Zeitschriften; praxisorientiert
Sprache:
Deutsch
Schlagwörter:
Künstliche Intelligenz; Begriff; Computer; Spracherkennung; Data Mining; Codierung; Technologie; Innovation; Unterricht; Lernen; Unterstützung; Testauswertung; E-Learning; Bildungsforschung
Abstract:
[In diesem] Kapitel legt der Autor dar, was Künstliche Intelligenz ausmacht, in welchen Bereichen wir bereits mit Künstlicher Intelligenz konfrontiert sind und wie sie schon heute in unseren Alltag integriert sind. Darauffolgend wird erläutert, wie Künstliche Intelligenz im Bildungsbereich gewinnbringend eingesetzt werden kann. (DIPF/Orig.)
DIPF-Abteilung:
Bildungsqualität und Evaluation
Information literacy and its interplay with AI
Heck, Tamara; Weisel, Luzian; Kullmann, Sylvia
Sammelbandbeitrag
| Aus: DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation (Hrsg.): Proceedings of Conference on Learning Information Literacy across the Globe, Frankfurt am Main, Germany, 10th of May 2019 | Frankfurt am Main: DIPF | Leibniz‐Institut für Bildungsforschung und Bildungsinformation | 2019
39306 Endnote
Autor*innen:
Heck, Tamara; Weisel, Luzian; Kullmann, Sylvia
Titel:
Information literacy and its interplay with AI
Aus:
DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation (Hrsg.): Proceedings of Conference on Learning Information Literacy across the Globe, Frankfurt am Main, Germany, 10th of May 2019, Frankfurt am Main: DIPF | Leibniz‐Institut für Bildungsforschung und Bildungsinformation, 2019 , S. 2
URL:
https://informationliteracy.eu/conference/assets/papers/LILG-2019_Weisel-Heck_IL-interplay-AI.pdf
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Informationskompetenz; Technologie; Digitalisierung; Literalität; Künstliche Intelligenz; Lernprozess; Unterstützung
Abstract:
Information literacy (IL) [1] - and similarly digital literacy [2, 3] - want to convey skills to handle information and data, its use and the creation of new information and services. It emphasizes to teach competencies that enable learners to adapt to new environments and thus foster life-long learning. Artificial intelligence systems (AI) enter all kinds of areas, specifically the educational sector on all levels. For example, learning analytics and learning supportive services are established. Learners might see the opportunities of those services that promise to foster individual learning and skill development. At the same time, they need to develop novel kinds of literacy to understand and to apply AI. Thus, IL teaching and literacy frameworks need to consider an adaptation to recent changes that come with AI. Our contribution wants to start a discussion within the IL expert field on how IL teaching needs to prepare learners for the new era of AI. We will discuss if IL teaching frameworks need to be adapted to foster AI literacy and moreover, how IL teaching concept can benefit from developments in AI. Based on a scoping review in AI in education, we will introduce current ideas of AI technology and applications and discuss them in relation to IL teaching schemes [2]. Following up the dialog of our IL working group [4], we want to contribute to current discussions on AI in education and the potential influence it might have on IL teaching, and reversely. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Markierungen aufheben
Alle Treffer markieren
Export
<
1
...
3
4
(aktuell)
5
...
14
>
Alle anzeigen
(133)