Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Linguistik")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
115
Inhalte gefunden
Alle Details anzeigen
Twin BERT contextualized sentence embedding space learning and gradient-boosted decision tree […]
Gombert, Sebastian
Sammelbandbeitrag
| Aus: Zehe, Albin; Konle, Leonard; Dümpelmann, Lea; Guis, Evelyn; Guhr, Svenja; Hotho, Andreas; Jannidis, Fotis; Kaufmann, Lucas; Krug, Markus; Puppe, Frank; Reiter, Nils; Schreiber, Annekea (Hrsg.): Shared Task on Scene Segmentation @ KONVENS 2021 (STSS 2021): Proceedings of the Shared Task on Scene Segmentation, co-located with the 17th Conference on Natural Language Processing (KONVENS 2021), Düsseldorf, Germany, September 6th, 2021 | Aachen: RWTH | 2021
42080 Endnote
Autor*innen:
Gombert, Sebastian
Titel:
Twin BERT contextualized sentence embedding space learning and gradient-boosted decision tree ensembles for scene segmentation in German literature
Aus:
Zehe, Albin; Konle, Leonard; Dümpelmann, Lea; Guis, Evelyn; Guhr, Svenja; Hotho, Andreas; Jannidis, Fotis; Kaufmann, Lucas; Krug, Markus; Puppe, Frank; Reiter, Nils; Schreiber, Annekea (Hrsg.): Shared Task on Scene Segmentation @ KONVENS 2021 (STSS 2021): Proceedings of the Shared Task on Scene Segmentation, co-located with the 17th Conference on Natural Language Processing (KONVENS 2021), Düsseldorf, Germany, September 6th, 2021, Aachen: RWTH, 2021 (CEUR Workshop Proceedings, 3001), S. 42-48
URL:
http://ceur-ws.org/Vol-3001/paper5.pdf
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Geisteswissenschaften; Digitalisierung; Text; Erzählung; Szene; Segmentierung; Künstliche Intelligenz; Computerlinguistik; Tagungsbeitrag
Abstract:
Dieser Beitrag dokumentiert eine Einreichung für die Shared Task zur Szenensegmentierung, die im Rahmen der KONVENS 2021 durchgeführt wurde (Zehe et al., 2021b). Ziel dieser Gemeinschaftsaufgabe war es, Methoden zu finden, um narrative Texte in verschiedene Szenen zu segmentieren - Textabschnitte, in denen Ort, Zeit und Figurenkonstellation mehr oder weniger kohärent bleiben. Diese Aufgabe wird als Satzklassifikationsaufgabe formuliert, bei der Sätze am Rande der Szenen von Sätzen innerhalb der Szene unterschieden werden müssen. Der in dieser Arbeit vorgestellte Ansatz basiert auf zwei Schritten. Im ersten Schritt wird ein Twin-BERT-Trainingsaufbau verwendet, um einen Satzeinbettungsraum zu erlernen, in dem Sätze, die als Szenengrenzen fungieren, gut von Sätzen, die sich in der Szene befinden, unterschieden werden. Im zweiten Schritt werden die von diesem Modell generierten Satzeinbettungen als Merkmalsvektoren verwendet, um ein gradient-boosted Entscheidungsbaum-Ensemble zu füttern, das die endgültigen Vorhersagen durchführt. In der Rangliste der gemeinsamen Aufgaben belegte das System den zweiten Platz in Track 1 und den ersten Platz in Track 2. (Übersetzt mit www.DeepL.com/Translator (kostenlose Version))
Abstract (english):
This paper documents a submission to the shared task on scene segmentation hosted at KONVENS 2021 (Zehe et al., 2021b). The aim of this shared task was to find methods for segmenting narrative texts into different scenes-segments of text where location, time and the constellation of characters stay more or less coherent. This task is formulated as a sentence classification task where sentences bordering the scenes have to be distinguished from in-scene sentences. The approach presented in this paper is based on two steps. In the first one, a twin BERT training setup is used to learn a sentence embedding space in which sentences functioning as scene borders are well-separated from ones that are in-scene. In the second one, the sentence embeddings generated by this model are used as feature vectors to feed a gradient-boosted decision tree ensemble which conducts final predictions. In the shared task leaderboard, the system ranked second in track 1 and first in track 2. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Sind Fortbildungsmaßnahmen zu linguistisch fundierter Sprachförderung wirksam? Analysen zu den […]
Lemmer, Rabea; Huschka, Sina; Geyer, Sabrina; Brandenburg, Janin; Ehm, Jan-Henning; […]
Zeitschriftenbeitrag
| In: Frühe Bildung | 2019
39648 Endnote
Autor*innen:
Lemmer, Rabea; Huschka, Sina; Geyer, Sabrina; Brandenburg, Janin; Ehm, Jan-Henning; Lausecker, Alina; Schulz, Petra; Hasselhorn, Marcus
Titel:
Sind Fortbildungsmaßnahmen zu linguistisch fundierter Sprachförderung wirksam? Analysen zu den Kompetenzen von Fachkräften und mehrsprachigen Kindern
In:
Frühe Bildung, 8 (2019) 4, S. 181-186
DOI:
10.1026/2191-9186/a000442
URN:
urn:nbn:de:0111-pedocs-237764
URL:
https://nbn-resolving.org/urn:nbn:de:0111-pedocs-237764
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Erzieher; Weiterbildung; Linguistik; Wirkung; Professionalisierung; Kind; Vorschulalter; Grundschulalter; Sprachförderung; Kompetenz; Mehrsprachigkeit; Testverfahren; Sprachkompetenz; Deutsch als Zweitsprache; Grammatik; Quasi-Experiment; Deutschland
Abstract:
Ziel des Beitrags ist es, die Effektivität einer Fortbildungsmaßnahme zu linguistisch fundierter Sprachförderung zu untersuchen. In einem Prätest-Posttest-Kontrollgruppen-Design wurden die Sprachförderkompetenz von Fachkräften (n = 33) und die produktiven Sprachfähigkeiten der von ihnen geförderten mehrsprachigen Kinder (n = 78) in den Bereichen Satzstruktur und Kasus erhoben. Die Sprachförderkompetenz der pädagogischen Fachkräfte aus der Experimentalgruppe (n = 18) war nach Abschluss der Fortbildungsmaßnahme signifikant höher als die Sprachförderkompetenz der pädagogischen Fachkräfte, die keine Fortbildung besucht haben (n = 15); zudem verbesserten sich die geförderten Kinder im Bereich der Satzstruktur signifikant gegenüber Kindern, deren Fachkräfte keine Fortbildung besuchten. Für den Erwerbsbereich Kasus gab es keine Effekte. (DIPF/Orig.)
Abstract (english):
This study investigates the effectiveness of professional training in linguistically based language intervention. In a pre-/posttest control group design we measured the languagetraining competencies of 33 early childhood educators and the language abilities of 78 bilingual children attending the day care centers of the trained childhood educators. The language training competencies of the trained group of early childhood educators (n = 18) increased significantly from pre- to posttest compared to non-trained educators (n = 15). Moreover, improvement regarding sentence structure was significantly higher in the bilingual children attending the daycare centers of the trained childhood educators than in the children of nontrained educators. No effects were found for improvement of case marking. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Sprachförderung für Schülerinnen und Schüler mit Deutsch als Zweitsprache. Mythen und Fakten
Geyer, Sabrina; Voet Cornelli, Barbara; Lemmer, Rabea; Müller, Anja; Schulz, Petra
Sammelbandbeitrag
| Aus: Ziehm, Jeanette; Voet Cornelli, Barbara; Menzel, Birgit; Goßmann, Martina (Hrsg.): Schule migrationssensibel gestalten: Impulse für die Praxis | Weinheim: Beltz | 2019
38980 Endnote
Autor*innen:
Geyer, Sabrina; Voet Cornelli, Barbara; Lemmer, Rabea; Müller, Anja; Schulz, Petra
Titel:
Sprachförderung für Schülerinnen und Schüler mit Deutsch als Zweitsprache. Mythen und Fakten
Aus:
Ziehm, Jeanette; Voet Cornelli, Barbara; Menzel, Birgit; Goßmann, Martina (Hrsg.): Schule migrationssensibel gestalten: Impulse für die Praxis, Weinheim: Beltz, 2019 (Pädagogik), S. 11-30
Dokumenttyp:
4. Beiträge in Sammelwerken; Sammelband (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Schüler; Deutsch als Zweitsprache; Sprachförderung; Vorstellung <Psy>; Sprachfertigkeit; Bewertung; Sprachkompetenz; Förderung; Spracherwerb; Sprachentwicklung; Sprachgebrauch; Forschung; Sprachwissenschaft; Linguistik
Abstract:
[In diesem Beitrag werden] Mythen und Fakten rund um die Sprachförderung von Schüler/innen mit Deutsch als Zweitsprache [erläutert]. Dabei werden in der Praxis verbreitete Annahmen zur Sprachförderung aufgegriffen und wissenschaftlichen Befunden aus der Spracherwerbsforschung gegenübergestellt. Der Beitrag schließt mit Empfehlungen für eine wirksame Sprachförderung für Schüler/innen mit Deutsch als Zweitsprache. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
"Man wird hellhörig und merkt: Was sagt man eigentlich so den ganzen Tag?" Coachings in der […]
Geyer, Sabrina; Lemmer, Rabea
Zeitschriftenbeitrag
| In: Sprache im Beruf | 2018
38579 Endnote
Autor*innen:
Geyer, Sabrina; Lemmer, Rabea
Titel:
"Man wird hellhörig und merkt: Was sagt man eigentlich so den ganzen Tag?" Coachings in der Sprachförderung
In:
Sprache im Beruf, 1 (2018) 1, S. 113-124
DOI:
10.25656/01:16626
URN:
urn:nbn:de:0111-pedocs-166267
URL:
http://nbn-resolving.org/urn:nbn:de:0111-pedocs-166267
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Sprachförderung; Kindertagesstätte; Grundschule; Fachkraft; Gesprochene Sprache; Professionalisierung; Linguistik; Beobachtung; Videoaufzeichnung; Coaching
Abstract:
Im Beitrag wird aus sprachwissenschaftlicher Perspektive beschrieben, wie Qualifizierungsmaßnahmen im Bereich der Sprachförderung durch (videobasierte) Coachings ergänzt werden können. Nach einer Darstellung des Konzepts der linguistisch fundierten Sprachförderung wird die Rolle des sprachlichen Handelns pädagogischer Fachkräfte beleuchtet. Auf dieser Grundlage werden im Beitrag konkrete Ansatzpunkte, Methoden und Materialien zum Coaching des sprachlichen Handelns in der Sprachförderung vorgestellt und anhand von Beispielen illustriert. (DIPF/Orig.)
Abstract (english):
The article explains from a linguistic perspective how qualification measures in the field of language training can be supplemented by (video-based) coachings. After describing the concept of linguistically based language training, the role of the language used by the teachers and instructors staff will be explained. On this basis, concrete contributions, methods and materials for coaching language use in language training are presented; selected examples will further illustrate these. (DIPF/Orig.)
DIPF-Abteilung:
Bildung und Entwicklung
Argumentation mining in user-generated web discourse
Habernal, Ivan; Gurevych, Iryna
Zeitschriftenbeitrag
| In: Computational Linguistics Journal | 2017
36233 Endnote
Autor*innen:
Habernal, Ivan; Gurevych, Iryna
Titel:
Argumentation mining in user-generated web discourse
In:
Computational Linguistics Journal, 43 (2017) 1, S. 125-179
DOI:
10.1162/COLI_a_00276
URL:
http://www.mitpressjournals.org/doi/abs/10.1162/COLI_a_00276#.WIDIonpp-nU
Dokumenttyp:
3a. Beiträge in begutachteten Zeitschriften; Aufsatz (keine besondere Kategorie)
Sprache:
Englisch
Schlagwörter:
Argumentation; Automatisierung; Computerlinguistik; Data Mining; Diskurs; Erziehungswissenschaft; Information Retrieval; Modell; Reliabilität; Soziale Software; Textanalyse; World wide web 2.0
Abstract:
The goal of argumentation mining, an evolving research field in computational linguistics, is to design methods capable of analyzing people's argumentation. In this article, we go beyond the state of the art in several ways. (i) We deal with actual Web data and take up the challenges given by the variety of registers, multiple domains, and unrestricted noisy user-generated Web discourse. (ii) We bridge the gap between normative argumentation theories and argumentation phenomena encountered in actual data by adapting an argumentation model tested in an extensive annotation study. (iii) We create a new gold standard corpus (90k tokens in 340 documents) and experiment with several machine learning methods to identify argument components. We offer the data, source codes, and annotation guidelines to the community under free licenses. Our findings show that argumentation mining in user-generated Web discourse is a feasible but challenging task. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
What is the essence of a claim? Cross-domain claim identification
Daxenberger, Johannes; Habernal, Ivan; Stab, Christian; Gurevych, Iryna
Sammelbandbeitrag
| Aus: Association for Computational Linguistics (Hrsg.): The Conference on Empirical Methods in Natural Language Processing (EMNLP 2017): Proceedings of the conference, September 9-11, 2017, Copenhagen, Denmark | Stroudsburg; PA: Association for Computational Linguistics | 2017
37872 Endnote
Autor*innen:
Daxenberger, Johannes; Habernal, Ivan; Stab, Christian; Gurevych, Iryna
Titel:
What is the essence of a claim? Cross-domain claim identification
Aus:
Association for Computational Linguistics (Hrsg.): The Conference on Empirical Methods in Natural Language Processing (EMNLP 2017): Proceedings of the conference, September 9-11, 2017, Copenhagen, Denmark, Stroudsburg; PA: Association for Computational Linguistics, 2017 , S. 2045-2056
URL:
http://www.aclweb.org/anthology/D/D17/D17-1217.pdf
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Argumentation; Computerlinguistik; Data Mining; Qualitative Forschung; Sprachanalyse; Text; Textanalyse
Abstract:
Argument mining has become a popular research area in NLP. It typically includes the identification of argumentative components, e.g. claims, as the central component of an argument. We perform a qualitative analysis across six different datasets and show that these appear to conceptualize claims quite differently. To learn about the consequences of such different conceptualizations of claim for practical applications, we carried out extensive experiments using state-of-the-art feature-rich and deep learning systems, to identify claims in a cross-domain fashion. While the divergent conceptualization of claims in different datasets is indeed harmful to cross-domain classification, we show that there are shared properties on the lexical level as well as system configurations that can help to overcome these gaps. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Neural end-to-end learning for computational argumentation mining
Eger, Steffen; Daxenberger, Johannes; Gurevych, Iryna
Sammelbandbeitrag
| Aus: Association for Computational Linguistics (Hrsg.): The 55th Annual Meeting of the Association for Computational Linguistics (ACL 2017): Proceedings of the conference, vol. 1 (long papers), July 30 - August 4, 2017, Vancouver, Canada | Stroudsburg; PA: Association for Computational Linguistics | 2017
37878 Endnote
Autor*innen:
Eger, Steffen; Daxenberger, Johannes; Gurevych, Iryna
Titel:
Neural end-to-end learning for computational argumentation mining
Aus:
Association for Computational Linguistics (Hrsg.): The 55th Annual Meeting of the Association for Computational Linguistics (ACL 2017): Proceedings of the conference, vol. 1 (long papers), July 30 - August 4, 2017, Vancouver, Canada, Stroudsburg; PA: Association for Computational Linguistics, 2017 , S. 11-22
DOI:
10.18653/v1/P17-1002
URL:
https://aclanthology.info/pdf/P/P17/P17-1002.pdf
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Argumentation; Automatisierung; Computerlinguistik; Data Mining; Klassifikation; Rhetorik; Semantik; Textanalyse
Abstract:
We investigate neural techniques for end-to-end computational argumentation mining (AM). We frame AM both as a token-based dependency parsing and as a token-based sequence tagging problem, including a multi-task learning setup. Contrary to models that operate on the argument component level, we find that framing AM as dependency parsing leads to subpar performance results. In contrast, less complex (local) tagging models based on BiL-STMs perform robustly across classification scenarios, being able to catch long-range dependencies inherent to the AM problem. Moreover, we find that jointly learning 'natural' subtasks, in a multi-task learning setup, improves performance. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
EELECTION at SemEval-2017 Task 10. Ensemble of nEural Learners for kEyphrase ClassificaTION
Eger, Steffen; Do Dinh, Erik-Lân; Kuznetsov, Ilia; Kiaeeha, Masoud; Gurevych, Iryna
Sammelbandbeitrag
| Aus: Association for Computational Linguistics (Hrsg.): 11th International Workshop on Semantic Evaluations (SemEval-2017): Proceedings of the workshop, August 3-4, 2017, Vancouver, Canada | Stroudsburg; PA: Association for Computational Linguistics | 2017
37870 Endnote
Autor*innen:
Eger, Steffen; Do Dinh, Erik-Lân; Kuznetsov, Ilia; Kiaeeha, Masoud; Gurevych, Iryna
Titel:
EELECTION at SemEval-2017 Task 10. Ensemble of nEural Learners for kEyphrase ClassificaTION
Aus:
Association for Computational Linguistics (Hrsg.): 11th International Workshop on Semantic Evaluations (SemEval-2017): Proceedings of the workshop, August 3-4, 2017, Vancouver, Canada, Stroudsburg; PA: Association for Computational Linguistics, 2017 , S. 942-946
URL:
http://aclweb.org/anthology/S17-2163
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Computerlinguistik; Klassifikation; Publikation; Semantik; Textanalyse; Wissenschaft
Abstract:
This paper describes our approach to the SemEval 2017 Task 10: "Extracting Keyphrases and Relations from Scientific Publications", specifically to Subtask (B): "Classification of identified keyphrases". We explored three different deep learning approaches: a character-level convolutional neural network (CNN), a stacked learner with an MLP meta-classifier, and an attention based Bi-LSTM. From these approaches, we created an ensemble of differently hyper-parameterized systems, achieving a micro-F1-score of 0.63 on the test data. Our approach ranks 2nd (score of 1st placed system: 0.64) out of four according to this official score. However, we erroneously trained 2 out of 3 neural nets (the stacker and the CNN) on only roughly 15% of the full data, namely, the original development set. When trained on the full data (training+development), our ensemble has a micro-F1-score of 0.69. Our code is available from https://github.com/UKPlab/semeval2017-scienceie. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Frame-based data factorizations
Mair, Sebastian; Boubekki, Ahcène; Brefeld, Ulf
Sammelbandbeitrag
| Aus: Precup, Doina; Teh, Yee Whye (Hrsg.): Proceedings of the International Conference on Machine Learning (IMCL 2017), 6-11 August 2017, International Convention Centre, Sydney, Australia | Red Hook; NY: Curran | 2017
37658 Endnote
Autor*innen:
Mair, Sebastian; Boubekki, Ahcène; Brefeld, Ulf
Titel:
Frame-based data factorizations
Aus:
Precup, Doina; Teh, Yee Whye (Hrsg.): Proceedings of the International Conference on Machine Learning (IMCL 2017), 6-11 August 2017, International Convention Centre, Sydney, Australia, Red Hook; NY: Curran, 2017 (Proceedings of Machine Learning Research, 70), S. 2305-2313
URL:
http://proceedings.mlr.press/v70/mair17a/mair17a.pdf
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Algorithmus; Automatisierung; Computerlinguistik; Daten; Datenanalyse; Methode; Verfahren
Abstract:
Archetypal Analysis is the method of choice to compute interpretable matrix factorizations. Every data point is represented as a convex combination of factors, i.e., points on the boundary of the convex hull of the data. This renders computation inefficient. In this paper, we show that the set of vertices of a convex hull, the so-called frame, can be efficiently computed by a quadratic program. We provide theoretical and empirical results for our proposed approach and make use of the frame to accelerate Archetypal Analysis. The novel method yields similar reconstruction errors as baseline competitors but is much faster to compute. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
SemEval-2017 task 7. Detection and interpretation of English puns
Miller, Tristan; Hempelmann, Christian; Gurevych, Iryna
Sammelbandbeitrag
| Aus: Association for Computational Linguistics (Hrsg.): 11th International Workshop on Semantic Evaluations (SemEval-2017): Proceedings of the workshop, August 3-4, 2017, Vancouver, Canada | Stroudsburg; PA: Association for Computational Linguistics | 2017
37877 Endnote
Autor*innen:
Miller, Tristan; Hempelmann, Christian; Gurevych, Iryna
Titel:
SemEval-2017 task 7. Detection and interpretation of English puns
Aus:
Association for Computational Linguistics (Hrsg.): 11th International Workshop on Semantic Evaluations (SemEval-2017): Proceedings of the workshop, August 3-4, 2017, Vancouver, Canada, Stroudsburg; PA: Association for Computational Linguistics, 2017 , S. 58-68
DOI:
10.18653/v1/S17-2005
URL:
http://aclweb.org/anthology/S17-2005
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Computerlinguistik; Wort; Humor; Rhetorik; Semantik; Linguistik; Phonologie; Automatisierung; Erkennen; Interpretation; System; Evaluation
Abstract:
A pun is a form of wordplay in which a word suggests two or more meanings by exploiting polysemy, homonymy, or phonological similarity to another word, for an intended humorous or rhetorical effect. Though a recurrent and expected feature in many discourse types, puns stymie traditional approaches to computational lexical semantics because they violate their one-sense-per-context assumption. This paper describes the first competitive evaluation for the automatic detection, location, and interpretation of puns. We describe the motivation for these tasks, the evaluation methods, and the manually annotated data set. Finally, we present an overview and discussion of the participating systems' methodologies, resources, and results. (DIPF/Orig.)
DIPF-Abteilung:
Informationszentrum Bildung
Markierungen aufheben
Alle Treffer markieren
Export
1
(aktuell)
2
3
...
12
>
Alle anzeigen
(115)