Menü Überspringen
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Anmelden
DIPF aktuell
Forschung
Infrastrukturen
Institut
Zurück
Kontakt
Presse
Deutsch
English
Not track
Datenverarbeitung
Suche
Startseite
>
Forschung
>
Publikationen
>
Publikationendatenbank
Ergebnis der Suche in der DIPF Publikationendatenbank
Ihre Abfrage:
(Schlagwörter: "Thesaurus")
zur erweiterten Suche
Suchbegriff
Nur Open Access
Suchen
Markierungen aufheben
Alle Treffer markieren
Export
6
Inhalte gefunden
Alle Details anzeigen
Analyzing domain suitability of a sentiment lexicon by identifying distributionally bipolar words
Flekova, Lucie; Ruppert, Eugen; Preotiuc-Pietro, Daniel
Sammelbandbeitrag
| Aus: Association for Computational Linguistics (Hrsg.): 6th workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis (WASSA 2015): Workshop proceedings, 17 September 2015, Lisboa, Portugal | Red Hook; NY: Association for Computational Linguistics | 2015
37028 Endnote
Autor*innen:
Flekova, Lucie; Ruppert, Eugen; Preotiuc-Pietro, Daniel
Titel:
Analyzing domain suitability of a sentiment lexicon by identifying distributionally bipolar words
Aus:
Association for Computational Linguistics (Hrsg.): 6th workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis (WASSA 2015): Workshop proceedings, 17 September 2015, Lisboa, Portugal, Red Hook; NY: Association for Computational Linguistics, 2015 , S. 77-84
URL:
http://www.emnlp2015.org/proceedings/WASSA/WASSA-2015.pdf#page=89
Dokumenttyp:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Automatisierung; Computerlinguistik; Emotion; Kommunikation; Lexikographie; Lexikon; Online; Qualität; Soziale Software; Textanalyse; Thesaurus
Abstract:
Contemporary sentiment analysis approaches rely on lexicon based methods. This is mainly due to their simplicity, although the best empirical results can be achieved by more complex techniques. We introduce a method to assess suitability of generic sentiment lexicons for a given domain, namely to identify frequent bigrams where a polar word switches polarity. Our bigrams are scored using Lexicographers Mutual Information and leveraging large automatically obtained corpora. Our score matches human perception of polarity and demonstrates improvements in classification results using our enhanced context-aware method. Our method enhances the assessment of lexicon based sentiment detection and can be further userd to quantify ambiguous words. (DIPF/Orig.)
Supervised all-words lexical substitution using delexicalized features
Szarvas, György; Biemann, Chris; Gurevych, Iryna
Sammelbandbeitrag
| Aus: Association for Computational Linguistics (Hrsg.): Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL HLT) | Stroudsburg; PA: Association for Computational Linguistics | 2013
33528 Endnote
Autor*innen:
Szarvas, György; Biemann, Chris; Gurevych, Iryna
Titel:
Supervised all-words lexical substitution using delexicalized features
Aus:
Association for Computational Linguistics (Hrsg.): Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL HLT), Stroudsburg; PA: Association for Computational Linguistics, 2013 , S. 1131-1141
URL:
https://www.ukp.tu-darmstadt.de/fileadmin/user_upload/Group_UKP/publikationen/2013/SzarvasBiemannGurevych_naaclhlt2013.pdf
Dokumenttyp:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Automatisierung; Computerlinguistik; Information Retrieval; Methode; Modell; Sinn; Synonym; Textanalyse; Thesaurus; Verfahren; Wort
Abstract (english):
We propose a supervised lexical substitution system that does not use separate classifiers per word and is therefore applicable to any word in the vocabulary. Instead of learning word-specific substitution patterns, a global model for lexical substitution is trained on delexicalized (i.e., non lexical) features, which allows to exploit the power of supervised methods while being able to generalize beyond target words in the training set. This way, our approach remains technically straightforward, provides better performance and similar coverage in comparison to unsupervised approaches. Using features from lexical resources, as well as a variety of features computed from large corpora (n-gram counts, distributional similarity) and a ranking method based on the posterior probabilities obtained from a Maximum Entropy classifier, we improve over the state of the art in the LexSub Best-Precision metric and the Generalized Average Precision measure. Robustness of our approach is demonstrated by evaluating it successfully on two different datasets.
DIPF-Abteilung:
Informationszentrum Bildung
Using distributional similarity for lexical expansion in knowledge-based word sense disambiguation
Miller, Tristan; Biemann, Chris; Zesch, Torsten; Gurevych, Iryna
Sammelbandbeitrag
| Aus: Kay, Martin; Boitet, Christian (Hrsg.): Proceedings of the 24th International Conference on Computational Linguistics (COLING 2012) | Mumbai: The COLING 2012 Organizing Committee | 2012
33142 Endnote
Autor*innen:
Miller, Tristan; Biemann, Chris; Zesch, Torsten; Gurevych, Iryna
Titel:
Using distributional similarity for lexical expansion in knowledge-based word sense disambiguation
Aus:
Kay, Martin; Boitet, Christian (Hrsg.): Proceedings of the 24th International Conference on Computational Linguistics (COLING 2012), Mumbai: The COLING 2012 Organizing Committee, 2012 , S. 1781-1796
URL:
http://aclweb.org/anthology-new/C/C12/C12-1109.pdf
Dokumenttyp:
4. Beiträge in Sammelbänden; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Computerlinguistik; Sinn; Thesaurus; Verteilung; Wort
Abstract:
We explore the contribution of distributional information for purely knowledge-based word sense disambiguation. Specifically, we use a distributional thesaurus, computed from a large parsed corpus, for lexical expansion of context and sense information. This bridges the lexical gap that is seen as the major obstacle for word overlap-based approaches. We apply this mechanism to two traditional knowledge-based methods and show that distributional information significantly improves disambiguation results across several data sets. This improvement exceeds the state of the art for disambiguation without sense frequency information-a situation which is especially encountered with new domains or languages for which no sense-annotated corpus is available.
DIPF-Abteilung:
Informationszentrum Bildung
Integrated ontologies for the semantic web. Experiences from modelling a research context ontology
Carstens, Carola
Sammelbandbeitrag
| Aus: Paschke, Adrian; Weigand, Hans; Behrendt, Wernher; Tochtermann, Klaus; Pellegrini, Tassilo (Hrsg.): 5th International Conference on Semantic Systems, Graz, Austria, September 2-4, 2009, proceedings of I-KNOW 09 and I-SEMANTICS | Graz: Verl. der TU Graz | 2009
8004 Endnote
Autor*innen:
Carstens, Carola
Titel:
Integrated ontologies for the semantic web. Experiences from modelling a research context ontology
Aus:
Paschke, Adrian; Weigand, Hans; Behrendt, Wernher; Tochtermann, Klaus; Pellegrini, Tassilo (Hrsg.): 5th International Conference on Semantic Systems, Graz, Austria, September 2-4, 2009, proceedings of I-KNOW 09 and I-SEMANTICS, Graz: Verl. der TU Graz, 2009 , S. 630-637
URL:
http://www.i-semantics.at/2009/papers/integrated_ontologies_for_the_semantic_web.pdf
Dokumenttyp:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Englisch
Schlagwörter:
Semantic Web; Ontologie; Modellierung; Strategie; Integration; Richtlinien; Fallbeispiel; Anwendungsbeispiel; Modellbildung; Strategie; Entscheidungsprozeß; Sprache; Terminologie; Thesaurus; Indexieren; Informationswissenschaft
Abstract:
Im Semantic Web spielen Ontologien eine wichtige Rolle als Mittel zur Verknüpfung und semantischen Integration von verteilten Daten im Web. Diese Prozesse können vereinfacht werden, wenn die dem Semantic Web zu Grunde liegenden Ontologien bereits bei der Modellierung bestehende Ontologien integrieren. Dieser Beitrag beschreibt Strategien für die Erstellung solcher integrierten Ontologien, fasst einige Richtlinien für diesen Prozess zusammen und stellt Modellierungserfahrungen aus einem Anwendungsfall vor, in dem eine integrierte Forschungskontext- Ontologie erstellt wird. (DIPF/Autor)
Abstract (english):
In the Semantic Web, ontologies play an important role as a means to enable theinterlinking and the semantic integration of distributed Web data. These processes can besimplified if the underlying ontologies are modeled by integrating already existing SemanticWeb ontologies. This paper describes strategies for building such integrated ontologies, summarizes some guidelines for this process and presents modeling experiences from a usecase in which an integrated research context ontology is created. (DIPF/Autor)
DIPF-Abteilung:
Informationszentrum Bildung
Thesauri und Klassifikationen im Internet - Neue Herausforderungen für klassische Werkzeuge
Bambey, Doris
Sammelbandbeitrag
| Aus: Neisser, Horst; Ruppelt, Georg (Hrsg.): Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig | Wiesbaden: Dinges u. Frick | 2000
5831 Endnote
Autor*innen:
Bambey, Doris
Titel:
Thesauri und Klassifikationen im Internet - Neue Herausforderungen für klassische Werkzeuge
Aus:
Neisser, Horst; Ruppelt, Georg (Hrsg.): Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, Wiesbaden: Dinges u. Frick, 2000 , S. 245-255
Dokumenttyp:
4. Beiträge in Sammelwerken; Tagungsband/Konferenzbeitrag/Proceedings
Sprache:
Deutsch
Schlagwörter:
Thesaurus; Klassifikation; Informationsvermittlung; Internet
Abstract:
Bemühungen, mittels Metadaten Standardisierungen von Dokumentbeschreibung und -austausch zu erreichen und die Entwicklung technisch basierter Schemata (XML) greifen ineinander. Thesauri und Klassifikationen als methodische Instrumente des Erschließens, Ordnens, Präsentierens und des Retrievals können innerhalb dieser Prozesse des 'content managents' eine wesentliche Rolle spielen. Anhand von Beispielen wird der Frage nach www- basierten Einsatzmöglichkeiten, Akzeptanz bzw. Hemmnissen und neueren Ansätzen nachgegangen.
Abstract (english):
Efforts to manage standards of document-descriptions and document- interchanges by using metadata come together with developments of technique-based schemes (XML). Thesauri and Classifications known as instruments of indexing, systematization, presentation and retrieval can play a basic role within these processes of content management. By using examples several questions will be asked: www-based utilizabilities, acceptance resp. barriers and new ideas.
DIPF-Abteilung:
Informationszentrum Bildung
Aufbau eines strukturierten Wörterbuches für das Fachinformationssystem Bildung. Konkordanzen zu […]
Kühnlenz, Axel
Monographie
| Frankfurt am Main: DIPF | 1999
6065 Endnote
Autor*innen:
Kühnlenz, Axel
Titel:
Aufbau eines strukturierten Wörterbuches für das Fachinformationssystem Bildung. Konkordanzen zu bestehenden Thesauri und Probleme der Wortgutintegration
Erscheinungsvermerk:
Frankfurt am Main: DIPF, 1999
URL:
http://www.dipf.de/dipf/studie_sw.pdf
Dokumenttyp:
1. Monographien (Autorenschaft); Monographie (keine besondere Kategorie)
Sprache:
Deutsch
Schlagwörter:
Fachinformation; Bildung; Thesaurus
Abstract:
Das Desiderat eines strukturierten Wörterbuches für den Bereich der Bildungsdokumentation führt zu heterogenen Schlagwortsystemen der verschiedenen IuD-Stellen. Seitens des Fachinformationssystems Bildung, das gemeinsame Informationsprodukte der pädagogischen Dokumentationseinrichtungen koordiniert, werden konzeptionelle Überlegungen für einen Thesaurus angestellt. Es wird die Möglichkeit geprüft, Schlagwörter und Relationen anderer Thesauri zu integrieren. Im Mittelpunkt steht dabei die Schlagwortnormdatei (SWD) der Deutschen Bibliothek. Konkordanzen zwischen dem Wörterbuch Bildung und der SWD werden analysiert und verfahrenstechnische Aspekte der Integration externer Thesauruselemente erörtert.
DIPF-Abteilung:
Informationszentrum Bildung
Markierungen aufheben
Alle Treffer markieren
Export