LLMpediaThe first transparent, open encyclopedia generated by LLMs

Digitales Wörterbuch der deutschen Sprache

Generated by GPT-5-mini
Note: This article was automatically generated by a large language model (LLM) from purely parametric knowledge (no retrieval). It may contain inaccuracies or hallucinations. This encyclopedia is part of a research project currently under review.
Article Genealogy
Expansion Funnel Raw 61 → Dedup 0 → NER 0 → Enqueued 0
1. Extracted61
2. After dedup0 (None)
3. After NER0 ()
4. Enqueued0 ()
Digitales Wörterbuch der deutschen Sprache
NameDigitales Wörterbuch der deutschen Sprache
LanguageDeutsch
CountryDeutschland
PublisherInstitut für Deutsche Sprache
Established1990er
MediaOnline

Digitales Wörterbuch der deutschen Sprache ist ein elektronisches Nachschlagewerk für die deutsche Sprache, das lexikographische, etymologische und korpusbasierte Informationen bündelt. Es dient als Referenz für Sprachwissenschaftler, Lexikographen, Historiker und Autorinnen in Institutionen wie dem Institut für Deutsche Sprache, der Universität Mannheim und der Universität des Saarlandes. Das Projekt verbindet traditionelle Wörterbucharbeit mit digitalen Korpora, informatischen Methoden und kooperativen Forschungsnetzwerken wie Deutsches Wörterbuch-Initiativen, Leipzig Corpora Collection-Angeboten und nationalen Bibliotheken.

Übersicht

Das Werk präsentiert Stichwörter, Bedeutungsabstufungen, Wortgeschichte, Beispielbelege und grammatische Informationen sowie Verweise auf Publikationen von Einrichtungen wie dem Max-Planck-Institut für Evolutionsbiologie, der Bayerischen Akademie der Wissenschaften und dem Deutschen Historischen Institut. Nutzer finden lexikalische Einträge, Querverweise zu Werken von Goethe, Schiller, Heinrich Heine und modernen Autorinnen wie Ingeborg Bachmann oder Günter Grass, sowie Belege aus Zeitungen wie der Frankfurter Allgemeinen Zeitung, der Süddeutschen Zeitung und dem Tagesspiegel. Die Datenbasis integriert Materialien aus archivalischen Beständen der Deutschen Nationalbibliothek, Sammlungen der Staatsbibliothek zu Berlin und digitalen Editionsprojekten wie Projekt Gutenberg-DE.

Geschichte und Entwicklung

Die Entwicklung begann in den 1990er Jahren in Verbindung mit Forschungsprogrammen an der Universität Stuttgart, dem Max-Planck-Institut für Psycholinguistik und internationalen Partnern wie der Oxford University Press-Lexikographie. Fördermittel kamen von Einrichtungen wie der Deutschen Forschungsgemeinschaft und europäischen Programmen etwa der Europäischen Kommission. Technische Meilensteine waren die Migration von CD-ROM-Distributionen zu webbasierten Plattformen, der Einsatz von Markup-Techniken inspiriert durch Standards an der Library of Congress und Kooperationen mit dem Deutscher Historischer Verein. Forschungsverbünde mit dem Forschungszentrum Jülich und der Humboldt-Universität zu Berlin förderten Korpusannotation, maschinelles Tagging und semantische Modellierung.

Struktur und Inhalte

Das Wörterbuch ist modular aufgebaut: lexikalische Headwords, Kollokationsdaten, Etymologie, historische Belege und Register. Einträge verweisen auf Editionen wie die von Grimm (Brothers), historisch-kritische Ausgaben der Deutschen Akademie der Wissenschaften zu Berlin und Nachschlagewerke der Brockhaus Enzyklopädie. Korpusbelege stammen aus Korpora, die von Einrichtungen wie der Leipzig University und dem Institut für Deutsche Sprache gepflegt werden, sowie aus historischen Textsammlungen der Bayerischen Staatsbibliothek und digitalen Archivbeständen der Bibliothèque nationale de France für Vergleichszwecke. Die Datenstruktur orientiert sich an Standards, die in Projekten wie TEI (Text Encoding Initiative), ISOCat und Initiativen der International Communication Association entwickelt wurden.

Nutzungszugänge und Technologien

Zugriff erfolgt über Webschnittstellen, APIs und Forschungsportale; technische Implementierung nutzt Suchalgorithmen, Volltextindizes und Annotationstools, die mit Plattformen wie Elasticsearch, Apache Lucene und Software aus dem Umfeld der European Language Grid kompatibel sind. Für korpuslinguistische Analysen stehen Werkzeuge zur Verfügung, die sich mit Statistikpaketen aus der R Project-Community und maschinellen Lernverfahren aus Instituten wie dem German Research Center for Artificial Intelligence verbinden lassen. Die Infrastruktur ist in Kooperation mit Rechenzentren wie dem Leibniz-Rechenzentrum und Cloud-Diensten vergleichbarer Institutionen aufgebaut.

Forschung und Anwendungen

Das Wörterbuch wird in Projekten der Lexikographie, historischen Linguistik, Maschinellen Übersetzung und digitalen Editionen eingesetzt, zitiert in Studien von Wissenschaftlern an der Freie Universität Berlin, der Universität Leipzig und dem Karlsruher Institut für Technologie. Anwendungen finden sich in Korrekturprogrammen, Textmining-Systemen und digitalen Humanities-Projekten wie denen an der Universität Zürich und dem King's College London. Kooperationen mit Verlagen wie De Gruyter und Unternehmen aus der Sprachtechnikbranche ermöglichen Transfer in Produkte der DeepL- und Google-Ökologie sowie Evaluationsstudien mit Normenorganisationen wie dem DIN Deutsches Institut für Normung.

Rezeption und Bedeutung in der Germanistik

In der Germanistik gilt das Werk als wichtige Ressource neben Klassikern der Disziplin wie der Deutschen Literaturgeschichte-Rezeption, Editionen von Jacob und Wilhelm Grimm und modernen Forschungsprojekten an der Universität Tübingen und der Universität Köln. Es wird in Lehrveranstaltungen an Institutionen wie der Humboldt-Universität zu Berlin und der Universität Leipzig genutzt und in Monographien über Sprachwandel, Lexikalische Semantik und Textkritik zitiert. Kritiker aus der Wissenschaftscommunity, etwa an der Universität Hamburg und der Universität Münster, diskutieren Aspekte wie Repräsentativität, Annotationsqualität und Interoperabilität mit internationalen Ressourcen wie dem Oxford English Dictionary-Digitalangebot.

Category:Wörterbücher Category:Deutsche Sprache