home.social

#lizenzccby40int — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #lizenzccby40int, aggregated by home.social.

  1. Eingeprägte Geschichte – das Meistersiegel-Wiki ist online

    Wer im Mittelalter und der Frühen Neuzeit etwas auf sich hielt, der führte ein eigenes Wappen oder eine individuelle Marke, mit der er auf Dokumenten oder Urkunden siegelte. Auch bei den Meistern der Nürnberger Steinmetzbruderschaft war es Brauch, Gutachten oder Pläne mit ihren eigenen Meisterzeichen zu kennzeichnen. Meist geschah das in Form von Blind- oder Prägesiegeln, die mit einem Ring oder Stempel in das Papier eingedrückt wurden. In einer an der TIB im Open Science Lab in Zusammenarbeit mit dem Fachgebiet Bau- und Stadtbaugeschichte der Leibniz Universität Hannover entwickelten Wikibase-Instanz, dem Meistersiegel-Wiki, werden nun erstmals solche Siegel erfasst und systematisch beschrieben.

    Blatt gr D Z 1: 5, Sammlung A. Haupt

    Die Nürnberger Proberisse – besondere Zeugnisse der Steinmetzausbildung

    Als Corpus für die Erfassung dient ein bisher kaum von der Forschung wahrgenommenes Konvolut von 34 Blättern mit sogenannten „Proberissen“, das sich in der Ende des 19. Jahrhunderts zusammengetragenen Sammlung des Hannoveraner Bauhistorikers und Architekten Albrecht Haupt (1852-1932) erhalten hat.

    Blatt gr D Z 1: 5, Slg. A. Haupt

    Diese Risse entstanden im Rahmen des Meisterstücks, das der Geselle zur Erlangung des Meisterstatus anzufertigen hatte und zeigen musterhafte Entwürfe und Konstruktionen von Gewölbeanlagen und Gebäuden. Schon früh wurden diese Blätter in das Umfeld der Nürnberger Steinmetzbruderschaft eingeordnet, ohne jedoch im Hinblick auf ihre Provenienz und Zusammensetzung genauer betrachtet worden zu sein.

    Als Architektur- und Werkzeichnungen, die im Kontext der Steinmetzlehre angefertigt wurden, sind sie besondere Zeugnisse der handwerklichen Ausbildung im Bauwesen in der Übergangszeit ab dem Spätmittelalter bis zur Auflösung des Zunftwesens Ende des 18. Jahrhunderts.

    Die zahlreichen, auf den Blättern oft kaum sichtbaren Blindsiegel der prüfenden Meister machen sie zu einem besonderen Studienobjekt, zumal es sich um ein individuelles – bislang nur für die Nürnberger Steinmetzbruderschaft nachweisbares − Phänomen handelt.

    Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts zur Erschließung der umfangreichen, heute in der TIB aufbewahrten Sammlung Haupts (GESAH) ist das Konvolut der Proberisse Bestandteil einer Tiefenerschließung und diente mit seinen Meistersiegel- bzw. Meisterstempelabdrücken als Fallstudie zur Verknüpfung mit der Forschungsdateninfrastruktur von NFDI4Culture.

    Das Meistersiegel-Wiki

    Die neue Wikibase-Datenbank zu den Meistersiegeln erfasst sämtliche Siegelmotive, die sich als Blindsiegel-Prägungen auf den Blättern erhalten haben. Mit ihrer Erfassung lassen sich Beziehungen der Siegler untereinander und zeitliche Entstehungszusammenhänge innerhalb der Blätter, aber auch zu darüber hinaus vorhandenen Quellenmaterialien nachvollziehen.

    Vorbereitend für die Erfassung der Nürnberger Meistersiegel in einer eigenen Wikibase-Instanz wurden alle erkennbaren Siegelabdrücke umgezeichnet, in ihren jeweiligen Charakteristika, Kombinationen und Gruppierungen tabellarisch aufgenommen und beschrieben. Für die Beschreibungen der auf den Siegeln enthaltenen Steinmetz- und Hausmarken wurden eigene, auf der Fachterminologie der Blasonierung basierende Kategorien entwickelt und ein umfangreiches fachspezifisches Glossar angelegt. Insgesamt ließen sich auf diese Weise 18 unterschiedliche Siegel auf den Blättern identifizieren und beschreiben, drei weitere konnten nur im rudimentären Zustand erfasst werden. Weitere neun Siegelmotive wurden aus der historischen Literatur in die Aufstellung übernommen.

    Im Abgleich mit den im Zuge der Archiv- und Literaturquellen ermittelten über 150 belegbaren Meister konnte ein Großteil der Siegler identifiziert werden. Über die überlieferte Kombination der Siegel wurden so genauere entstehungsgeschichtliche Zusammenhänge sichtbar, die unter anderem zur Korrektur der zeitlichen Einordnung und Reihenfolge von bislang nur über die Wasserzeichen grob datierbaren Zeichnungen führte.

    Für den Aufbau der Wikibase wurden Klassifizierungen und Unterklassifizierungen vorgenommen, die ein bestmögliche und anschauliche Darstellung der Bezüge zwischen Siegel, Sieglern, den jeweiligen Trägern, ihren inhaltlichen und formalen Merkmalen (zum Beispiel Wasserzeichen) erlauben.

    Für die Siegel wurden zunächst feste IDs vergeben. Basierend auf den beschreibenden Properties Siegeln lassen sich über sogenannte Qualifiers komplexere Merkmale und Aussagen zu Siegel und siegelführender Person angeben und verknüpfen. Weitere Informationen zu Objekten und Personen (zum Beispiel Referenzen auf Archiv- und Literaturquellen oder Bemerkungen zur Identifizierung der Siegel) können durch eine Kommentarfunktion ergänzend hinzugefügt werden. Bei den Werkeinträgen im Vitro/SAH-Portal ist ein direktes Referenzieren auf die IDs der Marken möglich. Gleichzeitig sind über die Wiki-Base direkte Verweise auf die Pläne mit ihren Werkeinträgen im SAH-Portal angelegt.

    Eine Besonderheit ist das mit Piktogrammen unterstützte Glossar, das als begleitendes Corpus zu den beschreibenden Feldern der Siegelmotive und der Zusammensetzung der jeweiligen Marken herangezogen werden kann. Es beruht auf einem vereinheitlichten Fachvokabular (angelehnt an das Vokabular der Blasonierung für Hausmarken), auf das nun generell referenziert werden kann.

    Durch die fokussierte Betrachtung eines einzelnen – leicht übersehbaren – Phänomens auf den Nürnberger “Proberissen” können nun neue Einsichten in die Geschichte und Entwicklung des Bauhandwerks und der Baupraxis in der Frühen Neuzeit gewonnen werden. Gleichzeitig wurde eine Wissensdatenbank aufgebaut, die mit ihren gesammelten Daten im Linked-Data-Format öffentlich zugänglich und verknüpfbar ist und in Zukunft weiter kollaborativ bearbeitet und erweitert werden kann.

    #Nürnberg #Meistersiegel #LizenzCCBY40INT #Steinmetzzeichen #OpenScienceLab #Wikibase #GESAH #SammlungHaupt #Wikibase4NFDI
  2. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics
  3. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics
  4. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #VisualAnalytics #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos
  5. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics #LizenzCCBY40INT
  6. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics
  7. Demokratisierung der Wissenschaft – Citizen Science und Meinungsfreiheit

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Citizen Science, auch Bürgerwissenschaft genannt, ermöglicht es Forscher:innen, über ihre Expertise Bürger:innen einen Einblick in wissenschaftliche Arbeitsweisen zu geben. Es ist ein inklusiver Ansatz, bei dem wissenschaftliche Erkenntnisse von Personen gewonnen werden, die nicht hauptberuflich in der Wissenschaft tätig sind. Sie steht in einem spannenden Verhältnis zur Meinungsfreiheit, da sie einerseits den Zugang zu Forschung demokratisiert, andererseits aber auch die Deutungshoheit der Wissenschaft herausfordert.

    Bürger:innen arbeiten zusammen an Projekten. Foto: thumprchgo über Pixabay

    Verbindung von Citizen Science und Meinungsfreiheit

    Citizen Science wird oft als Teil von Open Science verstanden und zielt darauf ab, die Wissensproduktion zu demokratisieren. Sie ermöglicht Bürger:innen, aktiv an der Forschung teilzunehmen, sei es durch Datenerhebung oder Mitgestaltung. Citizen Science fördert den Kulturwandel in der Wissenschaft hin zu mehr Transparenz und Inklusivität. Indem Bürger:innen zum Beispiel Daten sammeln und auswerten, können sie eigene Perspektiven in den wissenschaftlichen Diskurs einbringen und somit an der öffentlichen Meinungsbildung teilnehmen.

    Citizen Science ist somit eine Möglichkeit, die freiheitlich-demokratische Gesellschaft zu stärken, indem sie Bürger:innen direkt in die Produktion von Wissen einbindet und so die Kluft zwischen Wissenschaft und Gesellschaft überbrückt.

    Grafik: zenodo.org/record/1285575#.W09 von Melanie Imming, John Tennant, CC0)

    Wie Citizen Science die Meinungsfreiheit stärkt

    Traditionell kontrollieren Universitäten, Unternehmen oder Staaten, welche Daten gesammelt und wie sie interpretiert werden. Citizen Science bricht dieses Monopol auf – und zwar über:

    • Transparenz: Bürger:innen können selbst Daten erheben und auswerten.
    • Kritische Perspektiven: Bürgerinitiativen können eigene Untersuchungen durchführen und Ergebnisse öffentlich machen.
    • Bildung für alle: Durch die Teilnahme an Forschungsprojekten lernen Menschen, wie Wissenschaft funktioniert.

    Stärkung der Zivilgesellschaft

    Meinungsfreiheit lebt davon, dass Menschen informiert, kritisch und handlungsfähig sind. Citizen Science fördert genau das:

    • Empowerment: Wer selbst forscht, traut sich auch zu, eigene Positionen zu vertreten.
    • Lokale Lösungen: Bürger:innen kennen die Probleme ihrer Community am besten.
    • Politik und Wirtschaft: Wenn Bürger:innen belegbare Daten vorlegen, müssen Verantwortliche reagieren. Das stärkt die Verhandlungsmacht der Zivilgesellschaft.

    Beispiele: Citizen-Science-Projekte an der TIB

    „Gestapo.Terror.Orte“: gemeinsam Orte des Gestapoterrors dokumentieren

    Projekt: „Gestapo.Terror.Orte“

    Ziel: Bürger:innen recherchieren und dokumentieren Orte des Gestapoterrors (zum Beispiel Gestapo-Gefängnisse).

    Beitrag zur Meinungsfreiheit:

    Mechanismuskonkrete Wirkungmögliches BeispielGegen GeschichtsverdrängungSichtbarmachung von Verbrechen: Viele Orte des Gestapoterrors sind heute unbekannt oder vergessen. Das Projekt regt die Öffentlichkeit an, sich mit der Vergangenheit auseinanderzusetzen.Dokumentation des Arbeitserziehungslager Pelikanwerke Hannover.Empowerment von NachkommenAngehörige von Opfern können ihre Familiengeschichten einbringen – und so offizielle Schweige-Kultur durchbrechen.Interviews mit Nachkommen von Opfern des Nationalsozialismus.Aktivismus durch DatenDie gesammelten Daten können für Gedenkinitiativen, Ausstellungen oder politische Forderungen genutzt werden.Nutzung der Daten für Stolperstein-Verlegungen oder Mahnwachen.Kritische Auseinandersetzung mit AutoritätDas Projekt zeigt, wie Staatsterror funktioniert – und regt zur Reflexion über heutige Überwachungsstrukturen an.Parallelen zu heutiger Praxis werden in Begleitveranstaltungen diskutiert.

    „Orte erzählen Demokratie“: gemeinsam Orte der Demokratiegeschichte dokumentieren

    Projekt: „Orte erzählen Demokratie“

    Ziel: Bürger:innen dokumentieren Orte der Demokratiegeschichte in ihrem Umfeld (zum Beispiel Versammlungsorte, Widerstandsorte, Orte der Friedlichen Revolution 1989).

    Beitrag zur Meinungsfreiheit:

    Mechanismuskonkrete Wirkungmögliches BeispielStärkung demokratischer KulturDas Projekt zeigt, dass Demokratie kein Selbstläufer ist, sondern erkämpft werden musste.Dokumentation der Proteste gegen die Notstandsgesetze 1968 in Hannover.Lokale Identifikation mit WertenBürger:innen lernen, dass Demokratie und Meinungsfreiheit auch in ihrer Stadt eine Rolle spielen.Recherche und Dokumentation zu Demokartieorten im eigenen Umfeld.Aktuelle politische BezügeDie Projekte regen zur Reflexion über heutige Bedrohungen der Demokratie an.Diskussionen über heutige Einschränkungen von Demokratie und Meinungsfreiheit.Partizipative StadtentwicklungDie Ergebnisse fließen in offizielle Gedenkkonzepte ein – und geben Bürger:innen Mitgestaltungsmacht.Integration der Ergebnisse von Recherchen in Museen.

     

    #OpenScienceLab #CitizenScience #OpenScience #wochedermeinungsfreiheit2026 #LizenzCCBY40INT
  8. Frauen in der Wissenschaft: Lena John

    read this article in English

    Ein Interview über Vielfalt in der wissenschaftlichen Arbeit, Gleichberechtigung und Verbündete
    Die Blogreihe „Frauen in der Wissenschaft“ stellt Frauen aus der TIB vor, die Einblicke in ihre Wege und ihre persönlichen Erfahrungen in der Wissenschaft geben. Lena John studierte Informatik an der Leibniz Universität Hannover und arbeitet heute als Doktorandin im Bereich Data Science & Digital Libraries an der TIB. Dort beschäftigt sie sich mit der Kuratierung von Forschungswissensgraphen und der Evolution von Wissensrepräsentation.

    Im Interview spricht sie über die spannende Mischung ihrer Arbeit als Doktorandin, über Verbündete und die gemeinsame Verantwortung aller in der Wissenschaft tätigen Personen für Gleichberechtigung.

    Lena John // Foto: privat

    Was fasziniert dich an der Arbeit in der Wissenschaft?

    Jeder Tag kann anders aussehen. Es tun sich immer neue Gelegenheiten oder Ansätze auf, die ich wahrnehmen oder ausprobieren möchte. Meine Arbeit reicht vom Publizieren wissenschaftlicher Artikel über die Betreuung von Studierenden bis hin zu Teamarbeit oder die Entwicklung eines Software-Dienstes.

    Mir gefällt, dass es bei allen Bereichen darum geht, Probleme zu lösen und dabei auch die Freiheit zu haben, unkonventionelle Methoden zu testen. Dabei sind auch Soft Skills relevant, zum Beispiel bei der Präsentation von Forschungsergebnissen oder beim Anleiten von Studierenden. Besonders spannend finde ich diese Mischung aus fachlicher Tiefe, Zusammenarbeit und der Möglichkeit, sowohl wissenschaftlich als auch persönlich etwas dazuzulernen.

    Was hättest du als Frau in der Wissenschaft gerne früher gewusst?

    Speziell in der Informatik sind Frauen* immer noch unterrepräsentiert und herrschende Strukturen tragen zu diesem Ungleichgewicht weiter bei. Ich habe von Kolleginnen gehört, die auf Konferenzen mit sexistischen Kommentaren konfrontiert wurden, und ich habe auch im Studium selbst negative Erfahrungen gemacht haben. Ich denke, hier ist noch viel Handlungsbedarf für Veränderung und das erfordert den Beitrag von allen Menschen.

    Es gibt viele Verbündete da draußen, wir müssen sie nur finden. Ich habe das Glück, in einem sehr offenen, fortschrittlichen Team zu arbeiten, wo Sexismus keinen Platz hat. Es ist ein sehr angenehmes Umfeld, wenn sich auch Männer aktiv an Gleichberechtigung beteiligen. Das zeigt mir, dass es auch anders geht und wie wichtig es ist, dass alle gemeinsam Verantwortung übernehmen, um solche Räume zu schaffen.

    Welchen Rat würdest du Mädchen und jungen Frauen geben, die eine wissenschaftliche Laufbahn anstreben?

    Traut euch. Frauen werden leider oft so sozialisiert, sich eher zurückzuhalten. Deshalb ist mein Rat, sich mehr zuzutrauen und den eigenen Fähigkeiten zu vertrauen. Die Wissenschaft wirkt zunächst oft einschüchternd, doch einiges ist auch Fassade, da es viel darum geht, sich und die eigene Forschung gut darzustellen.

    Außerdem kann ich nur empfehlen, sich früh ein Netzwerk mit Gleichgesinnten aufzubauen. Das erleichtert vieles und ermöglicht einen ehrlichen Austausch in herausfordernden Situationen. Es kann auch sehr hilfreich sein, sich Vorbilder zu suchen oder Mentor*innen zu finden, die einen auf dem eigenen Weg begleiten und bestärken.

    Ein Wunsch für die Zukunft von Frauen und Mädchen in der Wissenschaft …

    Im Grunde genommen wünsche ich mir das für die Wissenschaft, was ich mir auch gesamtgesellschaftlich wünsche: Gleichberechtigung, Vereinbarkeit von Familie und Beruf und Abbau von Vorurteilen.

    Gleichzeitig würde ich mir wünschen, dass wir langfristig gar nicht mehr so stark zwischen „Frauen in der Wissenschaft“ und anderen unterscheiden müssen, sondern Menschen unabhängig von ihrem Geschlecht als selbstverständlichen Teil der Wissenschaft sehen. Gerade in Bereichen wie der Informatik würde das auch bedeuten, dass es nichts Ungewöhnliches mehr ist, eine Frau zu sein, sondern einfach normal.

    Frauen in der Wissenschaft – eine Blogreihe

    In der Blogreihe „Frauen in der Wissenschaft“ werden Frauen an der TIB vorgestellt, die Einblicke in ihre wissenschaftlichen Wege, Rollenbilder und ihre Erfahrungen aus dem Arbeitsalltag geben. Sie alle teilen ihre Perspektive und ihre Wünsche für die Zukunft der Wissenschaft und ermutigen andere Frauen, ihren Platz selbstbewusst einzunehmen.

    #FrauenInDerWissenschaft #LizenzCCBY40INT #DataScience #Forschung #FrauenAnDerTIB
  9. Zum Welttag des Buches am 23. April

    Am 23. April ist „Welttag des Buches“ und des Urheberrechts. 1995 erklärte die UNESCO diesen Tag zum weltweiten Feiertag für das Lesen, für Bücher und die Rechte der Autor:innen.

    Buchhandlungen, Verlage, Bibliotheken, Schulen und Lesebegeisterte feiern am UNESCO-Welttag des Buches ein großes Lesefest. Für uns ein Anlass, um zu schauen, was wir an älteren Werken zu diesem Thema digitalisiert haben, unter anderem zum Vorläufer der TIB, der Bibliothek der Technischen Hochschule Hannover:

    Paul Trommsdorff war ab 1922 Direktor der Bibliothek, er war Mitglied im Beirat für Bibliotheksangelegenheiten und hatte einen Lehrauftrag für Bibliothekswissenschaften inne. Mit dem Titel: „Die neuen Räume der Bibliothek der Technischen Hochschule Hannover, den Teilnehmern am 11. Hannoverschen Hochschultage (29. und 30. November 1929) überreicht“ gibt er einen wertvollen Einblick in die damaligen Begebenheiten:

                 

    Die interessante Geschichte der Bibliothek der Technischen Hochschule Hannover ab dem Jahr 1879 erzählt ebenfalls Paul Trommsdorff im Jahr 1931 in „Ein Überblick über die Entwicklung der Bibliothek“:

    Ein besonderes Kleinod stellt der „Katalog alter Bucheinbände in der Bibliothek der Technischen Hochschule Hannover“ von Elisabeth Weber (siehe auch Blog Beitrag von Andreas Lütgen) dar. Sie erstellte Richtlinien für die einheitliche Katalogisierung der Bucheinbände, Register zum Einbandkatalog der Bibliothek der Technischen Hochschule Hannover, Notizen betreffend Künstlerregister der Sammlung Haupt und anderer Kupferstichwerke der Bibliothek der Technischen Hochschule Hannover. Die Abreibungen der kostbaren Buchrücken der Sammlung Haupt dokumentieren deren Kunstfertigkeit.

    Aufsätze und graphische Einzelblätter zum Thema Buch lassen sich unter dem Titel „Buch und Bucheinband“ von 1923, herausgegeben von Max Joseph Husung, finden. Sie wurden zum 60. Geburtstage von Hans Loubier veröffentlicht, der ein deutscher Bibliothekar und Einbandforscher war.

    Der deutsche Philologe Prof. Anton Elter (1858–1925) hielt zu der Gedenkfeier des 100. Geburtstages des Stifters der Universität Bonn am 3. August 1918 eine Rede zu Thema Bibliothek. Anton Elter wirkte lange Zeit bis zu seinem Tode an der Universität Bonn mit, unter anderem als Professor für Eloquenz und Professor für klassische Philologie. In dem Werk Wesen und Aufgaben der wissenschaftlichen Bibliothek von 1937 geht er auf die Bedeutung der Bibliothek für uns Menschen und die Wissenschaft ein:

    „Mit der Entwicklung der Sprache beginnt die menschliche
    Kultur, mit der Erfindung der Schrift wird das Wissen der
    Menschheit zum festen, dauernden und übertragbaren Besitz,
    wird das Buch zum Träger und Vermittler des geistigen Fortschritts,
    mit einem Wort der Wissenschaft.

    Die Erfindung der Buchdruckerkunst bedeutet den Beginn
    der modernen Wissenschaft im weitesten Sinne, die Bibliotheken als die
    Summe der in den Bücherschätzen enthaltenen geistigen Arbeit
    der Jahrtausende repräsentieren das gesamte Wissen der
    Menschheit von ihren Anfängen bis zur Gegenwart.“

    #LizenzCCBY40INT #Bibliothek #Retrodigitalisierung #Bibliotheksgeschichte
  10. Zum Welttag des Buches am 23. April

    Am 23. April ist „Welttag des Buches“ und des Urheberrechts. 1995 erklärte die UNESCO diesen Tag zum weltweiten Feiertag für das Lesen, für Bücher und die Rechte der Autor:innen.

    Buchhandlungen, Verlage, Bibliotheken, Schulen und Lesebegeisterte feiern am UNESCO-Welttag des Buches ein großes Lesefest. Für uns ein Anlass, um zu schauen, was wir an älteren Werken zu diesem Thema digitalisiert haben, unter anderem zum Vorläufer der TIB, der Bibliothek der Technischen Hochschule Hannover:

    Paul Trommsdorff war ab 1922 Direktor der Bibliothek, er war Mitglied im Beirat für Bibliotheksangelegenheiten und hatte einen Lehrauftrag für Bibliothekswissenschaften inne. Mit dem Titel: „Die neuen Räume der Bibliothek der Technischen Hochschule Hannover, den Teilnehmern am 11. Hannoverschen Hochschultage (29. und 30. November 1929) überreicht“ gibt er einen wertvollen Einblick in die damaligen Begebenheiten:

                 

    Die interessante Geschichte der Bibliothek der Technischen Hochschule Hannover ab dem Jahr 1879 erzählt ebenfalls Paul Trommsdorff im Jahr 1931 in „Ein Überblick über die Entwicklung der Bibliothek“:

    Ein besonderes Kleinod stellt der „Katalog alter Bucheinbände in der Bibliothek der Technischen Hochschule Hannover“ von Elisabeth Weber (siehe auch Blog Beitrag von Andreas Lütgen) dar. Sie erstellte Richtlinien für die einheitliche Katalogisierung der Bucheinbände, Register zum Einbandkatalog der Bibliothek der Technischen Hochschule Hannover, Notizen betreffend Künstlerregister der Sammlung Haupt und anderer Kupferstichwerke der Bibliothek der Technischen Hochschule Hannover. Die Abreibungen der kostbaren Buchrücken der Sammlung Haupt dokumentieren deren Kunstfertigkeit.

    Aufsätze und graphische Einzelblätter zum Thema Buch lassen sich unter dem Titel „Buch und Bucheinband“ von 1923, herausgegeben von Max Joseph Husung, finden. Sie wurden zum 60. Geburtstage von Hans Loubier veröffentlicht, der ein deutscher Bibliothekar und Einbandforscher war.

    Der deutsche Philologe Prof. Anton Elter (1858–1925) hielt zu der Gedenkfeier des 100. Geburtstages des Stifters der Universität Bonn am 3. August 1918 eine Rede zu Thema Bibliothek. Anton Elter wirkte lange Zeit bis zu seinem Tode an der Universität Bonn mit, unter anderem als Professor für Eloquenz und Professor für klassische Philologie. In dem Werk Wesen und Aufgaben der wissenschaftlichen Bibliothek von 1937 geht er auf die Bedeutung der Bibliothek für uns Menschen und die Wissenschaft ein:

    „Mit der Entwicklung der Sprache beginnt die menschliche
    Kultur, mit der Erfindung der Schrift wird das Wissen der
    Menschheit zum festen, dauernden und übertragbaren Besitz,
    wird das Buch zum Träger und Vermittler des geistigen Fortschritts,
    mit einem Wort der Wissenschaft.

    Die Erfindung der Buchdruckerkunst bedeutet den Beginn
    der modernen Wissenschaft im weitesten Sinne, die Bibliotheken als die
    Summe der in den Bücherschätzen enthaltenen geistigen Arbeit
    der Jahrtausende repräsentieren das gesamte Wissen der
    Menschheit von ihren Anfängen bis zur Gegenwart.“

    #Bibliothek #Retrodigitalisierung #Bibliotheksgeschichte #LizenzCCBY40INT
  11. Zum Welttag des Buches am 23. April

    Am 23. April ist „Welttag des Buches“ und des Urheberrechts. 1995 erklärte die UNESCO diesen Tag zum weltweiten Feiertag für das Lesen, für Bücher und die Rechte der Autor:innen.

    Buchhandlungen, Verlage, Bibliotheken, Schulen und Lesebegeisterte feiern am UNESCO-Welttag des Buches ein großes Lesefest. Für uns ein Anlass, um zu schauen, was wir an älteren Werken zu diesem Thema digitalisiert haben, unter anderem zum Vorläufer der TIB, der Bibliothek der Technischen Hochschule Hannover:

    Paul Trommsdorff war ab 1922 Direktor der Bibliothek, er war Mitglied im Beirat für Bibliotheksangelegenheiten und hatte einen Lehrauftrag für Bibliothekswissenschaften inne. Mit dem Titel: „Die neuen Räume der Bibliothek der Technischen Hochschule Hannover, den Teilnehmern am 11. Hannoverschen Hochschultage (29. und 30. November 1929) überreicht“ gibt er einen wertvollen Einblick in die damaligen Begebenheiten:

                 

    Die interessante Geschichte der Bibliothek der Technischen Hochschule Hannover ab dem Jahr 1879 erzählt ebenfalls Paul Trommsdorff im Jahr 1931 in „Ein Überblick über die Entwicklung der Bibliothek“:

    Ein besonderes Kleinod stellt der „Katalog alter Bucheinbände in der Bibliothek der Technischen Hochschule Hannover“ von Elisabeth Weber (siehe auch Blog Beitrag von Andreas Lütgen) dar. Sie erstellte Richtlinien für die einheitliche Katalogisierung der Bucheinbände, Register zum Einbandkatalog der Bibliothek der Technischen Hochschule Hannover, Notizen betreffend Künstlerregister der Sammlung Haupt und anderer Kupferstichwerke der Bibliothek der Technischen Hochschule Hannover. Die Abreibungen der kostbaren Buchrücken der Sammlung Haupt dokumentieren deren Kunstfertigkeit.

    Aufsätze und graphische Einzelblätter zum Thema Buch lassen sich unter dem Titel „Buch und Bucheinband“ von 1923, herausgegeben von Max Joseph Husung, finden. Sie wurden zum 60. Geburtstage von Hans Loubier veröffentlicht, der ein deutscher Bibliothekar und Einbandforscher war.

    Der deutsche Philologe Prof. Anton Elter (1858–1925) hielt zu der Gedenkfeier des 100. Geburtstages des Stifters der Universität Bonn am 3. August 1918 eine Rede zu Thema Bibliothek. Anton Elter wirkte lange Zeit bis zu seinem Tode an der Universität Bonn mit, unter anderem als Professor für Eloquenz und Professor für klassische Philologie. In dem Werk Wesen und Aufgaben der wissenschaftlichen Bibliothek von 1937 geht er auf die Bedeutung der Bibliothek für uns Menschen und die Wissenschaft ein:

    „Mit der Entwicklung der Sprache beginnt die menschliche
    Kultur, mit der Erfindung der Schrift wird das Wissen der
    Menschheit zum festen, dauernden und übertragbaren Besitz,
    wird das Buch zum Träger und Vermittler des geistigen Fortschritts,
    mit einem Wort der Wissenschaft.

    Die Erfindung der Buchdruckerkunst bedeutet den Beginn
    der modernen Wissenschaft im weitesten Sinne, die Bibliotheken als die
    Summe der in den Bücherschätzen enthaltenen geistigen Arbeit
    der Jahrtausende repräsentieren das gesamte Wissen der
    Menschheit von ihren Anfängen bis zur Gegenwart.“

    #LizenzCCBY40INT #Bibliothek #Retrodigitalisierung #Bibliotheksgeschichte
  12. Zum Welttag des Buches am 23. April

    Am 23. April ist „Welttag des Buches“ und des Urheberrechts. 1995 erklärte die UNESCO diesen Tag zum weltweiten Feiertag für das Lesen, für Bücher und die Rechte der Autor:innen.

    Buchhandlungen, Verlage, Bibliotheken, Schulen und Lesebegeisterte feiern am UNESCO-Welttag des Buches ein großes Lesefest. Für uns ein Anlass, um zu schauen, was wir an älteren Werken zu diesem Thema digitalisiert haben, unter anderem zum Vorläufer der TIB, der Bibliothek der Technischen Hochschule Hannover:

    Paul Trommsdorff war ab 1922 Direktor der Bibliothek, er war Mitglied im Beirat für Bibliotheksangelegenheiten und hatte einen Lehrauftrag für Bibliothekswissenschaften inne. Mit dem Titel: „Die neuen Räume der Bibliothek der Technischen Hochschule Hannover, den Teilnehmern am 11. Hannoverschen Hochschultage (29. und 30. November 1929) überreicht“ gibt er einen wertvollen Einblick in die damaligen Begebenheiten:

                 

    Die interessante Geschichte der Bibliothek der Technischen Hochschule Hannover ab dem Jahr 1879 erzählt ebenfalls Paul Trommsdorff im Jahr 1931 in „Ein Überblick über die Entwicklung der Bibliothek“:

    Ein besonderes Kleinod stellt der „Katalog alter Bucheinbände in der Bibliothek der Technischen Hochschule Hannover“ von Elisabeth Weber (siehe auch Blog Beitrag von Andreas Lütgen) dar. Sie erstellte Richtlinien für die einheitliche Katalogisierung der Bucheinbände, Register zum Einbandkatalog der Bibliothek der Technischen Hochschule Hannover, Notizen betreffend Künstlerregister der Sammlung Haupt und anderer Kupferstichwerke der Bibliothek der Technischen Hochschule Hannover. Die Abreibungen der kostbaren Buchrücken der Sammlung Haupt dokumentieren deren Kunstfertigkeit.

    Aufsätze und graphische Einzelblätter zum Thema Buch lassen sich unter dem Titel „Buch und Bucheinband“ von 1923, herausgegeben von Max Joseph Husung, finden. Sie wurden zum 60. Geburtstage von Hans Loubier veröffentlicht, der ein deutscher Bibliothekar und Einbandforscher war.

    Der deutsche Philologe Prof. Anton Elter (1858–1925) hielt zu der Gedenkfeier des 100. Geburtstages des Stifters der Universität Bonn am 3. August 1918 eine Rede zu Thema Bibliothek. Anton Elter wirkte lange Zeit bis zu seinem Tode an der Universität Bonn mit, unter anderem als Professor für Eloquenz und Professor für klassische Philologie. In dem Werk Wesen und Aufgaben der wissenschaftlichen Bibliothek von 1937 geht er auf die Bedeutung der Bibliothek für uns Menschen und die Wissenschaft ein:

    „Mit der Entwicklung der Sprache beginnt die menschliche
    Kultur, mit der Erfindung der Schrift wird das Wissen der
    Menschheit zum festen, dauernden und übertragbaren Besitz,
    wird das Buch zum Träger und Vermittler des geistigen Fortschritts,
    mit einem Wort der Wissenschaft.

    Die Erfindung der Buchdruckerkunst bedeutet den Beginn
    der modernen Wissenschaft im weitesten Sinne, die Bibliotheken als die
    Summe der in den Bücherschätzen enthaltenen geistigen Arbeit
    der Jahrtausende repräsentieren das gesamte Wissen der
    Menschheit von ihren Anfängen bis zur Gegenwart.“

    #LizenzCCBY40INT #Bibliothek #Retrodigitalisierung #Bibliotheksgeschichte
  13. Zum Welttag des Buches am 23. April

    Am 23. April ist „Welttag des Buches“ und des Urheberrechts. 1995 erklärte die UNESCO diesen Tag zum weltweiten Feiertag für das Lesen, für Bücher und die Rechte der Autor:innen.

    Buchhandlungen, Verlage, Bibliotheken, Schulen und Lesebegeisterte feiern am UNESCO-Welttag des Buches ein großes Lesefest. Für uns ein Anlass, um zu schauen, was wir an älteren Werken zu diesem Thema digitalisiert haben, unter anderem zum Vorläufer der TIB, der Bibliothek der Technischen Hochschule Hannover:

    Paul Trommsdorff war ab 1922 Direktor der Bibliothek, er war Mitglied im Beirat für Bibliotheksangelegenheiten und hatte einen Lehrauftrag für Bibliothekswissenschaften inne. Mit dem Titel: „Die neuen Räume der Bibliothek der Technischen Hochschule Hannover, den Teilnehmern am 11. Hannoverschen Hochschultage (29. und 30. November 1929) überreicht“ gibt er einen wertvollen Einblick in die damaligen Begebenheiten:

                 

    Die interessante Geschichte der Bibliothek der Technischen Hochschule Hannover ab dem Jahr 1879 erzählt ebenfalls Paul Trommsdorff im Jahr 1931 in „Ein Überblick über die Entwicklung der Bibliothek“:

    Ein besonderes Kleinod stellt der „Katalog alter Bucheinbände in der Bibliothek der Technischen Hochschule Hannover“ von Elisabeth Weber (siehe auch Blog Beitrag von Andreas Lütgen) dar. Sie erstellte Richtlinien für die einheitliche Katalogisierung der Bucheinbände, Register zum Einbandkatalog der Bibliothek der Technischen Hochschule Hannover, Notizen betreffend Künstlerregister der Sammlung Haupt und anderer Kupferstichwerke der Bibliothek der Technischen Hochschule Hannover. Die Abreibungen der kostbaren Buchrücken der Sammlung Haupt dokumentieren deren Kunstfertigkeit.

    Aufsätze und graphische Einzelblätter zum Thema Buch lassen sich unter dem Titel „Buch und Bucheinband“ von 1923, herausgegeben von Max Joseph Husung, finden. Sie wurden zum 60. Geburtstage von Hans Loubier veröffentlicht, der ein deutscher Bibliothekar und Einbandforscher war.

    Der deutsche Philologe Prof. Anton Elter (1858–1925) hielt zu der Gedenkfeier des 100. Geburtstages des Stifters der Universität Bonn am 3. August 1918 eine Rede zu Thema Bibliothek. Anton Elter wirkte lange Zeit bis zu seinem Tode an der Universität Bonn mit, unter anderem als Professor für Eloquenz und Professor für klassische Philologie. In dem Werk Wesen und Aufgaben der wissenschaftlichen Bibliothek von 1937 geht er auf die Bedeutung der Bibliothek für uns Menschen und die Wissenschaft ein:

    „Mit der Entwicklung der Sprache beginnt die menschliche
    Kultur, mit der Erfindung der Schrift wird das Wissen der
    Menschheit zum festen, dauernden und übertragbaren Besitz,
    wird das Buch zum Träger und Vermittler des geistigen Fortschritts,
    mit einem Wort der Wissenschaft.

    Die Erfindung der Buchdruckerkunst bedeutet den Beginn
    der modernen Wissenschaft im weitesten Sinne, die Bibliotheken als die
    Summe der in den Bücherschätzen enthaltenen geistigen Arbeit
    der Jahrtausende repräsentieren das gesamte Wissen der
    Menschheit von ihren Anfängen bis zur Gegenwart.“

    #Bibliotheksgeschichte #LizenzCCBY40INT #Bibliothek #Retrodigitalisierung
  14. „Orte erzählen Demokratie“ – Demokratiegeschichte erfahrbar machen

    Demokratie sichtbar machen – das ist das Ziel des aktuell im Open Science Lab gestarteten Projekts „Orte erzählen Demokratie“. Entwickelt wird darin in Zusammenarbeit mit den Stadtbibliotheken Augsburg, Bremen und Buxtehude sowie mit Wikimedia Deutschland e. V. eine digitale Karte, auf der Orte deutscher Demokratiegeschichte erfasst werden.

    „Orte erzählen Demokratie“

    Gefördert durch die Stiftung Orte der deutschen Demokratiegeschichte macht das Projekt aktuelle und historische Orte der Demokratiegeschichte durch eine interaktive, digitale Karte erfahrbar, auf der thematische Touren – zu Fuß, per Rad oder mit öffentlichen Verkehrsmitteln  dargestellt werden. Neben bekannten Erinnerungsorten sollen im Projekt auch weniger sichtbare, aber symbolisch bedeutsame Orte in den Mittelpunkt rücken, zum Beispiel:

    • Beteiligungsverfahren im Stadtteil Linden-Süd in Hannover,
    • das Buxtehuder Modell als Beispiel demokratischer Schulkultur
    • die Respekt-Reihe der Stadtbücherei Augsburg oder
    • die Stadtbibliothek im Bremer Stadtteil Gröpelingen, die als „dritter Ort“ den demokratischen Dialog fördert.

    Solche Beispiele stehen für den demokratischen Alltag – genau wie etwa Vereinsheime, Stadtteilzentren, Volkshochschulen, Verlage oder Wohnorte engagierter historischer Persönlichkeiten oder Orte von Demonstrationen der Demokratiebewegung. Sie zeigen, wie Demokratie in historischen Wendepunkten und kontinuierlichen Aushandlungsprozessen gelebt wird. Die Umsetzung erfolgt offen, partizipativ und nachhaltig. Über Wikidata und Wikipedia werden die Inhalte langfristig für eine breite Öffentlichkeit zugänglich gemacht.

    Projektziele

    „Orte erzählen Demokratie” verfolgt das Ziel, Demokratiegeschichte lokal erfahrbar zu machen und zugleich in einem größeren Wissensraum zu verankern. Bürger:innen, zivilgesellschaftliche Initiativen und Bildungseinrichtungen werden befähigt, demokratiegeschichtlich relevante Orte zu identifizieren, zu dokumentieren und daraus  selbst gestaltete Touren zu entwickeln. Die aktive Beteiligung steht im Zentrum: Das Projekt versteht Demokratiegeschichte als gemeinsame Verantwortung, deren Erschließung nur miteinander gelingt.

    Die Inhalte werden offen lizenziert und über ein digitales Tourentool veröffentlicht. Ergänzend entstehen OER-Materialien (Open Educational Resources), also frei verfügbare Bildungsmaterialen, die Schritt für Schritt anleiten und für Lehrkräfte, Multiplikator:innen, Einzelpersonen oder Gruppen gedacht sind. Ein spezielles Teilprojekt richtet sich an Kinder und Jugendliche, die als „Demokratieforscher:innen“ihre Umgebung erkunden und auch eigene Touren entwickeln sollen.

    Ein zentrales Ziel ist zudem, das entstandene Wissen langfristig über Wikidata zu sichern und mit Wikipedia zu verknüpfen – dort, wo viele Menschen zuerst nach Informationen suchen. Wikimedia Deutschland wird als Projektpartner eingebunden: durch Community-Organizing, die Koordination von Workshops zur Datenerfassung, Einbindung des Projekts in Formate wie „GLAM digital“ oder in Veranstaltungen wie die „Digital Democracy Days“.

    Das Projekt folgt demokratischen Prinzipien: Es ist offen, kollaborativ, niedrigschwellig und zielt auf gemeinsame Teilhabe. Demokratie wird nicht nur erforscht und vermittelt, sondern eingeübt.

    Gesamtgesellschaftliche Relevanz

    Demokratie ist keine Selbstverständlichkeit, sie lebt von Beteiligung, historischer Bildung und dem Vertrauen in die eigene Gestaltungsfähigkeit. Demokratie muss im Alltag erlebbar bleiben. Genau hier setzt das Projekt an. Es erschließt demokratiegeschichtlich relevante Orte im unmittelbaren Lebensumfeld, macht sie durch digitale Touren sichtbar und lädt Menschen dazu ein, selbst als Forschende und als Mitgestaltende aktiv zu werden.

    Indem es neben den herausragenden Orten der Demokratiegeschichte auch alltägliche Orte – wie Vereinsheime, Redaktionen oder kommunale Einrichtungen – thematisiert, stärkt es das Bewusstsein für demokratische Prozesse vor Ort. Damit trägt das Projekt zur politischen Bildung, zur Erinnerungsarbeit und zur Stärkung gesellschaftlicher Teilhabe bei.

    Zugleich leistet es einen Beitrag zur digitalen Öffentlichkeit: Durch die Nutzung von Wikidata und die Anbindung an Wikipedia wird das Wissen zur Demokratiegeschichte langfristig verfügbar, erweiterbar und offen zugänglich gemacht. So entsteht ein demokratischer Wissensraum, der offen, lokal verankert und global anschlussfähig ist. So wird Erinnerungskultur lebendig – offen, inklusiv und zukunftsorientiert.

    Förderzeitraum: 15.12.2025–31.12.2027

    Orte erzählen Demokratie wird gefördert durch

    #LizenzCCBY40INT #CitizenScience #Demokratieorte #Demokratiegeschichte
  15. Tag der chinesischen Sprache: Chinesisch als Wissenschaftssprache und die Datenbank CAOD

    Seit 2010 begeht die UNESCO am 20. April den Tag der chinesischen Sprache – einen von sechs Welttagen, mit denen die Organisation die linguistische Vielfalt der Menschheit feiert und die Bedeutung der gleichberechtigten Verwendung der sechs Amtssprachen als Arbeitssprachen der Vereinten Nationen in den Vordergrund rückt. Das Datum ist kein Zufall: Es verweist auf den legendären Chronisten des Gelben Kaisers, Cang Jie, dem die chinesische Überlieferung die Erfindung der Schriftzeichen zuschreibt.

    Für eine spezielle wissenschaftliche Fachbibliothek wie die TIB bietet dieser Tag einen willkommenen Anlass zur Reflexion: Welche Sprache sprechen wir eigentlich, wenn wir von globaler Wissenschaft reden? Die ehrliche Antwort lautet meistens: Englisch. Und das ist ein Problem. Denn wer nur englischsprachige Literatur aufnimmt, liest nicht die gesamte Weltliteratur der Wissenschaft, sondern nur einen Ausschnitt davon.

    Die Mehrsprachigkeit in der Wissenschaft ist keine idealistische Vorstellung, sondern eine epistemologische Notwendigkeit. Originelle Entdeckungen entspringen oft der Muttersprache der Forschenden. Inhalte, die nicht übersetzt oder übernommen werden, bleiben für den Rest der Welt weitgehend unbekannt. Insbesondere in den Natur- und Ingenieurwissenschaften ist der Preis dieser „Unsichtbarkeit“ enorm. Gerade in diesen Bereichen hat sich China innerhalb weniger Jahrzehnte zu einer der weltweit führenden Wissenschaftsmächte entwickelt.

    Chinas Aufstieg: Zahlen, die Maßstäbe verschieben

    Die bibliometrischen Daten der vergangenen Jahre lesen sich wie eine stille Revolution. Was einst lediglich als quantitativer Anstieg betrachtet wurde, hat sich inzwischen zu qualitativer Exzellenz gewandelt und die Rangordnung in der globalen Wissenschaftswelt neu definiert.

    Im Nature Index, dem wohl renommiertesten Maßstab für Beiträge zu den 145 weltweit bedeutendsten Naturwissenschaftsjournalen, überholte China die USA im Jahr 2024 mit einem Vorsprung von 17 Prozent: 37.273 chinesische Artikel standen 31.930 amerikanischen gegenüber. Das ist kein vorübergehender Ausreißer: Während Chinas Anteil seit 2020 um 95 Prozent wuchs, stieg der amerikanische Anteil im gleichen Zeitraum um lediglich 9,5 Prozent [1].

    Besonders bemerkenswert: In den Bereichen Physik und Ingenieurwissenschaften hat China inzwischen nicht nur die USA, sondern die gesamte OECD überholt, also die Summe aller Publikationen aus den USA, Deutschland, Großbritannien, Frankreich, Japan und 33 weiteren Ländern. Führt somit die Top 20 List in der CWTS Leiden Ranking (Open Edition) ausschließlich mit chinesischen Institutionen [2] an. Das gleiche Bild wiederholt sich auch im aktuellen Nature Index „Institution rankings“ im Bereich Chemie [3].

    Parallel wächst die Strahlkraft chinesischer Institutionen. Der Nature Index listet zehn führende Forschungseinrichtungen weltweit für die „Journal group: Natural Sciences“ auf – neun davon in China. Die Chinesische Akademie der Wissenschaften (CAS) hält die Spitzenposition [4]. Und: Der Anteil chinesischer Forschender in der Kategorie der „Highly Cited Researchers“ (Clarivate) hat sich seit 2018 mehr als verdoppelt [5].

    Was bedeutet das für uns? Es bedeutet, dass ein erheblicher Teil der wichtigsten wissenschaftlichen Erkenntnisse unserer Zeit auf Chinesisch entstanden ist – und in chinesischsprachigen Zeitschriften erstveröffentlicht wurde. Wer diese Literatur nicht erschließt, verpasst höchstwahrscheinlich viele wichtige Informationen.

    Graue Flecken auf der Weltkarte des Wissens

    Die Dominanz des Englischen im internationalen Wissenschaftsbetrieb hat einen strukturellen Bias erzeugt, der selten explizit gemacht wird: Unsere Zitationsdatenbanken, unsere Rankings, unsere Peer-Review-Prozesse sind historisch westlich-anglophon ausgerichtet. Wer auf Chinesisch publiziert, sieht seine Arbeit systematisch unterbewertet – nicht weil sie schwächer wäre – sondern weil die Infrastruktur des globalen Wissenschaftsbetriebs sie als schlechter ansieht.

    Die Folgen sind bisweilen konkret: Berichte über die Infektion von Schweinen mit Vogelgrippe-Viren in China wurden von der internationalen Gemeinschaft – einschließlich WHO und UN – zunächst nicht wahrgenommen, weil sie ausschließlich in chinesischsprachigen Fachzeitschriften erschienen waren [6]. Und eine aktuelle Befragungsstudie mit 908 Wissenschaftler:innen aus acht Ländern zeigt: Nicht-Englisch-Muttersprachler:innen benötigen für dieselben wissenschaftlichen Tätigkeiten – Lektüre, Manuskripterstellung, Konferenzbeiträge – bis zu doppelt so viel Zeit wie ihre anglophonen Kolleg:innen [7]. Erkenntnisse und Karrieren gehen verloren, nicht wegen mangelnder Qualität, sondern wegen struktureller Sprachbarrieren.

    Sprache ist kein Verpackungsmaterial wissenschaftlicher Erkenntnis. Sie ist der Raum, in dem Denken stattfindet.

    Originalsprachige Literatur zu lesen bedeutet, Wissenschaft in dem Kontext zu begegnen, in dem sie entstanden ist – mit den Nuancen, Begrifflichkeiten und epistemischen Vorannahmen, die in eine Übersetzung oft nicht übertragen werden können.

    CAOD: Chinas und Asiens Forschung, direkt an Ihrem Schreibtisch

    Mit der neuen Campuslizenz für CAOD – China/Asia On Demand stellt unsere Bibliothek ab sofort eine der umfangreichsten Fachdatenbanken für chinesisch- und asiatischsprachige Wissenschaftsliteratur in Technik, Natur- und Medizinwissenschaften zur Verfügung. In der deutschen Hochschullandschaft ist dies ein echtes Alleinstellungsmerkmal.

    Die Fachdatenbanken CAOD

    China/Asia On Demand (CAOD) / Asia Document Delivery ist ein spezialisiertes Wissensportal für wissenschaftliche Materialien aus China und dem asiatischen Raum. Die webbasierte Plattform ermöglicht eine effiziente Recherche und den elektronischen Zugriff auf umfangreiche Fachinformationen dank leistungsfähiger Such- und Auffindungsfunktionen.

    Verfügbar sind über 10.000 elektronische Zeitschriftentitel sowie Millionen von Abschlussarbeiten, Dissertationen, Normen, Buchkapiteln, Patenten, Zeitungsartikeln und Konferenzbeiträgen. Im Rahmen unseres Abonnements ist ein Großteil der Dokumente im Originalformat einschließlich Grafiken und Abbildungen direkt im Volltext über die Plattform zugänglich.

    Das Besondere dabei: Die Datenbank erschließt nicht nur international sichtbare Journals, sondern auch nationale Fachzeitschriften, Forschungsberichte und weitere Formen wissenschaftlicher Kommunikation, die häufig ausschließlich in chinesischer Sprache vorliegen. Damit wird ein Forschungsraum zugänglich, der bislang nur eingeschränkt nutzbar war.

    Für Forschende, Lehrende und Studierende bedeutet dies einen erheblichen Mehrwert:

    • Zugang zu Primärquellen in Originalsprache
    • Einblicke in nationale Forschungstraditionen und Diskurse
    • Erweiterung des eigenen wissenschaftlichen Horizonts

    Ein Ausblick: Wohin geht die Wissenschaftssprache der Zukunft?

    Die Frage, ob Englisch die Wissenschaftssprache der Zukunft bleibt, wird zunehmend diskutiert, und die Daten sprechen eine eindeutige Sprache. China investiert massiv in den Aufbau eigener Fachzeitschriften von internationalem Rang. Die Zahl chinesischer Titel in hochrangigen Datenbanken steigt. Maschinelle Übersetzung und KI-gestützte Tools werden es in absehbarer Zeit erleichtern, fremdsprachige Fachliteratur zu erschließen, ohne dass dabei das Original aus dem Blick gerät.

    Was sich nicht automatisieren lässt, ist die institutionelle Bereitschaft, mehrsprachige Wissenschaft als Wert anzuerkennen. Bibliotheken haben dabei eine Schlüsselrolle: nicht nur als Zugangspunkte, sondern als Kuratorinnen wissenschaftlicher Vielfalt.

    Wir laden Sie herzlich ein, die Datenbank zu erkunden, ob für Ihre nächste Literaturrecherche, eine Seminararbeit oder ein Drittmittelprojekt. Das Angebot steht allen Angehörigen unserer Einrichtung zur Verfügung, erreichbar über DBIS (dbis.u r.de/UBTIB/resources/106734).

    Und wer dabei auf ein Schriftzeichen stößt, das er nicht kennt? Der hat guten Grund, neugierig zu bleiben.

    [1] https://quincyinst.org/research/chinas-historic-rise-to-the-top-of-the-scientific-ladder/#h-can-america-respond

    [2] https://open.leidenranking.com/ranking/2025/list

    [3] https://www.nature.com/nature-index/institution-outputs/generate/chemistry/global/all

    [4] https://www.nature.com/nature-index/institution-outputs/generate/natural-sciences/global/all

    [5] https://stories.springernature.com/global-research-pulse-china/index.html#section-HCR96QdzBb

    [6] https://pmc.ncbi.nlm.nih.gov/articles/PMC5199034/#pbio.2000933.ref008

    [7] https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002184

    #Originalsprache #InstitutionRankings #LizenzCCBY40INT #Ostasien #Regionalreferat #Chinesisch #Datenbank #Wissenschaftssprache
  16. Die Bibliothek des Charles Darwin

    Vor 144 Jahren starb Charles Darwin am 19. April 1882 in Down House/Grafschaft Kent im Alter von 73 Jahren. Wie arbeitete der weithin bekannte Naturforscher? Welche Bücher hat er gelesen, welche inspirierten ihn zu seinen eigenen Forschungen? Diesen Fragen gehen wir in unserem April-Beitrag der TIB-Blogreihe Wissen verbinden nach. Einen Teil der Recherche hat Martje Majowski im Rahmen ihrer FaMI-Ausbildung  übernommmen. Vielen Dank!

    Darwins Werdegang und die Entstehung der Arten

    Charles Darwin, etwa 1857 (gemeinfrei, Wikipedia)

    Charles Robert Darwin wurde am 12. Februar 1809 auf dem Anwesen Mount House in Shrewsbury als fünftes von sechs Kindern geboren. Sein Vater war der Arzt Robert Waring Darwin (1766–1848), der für ihn ebenso wie für den fünf Jahre älteren Bruder Erasmus Darwin das Studium der Medizin in Edinburgh vorsah. Nach etwas mehr als zwei Jahren wechselte Charles Darwin von der Medizin in das Studium der Theologie nach Cambridge, das er schließlich 1831 mit dem Bachelor of Arts abschloss. Während der Zeit in Cambridge nahm Darwin regelmäßig an Abendveranstaltungen bei Prof. John Henslow teil, der als Priester, Geologe und Botaniker tätig war. Diese Begegnung war entscheidend für Darwins weiteres Leben, denn Henslow empfahl ihn bei Kapitän Robert FitzRoy als naturwissenschaftlichen Begleiter für die Fahrt der HMS Beagle.

    Darwins Weltumsegelung mit der HMS Beagle (gemeinfrei, cc-by-3.0 von Devilm25)

    Während der fünfjährigen Reise (1831–1836) der HMS Beagle füllte Darwin zahlreiche Notizbücher mit botanischen, zoologischen und geologischen Beobachtungen und schuf damit die Grundlage für sein Werk „Über die Entstehung der Arten“. Bis zu dessen Veröffentlichung verfasste Darwin mehrere Bücher über zoologische und geologische Themen. Durch die Hochzeit mit seiner Cousine Emma Wedgwood und den Vermögen von Vater Robert Darwin sowie des Schwiegervaters Josiah Wedgwood konnte Charles Darwin als Privatier leben und seine Evolutionstheorie immer weiter entwickeln. Im November 1859 erschien schließlich On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life und war aufgrund hoher Vorbestellungen sofort vergriffen.

    Laut Kellyanne Burbage ist Darwins „Über die Entstehung der Arten“ das am häufigsten verbotene Wissenschaftsbuch. Bereits kurz nach der Veröffentlichung kam es zu zahlreichen Reaktionen, da Darwins Theorie starke Bezüge zu Theologie und Philosophie aufwies. 1895 wurde das Buch schließlich von Darwins Alma Mater, dem Trinity College in Cambridge, wegen Widerspruchs zu christlichen Glaubensgrundsätzen verboten – später folgten Tennessee (1925–1967), Jugoslawien (1935) und Griechenland (1937).

    Die Rekonstruktion von Darwins Bibliothek

    Titelblatt der ersten Ausgabe von 1859 (gemeinfrei, Wikipedia)

    „Über die Entstehung der Arten“ legt den Grundstein für die moderne Evolutionsbiologie. Die Grundlagen zu diesem Werk waren jedoch nicht nur die vielen Notizbücher aus der Zeit auf der HMS Beagle. Darwin verarbeitete darin auch viele weitere Erkenntnisse, die er aus den Bereichen Medizin, Psychologie, Naturwissenschaften, Philosophie, Theologie und politische Ökonomie gewann. Sein Ziel war es, die Entstehung von Arten auf eine breite naturwissenschaftliche Grundlage zu stellen. Dabei konnte er auf eine umfangreiche Bibliothek zurückgreifen.

    Lange wurde davon ausgegangen, dass Darwins Bibliothek 1.480 Bücher umfasst hat und sich diese Werke in den beiden verbliebenen Sammlungen in der University of Cambridge und in Down House befinden. Doch nach Darwins Tod sind unzählige Schriften in alle Himmelsrichtungen zerstreut worden, einen vollständigen Katalog gab es nicht.

    Erst durch die seit Anfang 2024 fertiggestellte digitale Rekonstruktion von Darwins Bibliothek steht nun fest, dass diese Sammlungen nur etwa 15 Prozent der Schriften enthielten, die Darwin besessen hat. Die nach seinem Tod erstellte Bestandsaufnahme von 2.065 gebundenen Büchern sowie die Auswertung von Referenzen in Darwins Schriften und seiner Korrespondenz, ein 426 Seiten umfassender handgeschriebener Katalog von 1875, Darwins Lesetagebuch sowie Tagebücher seiner Frau Emma Darwin waren die Puzzlesteine zur digitalen Rekonstruktion von Darwins Privatbibliothek.

    Diese ist nun auf der Seite Darwin online recherchierbar und umfasst 7.350 Titel in 13.000 Werken. Neben Büchern zu Biologie und Geologie umfasst sie auch Titel über Landwirtschaft, Tierzucht, Tierverhalten und die Verbreitung von Tieren, sowie Philosophie, Psychologie, Religion, Kunst, Geschichte, Reisen und Sprachen. Auch Notizen von Darwins Studienreisen mit der HMS Beagle können auf der Internetseite ebenso eingesehen werden wie private Dokumente und Familienfotos. Das Tagebuch seine Reise auf der HMS Beagle steht auch als Hörbuch zum Download zur Verfügung.

    „Diese nie dagewesene, detaillierte Sicht auf Darwins komplette Bibliothek erlaubt mehr denn je die Einsicht, dass er keine isolierte Figur war, die für sich gearbeitet hat, sondern ein Experte seiner Zeit, der auf die fortgeschrittene Wissenschaft, die Studien und andere Kenntnisse Tausender Menschen aufgebaut hat“, sagte John van Wyhe, Wissenschaftshistoriker und Initiator von Darwin online. Darwin hat damit im besten Sinne unserer Blogreihe Wissen verbunden.

    Wie kann Darwin online genutzt werden?

    Eine Einführung zu Darwin Online und der Entstehungsgeschichte zu dieser Plattform gibt John van Wyhe auf youtube. Die kostenfrei nutzbare Datenbank (nur englischsprachige Rechercheoberfläche) kann mit Hilfe der einfachen oder der erweiterten Suche (advanced search) durchsucht werden. Letzte ermöglicht beispielsweise die gezielte Suche nach deutschsprachigen Texten. Bis auf wenige Ausnahmen sind alle aufgeführten Werke als Image, Text oder PDF online einsehbar.

    Darwin, Fachreferat und Open Access

    Das erste der sechs strategische Handlungsfelder der TIB ist „OPEN SCIENCE – Wissen offen und nachhaltig zugänglich machen“. Die Kategorie #openness beleuchtet im TIB-Blog diverse Aspekte dieses Themas. Open Science und Open Access sind auch wichtige Aufgabenbereiche der Tätigkeit im Fachreferat. Dazu gehört neben der Unterstützung von Studierenden und Mitarbeitenden der Leibniz Universität Hannover (LUH) bei ihren Publikationstätigkeiten auch die Förderung von Open Access im Kontext Bestandsentwicklung. Gerade am Beispiel Darwins und der „banned books“ wird deutlich, wie wichtig Bibliotheken und der freie Zugang zu Wissen und unserem kulturellen Erbe ist.

    Darwin in der TIB

    Über das TIB-Portal sind neben dem Zugang zu Darwin online mehr als 900 Treffer zu Titeln von oder über Charles Darwin zu finden. Unter anderem auch die vollständige Neuübersetzung von „Über die Entstehung der Arten“ aus dem Jahr 2025. Das AV-Portal bietet darüber hinaus mit der Suche nach Charles Darwin über 30 Filme, die Darwins Arbeiten thematisieren.

    Viele Freude beim Stöbern!

    #AusDenFachreferaten #CharlesDarwin #LizenzCCBY40INT #openness
  17. E-Pflicht, Kunstfilme und Veterinärmedizin: Einblicke in die digitale Langzeitarchivierung bei LiLA.NDS

    ein Beitrag von Markus Bierkoch (GWLB), Sven Grabenhorst (HBK), Sabine Leonhard-Marek (TiHo), Jesko Rücknagel (TIB) und Frauke Stiller (HBK).

    Nachdem bereits drei Einrichtungen der ersten Projektkohorte ihre Einrichtung und das Sammelprofil, die Motivation zur Beteilung an der Landesinitiative sowie ihre im Rahmen von LiLA.NDS zu bearbeitenden Bestände im letzten Blogpost vorstellen konnten, folgen nun drei weitere Einrichtungen des ersten Bearbeitungsjahres.

    Unterschiedliche Medien und Bestände werden gemeinsam mit der TIB auf ihre Datenqualität geprüft, strukturiert, und perspektivisch mit Hilfe entwickelter Workflows in das Langzeitarchiv der TIB transferiert.

    In den folgenden Kurzinterviews berichten Vertreter:innen der Gottfried Wilhelm Leibniz Bibliothek (GWLB) , der Hochschule für Bildende Künste Braunschweig sowie der Tierärztlichen Hochschule Hannover über die verantwortungsvolle Aufgabe, ihre digitalen Bestände langfristig zu sichern.

    Gottfried Wilhelm Leibniz Bibliothek

    Dr. Markus Bierkoch berichtet über die aktuellen Aufgaben, die die GWLB als Pflichtexemplarbibliothek für Niedersachsen übernimmt. Seit 2025 gelten zusätzlich auch elektronische Publikationen aus Niedersachsen als Pflichtexemplare. Neben der Erschließung und Bereitstellung muss die GWLB auch die dauerhafte Archivierung der Pflichtexemplare sicherstellen. Darüber hinaus verfügt die GWLB über einen stetig wachsenden Bestand an Retrodigitalisaten wie des digitalisierten Leibniz-Nachlasses, aber auch zahlreiche historische Karten und Zeitungausgaben. Auch für diese Sammlung besteht ein Bedarf an einer digitalen Langzeitarchivierungslösung. Dies beinhaltet die Umsetzung der digitalen Langzeitarchivierung für die elektronischen Amtsdruckschriften und Pflichtexemplare sowie verschiedener Retrodigitalisate wie des digitalisierten Leibniz-Nachlasses, historischer Karten und Zeitungen.

    Gemeinsam mit den Kolleg:innen Dr. Anne-Kathrin Henkel (stellvertretende Direktorin), Andreas Steinsieck (Abteilungsleitung Medienbearbeitung), Dr. Benedikt Tondera (Abteilungsleitung IT und Digitale Dienste), Manuela Schink (Sachbearbeitung E-Pflicht) und Olaf Guercke (Leiter der Stabsstelle Digitalisierung) beschäftigt sich Markus Bierkoch als Leiter des Sachgebiets Pflicht an der GWLB mit der Umsetzung der E-Pflicht im Rahmen einer zugeschnittenen IT-Lösung, die neben der Abgabe von elektronischen Pflichtexemplaren und deren automatisierte Verarbeitung auch die digitale Langzeitarchivierung umfasst.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek (GWLB) nimmt neben weiteren Aufgaben die Funktion der Pflichtexemplarbibliothek für Niedersachsen wahr. Sie hat den gesetzlichen Auftrag, Veröffentlichungen aus Niedersachsen sowie Publikationen mit Bezug zu Niedersachsen zu sammeln, bibliografisch zu erschließen, bereitzustellen und dauerhaft zu erhalten. Traditionell umfasste dies vor allem gedruckte Bücher, Zeitschriften und Zeitungen.

    Inzwischen entstehen jedoch große Teile der regionalen Literaturproduktion ausschließlich digital, etwa E-Books oder E-Journals. Dem trägt das seit 2025 geltende Niedersächsische Pflichtexemplargesetz (NPflExG) Rechnung, auf dessen Basis nun auch elektronische Veröffentlichungen Pflichtexemplare darstellen. Für die Umsetzung dieses Auftrags wird an der GWLB zurzeit die entsprechende IT-Infrastruktur entwickelt. Ein zentrales Element davon ist die digitale Langzeitarchivierung, um auch elektronische Publikationen dauerhaft zu erhalten.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Niedersächsisches Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz (Hrsg.), Waldzustandsbericht, Bd. 2025. CC BY 4.0

    Besonders wichtig ist für uns zum einen der bereits bestehende sowie der künftig noch zu sammelnde Bestand an elektronischen Amtsdruckschriften und Pflichtexemplaren. Gemäß unserem gesetzlichen Auftrag treffen wir beim Sammeln von Pflichtexemplaren keine inhaltliche Auswahl. Der Pflichtexemplarbestand bietet dementsprechend einen breiten Querschnitt des kulturellen und wissenschaftlichen Lebens in Niedersachsen. Die Erforschung dieses umfangreichen geistigen Erbes soll auch noch in Jahrhunderten gewährleistet sein.

    Darüber hinaus sind die zahlreichen Retrodigitalisate in unseren Digitalen Sammlungen von besonderer Bedeutung. Dazu zählt zum Beispiel der digitalisierte Nachlass von Leibniz, dessen Briefwechsel in das Weltdokumentenerbe aufgenommen wurde. Darüber hinaus hat die GWLB in den letzten Jahren aber auch zahlreiche historische Bücher, Handschriften und Karten sowie die bedeutende regionale Tageszeitung Hannoverscher Courier (1854 bis 1944) digitalisiert, welche für die landeskundliche Forschung einen hohen Wert besitzen. Dementsprechend muss auch für diesen digitalen Bestand eine dauerhafte Sicherungslösung gefunden werden.

    Brief von Joachim Bouvet an Gottfried Wilhelm Leibniz vom 19. September 1699 aus Peking (China), in: Briefwechsel Joachim Bouvet mit Gottfried Wilhelm Leibniz.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Motivation ergibt sich in erster Linie aus unserem gesetzlichen Auftrag, elektronische Pflichtexemplare dauerhaft aufzubewahren und zugänglich zu halten. Ein konkreter Auslöser war daher das Inkrafttreten des Niedersächsischen Pflichtexemplargesetzes (NPflExG). Das Gesetz macht deutlich, dass der um elektronische Pflichtexemplare erweiterte gesetzliche Sammelauftrag ohne digitale Langzeitarchivierung künftig nicht mehr erfüllbar wäre. Die Auseinandersetzung mit der digitalen Langzeitarchivierung ist daher weniger optional als vielmehr eine notwendige Weiterentwicklung unserer bibliothekarischen Kernaufgaben innerhalb eines sich mehr und mehr zum Digitalen hinwendenden Publikationsaufkommens.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Besonders wertvoll ist für uns zum einen die Unterstützung bei der Überführung historisch gewachsener digitaler Bestände in das digitale Langzeitarchivsystem. Unsere digitalen Bestände sind über die Jahre von verschiedenen Personen betreut sowie in verschiedenen technischen Systemen gepflegt worden. Außerdem haben sich über die Zeit hinweg entscheidende Rahmenbedingungen geändert zum Beispiel im Urheberrecht. Deshalb haben sich Inkonsistenzen bei Dateiformaten sowie Metadatenangaben eingeschlichen. Hierüber im fachlichen Austausch mit anderen Einrichtungen ein vertieftes Verständnis zu entwickeln und etwaige Datenbereinigungen zu planen, ist für uns von hoher Bedeutung.

    Zum anderen ist es im Projekt besonders wertvoll, eine IT-Lösung für unsere spezifischen Anforderungen als Pflichtexemplarbibliothek zu entwickeln. Die Anforderungen, die sich aus dem Sammeln elektronischer Pflichtexemplare ergeben, unterscheiden sich häufig von denen der großen Mehrheit der Hochschul- und Universitätsbibliotheken. Sehr hilfreich ist, dass das LiLA.NDS-Team auf diese besonderen Anforderungen eingeht und gemeinsam mit uns sowie unseren weiteren Kooperationspartnern – der Verbundzentrale Göttingen (VZG) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) – eine maßgeschneiderte Lösung plant und umsetzt.

    Hochschule für Bildende Künste Braunschweig

    Als nächstes blicken wir auf die Bibliothek der Hochschule für Bildende Künste Braunschweig (HBK). Im Rahmen des LiLA-Projekts befasst sich die HBK vor allem mit audiovisuellen Medien, die Performances, künstlerisches Schaffen und Reflektieren abbilden und wertvolle Forschungsobjekte für künstlerische Fächer darstellen. Dr. Frauke Stiller, die Bibliotheksleitung, und Sven Grabenhorst, zuständiger Mitarbeiter für die Video- und Filmbearbeitung, skizzieren für uns die Arbeit an der Videosammlung. Unterstützt von ihrem Kollegen Joachim Schulz (Systembibliothekar) arbeiten sie kontinuierlich daran, die Digitalisierung des VHS‑ und DVD-Bestands umzusetzen und die Inhalte ins LZA-System der TIB zu überführen, um sie dauerhaft für Forschung und Lehre zu sichern.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als Hochschulbibliothek besteht unser vordingliches Interesse in der Versorgung von Lehre und Forschung, der an der Hochschule gelehrten Fächer. Ein besonderer Schwerpunkt aber liegt in der Sammlung von Kunst der Gegenwart und der klassischen Moderne. In Bereichen also, in denen Performances, künstlerische Interventionen, künstlerische Arbeitsprozesse und das Reflektieren über Formen künstlerischen Arbeitens im Gespräch am besten auf zeitbasierten Medien wie Video abgebildet werden und glücklicherweise worden sind. Genau diese Videos können ein interessanter Forschungsgegenstand werden und ein Schatz sein.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    In der Sammlung der Videos befinden sich viele Arbeitsergebnisse des künstlerischen Arbeitens an der HBK selbst. So zum Beispiel eine Kassette mit Ergebnissen des Kurses Videopraxis vom Anfang der 80-er Jahre. Diese Arbeiten heute vor ihrem historischen Hintergrund zu sehen, ist spannend. 

    Filmbild, Videopraxis 1983-1986, VC 165/83. © HBK Bibliothek

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Pläne einer Digitalisierung eines Teils unserer VHS-Bestände besteht schon länger. Um sie aber wieder allen berechtigten Nutzenden zugänglich zu machen, bedarf es eines Medienträgerwechsels. Die Anfrage aus der TIB zur Zusammenarbeit im Rahmen einer Langzeitarchivierung gab dann den Anstoß, das Projekt endlich anzugehen und um einen Teil des DVD-Bestandes zu erweitern. Die besondere Motivation liegt auch darin, die Werke unserer hauseigenen Künstler*Innen langfristig zu erhalten, um folgenden Generationen Inspirationsquelle und Forschungsobjekt zu sein.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Die Beratung durch das LiLA-Team, gerade in Bezug auf die vielen Kleinigkeiten und Probleme, die bei einem solchen Projekt auftreten, sind uns eine willkommene Unterstützung. Dies beinhaltet praktische Tipps bei der Erstellung von Workflows und Entscheidungen zu den Metadaten, genauso wie Hinweise zur rechtlichen Klärung. Wir freuen uns aber insbesondere auch über die ganz praktische und handfeste Unterstützung der Digitalisierung der DVDs selbst, wo die TIB mit ihrer Technik eine große Zeitersparnis für uns bedeutet. Dafür bedanken wir uns hier gern nochmal.

    Tierärztliche Hochschule Hannover

    Die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) verfügt über umfangreiche und teils seltene Bestände der Veterinärmedizin und betreibt zentrale Informationsdienste. Prof. Dr. Sabine Leonhard-Marek, die Leiterin der Hochschulbibliothek, spricht mit uns über die vielfältigen Bestände der TiHo – von den Digitalisaten historischer Monographien über Hochschulschriften bis hin zu seltenen Spezialbeständen sowie Kongressberichten – und die Motivation, diese langfristig zu bewahren. Unterstützt wird sie von ihrem Team Christina Gückel (stellvertretende Bibliotheksleiterin), Ngoc Anh Tran (Repositorium) und Sonja Hartinger (Hochschulschriften). Aufgrund der zunehmenden Digitalisierung der Forschung und der einhergehenden Verantwortung, digitale wissenschaftliche Publikationen dauerhaft verfügbar zu halten, bietet das Projekt die Möglichkeit verschiedene Herausforderungen zu adressieren.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als zentrale Einrichtung der Universität versorgt die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) Forschende und Studierende mit Fachinformationen aus der Veterinärmedizin und angrenzenden Fächern. Sie stellt die für Forschung, Studium und Lehre essenziellen Informationsinfrastrukturen für Recherche und Publikation bereit und sorgt durch die Beratung zum Thema Open Access und die Unterstützung bei Publikationsvorhaben für eine erhöhte Sichtbarkeit des Forschungsoutputs.

    Die Hochschulschriften (Dissertationen, PhD-Thesen und Habilitationen) werden an der TiHo seit Ende 2000 parallel zur Druckausgabe auch elektronisch veröffentlicht. Diese Veröffentlichungen wurden zunächst auf von der TiHo intern betriebenen Plattform bereitgestellt und sind 2019 in das auf MyCoRe basierende Repositorium „TiHo eLib“ umgezogen. Außer diesen Primärveröffentlichungen werden auch die von TiHo-Forschenden im Open Access publizierten Fachartikel in der „TiHo eLib“ als Zweitveröffentlichung aufgenommen. Das Repositorium fungiert darüber hinaus als Hochschulbibliographie und hat damit die vorher gedruckt oder als PDF bereitgestellte Bibliographie abgelöst.

    Perspektivisch sollen darüber hinaus die Digitalisate der „Digitalen Bibliothek Veterinärmedizin“ in das Repositorium umziehen. Im Rahmen eines von der Deutschen Forschungsgemeinschaft (DFG) geförderten Digitalisierungsprojekts wurden bis 2014 aus den Beständen der Bibliothek insgesamt 1.436 zwischen 1599 und 1890 erschienene Monographien digitalisiert, nachbearbeitet, katalogisiert, archiviert und als „Digitale Bibliothek“ frei suchbar und nutzbar gemacht.

    Landwirthschaftliches Tierracen-Album © Bibliothek der Tierärztlichen Hochschule Hannover

    Als ehemalige Sondersammelgebietsbibliothek für die Veterinärmedizin und die allgemeine Parasitologie verfügt die TiHo über fachlich seltene und einmalige Bestände, die langfristig erhalten werden sollen. Hierzu gehören nicht nur die oben beschriebenen Monographien, die über Digitalisate überregional nutzbar gemacht wurden, sondern auch Kongressberichte und andere graue Literatur, die nur in digitaler Form vorliegt und dies zum Teil auf elektronischen Trägermedien, deren Funktionalität endlich ist.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen? Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Ludwig Daum: Ueber das Koppen der Pferde. © Bibliothek der Tierärztlichen Hochschule Hannover

    Der Forschungsoutput der Hochschule umfasst zunehmend genuin digitale Publikationen, so dass wir es im Rahmen der Bestandserhaltung als unsere Aufgabe ansehen, auch diesen digitalen Output als Bestand zu erhalten und ihn langfristig zu sichern. Zum Teil ist diese digitale Kopie eine zweite Kopie, da im Fall der Hochschulschriften über die Abgabe an die Deutsche Nationalbibliothek und im Fall der Artikel in Fachzeitschriften weitgehend über die jeweiligen Verlage die Archivierung einer weiteren Kopie zugesagt ist. Studien haben aber in der Vergangenheit gezeigt, dass nicht alle Artikel in wissenschaftlichen Zeitschriften durchgehend abrufbar sind (zum Beispiel Laakso et al. 2021). Da es sich um Forschungsleistungen der eigenen Hochschule handelt, liegt uns die dauerhafte Sicherung dieses Bestandes besonders am Herzen.

    Das Repositorium der TiHo wird vom Gemeinsamen Bibliotheksverbund (GBV) gehostet, so dass die Metadaten der Hochschulbibliographie über Backup und Bitstream-Preservation gesichert sind. Die zukünftige Lesbarkeit der hochgeladenen Volltexte ist damit jedoch nicht abgedeckt und muss separat geplant werden.

    Der aktuell für die Digitalisate genutzte Viewer ist in die Jahre gekommen und muss aktualisiert werden, so dass auch hier Handlungsbedarf bestand.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Insgesamt sind die engmaschige Betreuung und die gemeinsame Arbeit an optimalen Workflows in diesem Projekt besonders hervorzuheben. Dabei birgt jeder Projektteil besondere Herausforderungen. So haben wir zu Beginn die Fragen diskutiert, welche Publikationen bereits wie langzeitarchiviert werden und wann eine Doppelarchivierung empfehlenswert wäre. Die Digitalisate liegen in verschiedenen Formaten vor (TIFF, PDF, xml, txt, und sind zum Teil mit OCR erfasst). Hier wird im Rahmen des Projektes erarbeitet, welche Formate wie gespeichert und wie abrufbar sein sollen. Bei der grauen Literatur muss für die Langzeitarchivierung das Problem ungeklärter Rechtslagen berücksichtigt werden. Eine nachträgliche Rechteklärung ist oft nicht mehr möglich, weil die Rechteinhaber nicht ermittelbar oder erreichbar sind. Hier war die Expertise der TIB für die Entwicklung eines geeigneten Vorgehens ebenfalls sehr hilfreich.

    Ausblick

    Die Umsetzung der digitalen Langzeitarchivierung bleibt eine spannende, wenn auch herausfordernde Aufgabe für alle beteiligten Einrichtungen. Die Bearbeitung der ersten Projektkohorte wird auch in den nächsten Monaten intensiv fortgeführt, während die zweite Kohorte bereits in den Startlöchern steht.

    Blogreihe „LiLA.NDS“
    Im Rahmen einer begleitenden Blogreihe werden wir regelmäßig über den Projektfortschritt Landesinitiative Langzeitarchivierung Niedersachsen (kurz LiLA) berichten. So erhalten Interessierte außerhalb des Projektkonsortiums Einblicke in die Arbeit von LiLA. In den kommenden Beiträgen stellen sich die beteiligten Einrichtungen vor, berichten über ihre zu archivierenden Bestände und erläutern, warum die digitale Langzeitarchivierung für sie von besonderer Bedeutung ist. Damit ist die Blogreihe eine wichtige Säule in der geplanten Wissensbasis, die es dem Projekt ermöglicht, Best Practices vorzustellen und Einblicke in die Umsetzungsphase zu geben.
    [1] Laakso, M., Matthias, L., & Jahn, N. (2021). Open is not forever: A study of vanished open access journals. Journal of the Association for Information Science and Technology, 72(9), 1099–1112. doi.org/10.1002/asi.24460

    #LiLANDS #LizenzCCBY40INT #DigitaleLangzeitarchivierung #Bestandserhaltung #Digialisierung #Services
  18. E-Pflicht, Kunstfilme und Veterinärmedizin: Einblicke in die digitale Langzeitarchivierung bei LiLA.NDS

    ein Beitrag von Markus Bierkoch (GWLB), Sven Grabenhorst (HBK), Sabine Leonhard-Marek (TiHo), Jesko Rücknagel (TIB) und Frauke Stiller (HBK).

    Nachdem bereits drei Einrichtungen der ersten Projektkohorte ihre Einrichtung und das Sammelprofil, die Motivation zur Beteilung an der Landesinitiative sowie ihre im Rahmen von LiLA.NDS zu bearbeitenden Bestände im letzten Blogpost vorstellen konnten, folgen nun drei weitere Einrichtungen des ersten Bearbeitungsjahres.

    Unterschiedliche Medien und Bestände werden gemeinsam mit der TIB auf ihre Datenqualität geprüft, strukturiert, und perspektivisch mit Hilfe entwickelter Workflows in das Langzeitarchiv der TIB transferiert.

    In den folgenden Kurzinterviews berichten Vertreter:innen der Gottfried Wilhelm Leibniz Bibliothek (GWLB) , der Hochschule für Bildende Künste Braunschweig sowie der Tierärztlichen Hochschule Hannover über die verantwortungsvolle Aufgabe, ihre digitalen Bestände langfristig zu sichern.

    Gottfried Wilhelm Leibniz Bibliothek

    Dr. Markus Bierkoch berichtet über die aktuellen Aufgaben, die die GWLB als Pflichtexemplarbibliothek für Niedersachsen übernimmt. Seit 2025 gelten zusätzlich auch elektronische Publikationen aus Niedersachsen als Pflichtexemplare. Neben der Erschließung und Bereitstellung muss die GWLB auch die dauerhafte Archivierung der Pflichtexemplare sicherstellen. Darüber hinaus verfügt die GWLB über einen stetig wachsenden Bestand an Retrodigitalisaten wie des digitalisierten Leibniz-Nachlasses, aber auch zahlreiche historische Karten und Zeitungausgaben. Auch für diese Sammlung besteht ein Bedarf an einer digitalen Langzeitarchivierungslösung. Dies beinhaltet die Umsetzung der digitalen Langzeitarchivierung für die elektronischen Amtsdruckschriften und Pflichtexemplare sowie verschiedener Retrodigitalisate wie des digitalisierten Leibniz-Nachlasses, historischer Karten und Zeitungen.

    Gemeinsam mit den Kolleg:innen Dr. Anne-Kathrin Henkel (stellvertretende Direktorin), Andreas Steinsieck (Abteilungsleitung Medienbearbeitung), Dr. Benedikt Tondera (Abteilungsleitung IT und Digitale Dienste), Manuela Schink (Sachbearbeitung E-Pflicht) und Olaf Guercke (Leiter der Stabsstelle Digitalisierung) beschäftigt sich Markus Bierkoch als Leiter des Sachgebiets Pflicht an der GWLB mit der Umsetzung der E-Pflicht im Rahmen einer zugeschnittenen IT-Lösung, die neben der Abgabe von elektronischen Pflichtexemplaren und deren automatisierte Verarbeitung auch die digitale Langzeitarchivierung umfasst.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek (GWLB) nimmt neben weiteren Aufgaben die Funktion der Pflichtexemplarbibliothek für Niedersachsen wahr. Sie hat den gesetzlichen Auftrag, Veröffentlichungen aus Niedersachsen sowie Publikationen mit Bezug zu Niedersachsen zu sammeln, bibliografisch zu erschließen, bereitzustellen und dauerhaft zu erhalten. Traditionell umfasste dies vor allem gedruckte Bücher, Zeitschriften und Zeitungen.

    Inzwischen entstehen jedoch große Teile der regionalen Literaturproduktion ausschließlich digital, etwa E-Books oder E-Journals. Dem trägt das seit 2025 geltende Niedersächsische Pflichtexemplargesetz (NPflExG) Rechnung, auf dessen Basis nun auch elektronische Veröffentlichungen Pflichtexemplare darstellen. Für die Umsetzung dieses Auftrags wird an der GWLB zurzeit die entsprechende IT-Infrastruktur entwickelt. Ein zentrales Element davon ist die digitale Langzeitarchivierung, um auch elektronische Publikationen dauerhaft zu erhalten.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Niedersächsisches Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz (Hrsg.), Waldzustandsbericht, Bd. 2025. CC BY 4.0

    Besonders wichtig ist für uns zum einen der bereits bestehende sowie der künftig noch zu sammelnde Bestand an elektronischen Amtsdruckschriften und Pflichtexemplaren. Gemäß unserem gesetzlichen Auftrag treffen wir beim Sammeln von Pflichtexemplaren keine inhaltliche Auswahl. Der Pflichtexemplarbestand bietet dementsprechend einen breiten Querschnitt des kulturellen und wissenschaftlichen Lebens in Niedersachsen. Die Erforschung dieses umfangreichen geistigen Erbes soll auch noch in Jahrhunderten gewährleistet sein.

    Darüber hinaus sind die zahlreichen Retrodigitalisate in unseren Digitalen Sammlungen von besonderer Bedeutung. Dazu zählt zum Beispiel der digitalisierte Nachlass von Leibniz, dessen Briefwechsel in das Weltdokumentenerbe aufgenommen wurde. Darüber hinaus hat die GWLB in den letzten Jahren aber auch zahlreiche historische Bücher, Handschriften und Karten sowie die bedeutende regionale Tageszeitung Hannoverscher Courier (1854 bis 1944) digitalisiert, welche für die landeskundliche Forschung einen hohen Wert besitzen. Dementsprechend muss auch für diesen digitalen Bestand eine dauerhafte Sicherungslösung gefunden werden.

    Brief von Joachim Bouvet an Gottfried Wilhelm Leibniz vom 19. September 1699 aus Peking (China), in: Briefwechsel Joachim Bouvet mit Gottfried Wilhelm Leibniz.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Motivation ergibt sich in erster Linie aus unserem gesetzlichen Auftrag, elektronische Pflichtexemplare dauerhaft aufzubewahren und zugänglich zu halten. Ein konkreter Auslöser war daher das Inkrafttreten des Niedersächsischen Pflichtexemplargesetzes (NPflExG). Das Gesetz macht deutlich, dass der um elektronische Pflichtexemplare erweiterte gesetzliche Sammelauftrag ohne digitale Langzeitarchivierung künftig nicht mehr erfüllbar wäre. Die Auseinandersetzung mit der digitalen Langzeitarchivierung ist daher weniger optional als vielmehr eine notwendige Weiterentwicklung unserer bibliothekarischen Kernaufgaben innerhalb eines sich mehr und mehr zum Digitalen hinwendenden Publikationsaufkommens.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Besonders wertvoll ist für uns zum einen die Unterstützung bei der Überführung historisch gewachsener digitaler Bestände in das digitale Langzeitarchivsystem. Unsere digitalen Bestände sind über die Jahre von verschiedenen Personen betreut sowie in verschiedenen technischen Systemen gepflegt worden. Außerdem haben sich über die Zeit hinweg entscheidende Rahmenbedingungen geändert zum Beispiel im Urheberrecht. Deshalb haben sich Inkonsistenzen bei Dateiformaten sowie Metadatenangaben eingeschlichen. Hierüber im fachlichen Austausch mit anderen Einrichtungen ein vertieftes Verständnis zu entwickeln und etwaige Datenbereinigungen zu planen, ist für uns von hoher Bedeutung.

    Zum anderen ist es im Projekt besonders wertvoll, eine IT-Lösung für unsere spezifischen Anforderungen als Pflichtexemplarbibliothek zu entwickeln. Die Anforderungen, die sich aus dem Sammeln elektronischer Pflichtexemplare ergeben, unterscheiden sich häufig von denen der großen Mehrheit der Hochschul- und Universitätsbibliotheken. Sehr hilfreich ist, dass das LiLA.NDS-Team auf diese besonderen Anforderungen eingeht und gemeinsam mit uns sowie unseren weiteren Kooperationspartnern – der Verbundzentrale Göttingen (VZG) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) – eine maßgeschneiderte Lösung plant und umsetzt.

    Hochschule für Bildende Künste Braunschweig

    Als nächstes blicken wir auf die Bibliothek der Hochschule für Bildende Künste Braunschweig (HBK). Im Rahmen des LiLA-Projekts befasst sich die HBK vor allem mit audiovisuellen Medien, die Performances, künstlerisches Schaffen und Reflektieren abbilden und wertvolle Forschungsobjekte für künstlerische Fächer darstellen. Dr. Frauke Stiller, die Bibliotheksleitung, und Sven Grabenhorst, zuständiger Mitarbeiter für die Video- und Filmbearbeitung, skizzieren für uns die Arbeit an der Videosammlung. Unterstützt von ihrem Kollegen Joachim Schulz (Systembibliothekar) arbeiten sie kontinuierlich daran, die Digitalisierung des VHS‑ und DVD-Bestands umzusetzen und die Inhalte ins LZA-System der TIB zu überführen, um sie dauerhaft für Forschung und Lehre zu sichern.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als Hochschulbibliothek besteht unser vordingliches Interesse in der Versorgung von Lehre und Forschung, der an der Hochschule gelehrten Fächer. Ein besonderer Schwerpunkt aber liegt in der Sammlung von Kunst der Gegenwart und der klassischen Moderne. In Bereichen also, in denen Performances, künstlerische Interventionen, künstlerische Arbeitsprozesse und das Reflektieren über Formen künstlerischen Arbeitens im Gespräch am besten auf zeitbasierten Medien wie Video abgebildet werden und glücklicherweise worden sind. Genau diese Videos können ein interessanter Forschungsgegenstand werden und ein Schatz sein.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    In der Sammlung der Videos befinden sich viele Arbeitsergebnisse des künstlerischen Arbeitens an der HBK selbst. So zum Beispiel eine Kassette mit Ergebnissen des Kurses Videopraxis vom Anfang der 80-er Jahre. Diese Arbeiten heute vor ihrem historischen Hintergrund zu sehen, ist spannend. 

    Filmbild, Videopraxis 1983-1986, VC 165/83. © HBK Bibliothek

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Pläne einer Digitalisierung eines Teils unserer VHS-Bestände besteht schon länger. Um sie aber wieder allen berechtigten Nutzenden zugänglich zu machen, bedarf es eines Medienträgerwechsels. Die Anfrage aus der TIB zur Zusammenarbeit im Rahmen einer Langzeitarchivierung gab dann den Anstoß, das Projekt endlich anzugehen und um einen Teil des DVD-Bestandes zu erweitern. Die besondere Motivation liegt auch darin, die Werke unserer hauseigenen Künstler*Innen langfristig zu erhalten, um folgenden Generationen Inspirationsquelle und Forschungsobjekt zu sein.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Die Beratung durch das LiLA-Team, gerade in Bezug auf die vielen Kleinigkeiten und Probleme, die bei einem solchen Projekt auftreten, sind uns eine willkommene Unterstützung. Dies beinhaltet praktische Tipps bei der Erstellung von Workflows und Entscheidungen zu den Metadaten, genauso wie Hinweise zur rechtlichen Klärung. Wir freuen uns aber insbesondere auch über die ganz praktische und handfeste Unterstützung der Digitalisierung der DVDs selbst, wo die TIB mit ihrer Technik eine große Zeitersparnis für uns bedeutet. Dafür bedanken wir uns hier gern nochmal.

    Tierärztliche Hochschule Hannover

    Die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) verfügt über umfangreiche und teils seltene Bestände der Veterinärmedizin und betreibt zentrale Informationsdienste. Prof. Dr. Sabine Leonhard-Marek, die Leiterin der Hochschulbibliothek, spricht mit uns über die vielfältigen Bestände der TiHo – von den Digitalisaten historischer Monographien über Hochschulschriften bis hin zu seltenen Spezialbeständen sowie Kongressberichten – und die Motivation, diese langfristig zu bewahren. Unterstützt wird sie von ihrem Team Christina Gückel (stellvertretende Bibliotheksleiterin), Ngoc Anh Tran (Repositorium) und Sonja Hartinger (Hochschulschriften). Aufgrund der zunehmenden Digitalisierung der Forschung und der einhergehenden Verantwortung, digitale wissenschaftliche Publikationen dauerhaft verfügbar zu halten, bietet das Projekt die Möglichkeit verschiedene Herausforderungen zu adressieren.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als zentrale Einrichtung der Universität versorgt die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) Forschende und Studierende mit Fachinformationen aus der Veterinärmedizin und angrenzenden Fächern. Sie stellt die für Forschung, Studium und Lehre essenziellen Informationsinfrastrukturen für Recherche und Publikation bereit und sorgt durch die Beratung zum Thema Open Access und die Unterstützung bei Publikationsvorhaben für eine erhöhte Sichtbarkeit des Forschungsoutputs.

    Die Hochschulschriften (Dissertationen, PhD-Thesen und Habilitationen) werden an der TiHo seit Ende 2000 parallel zur Druckausgabe auch elektronisch veröffentlicht. Diese Veröffentlichungen wurden zunächst auf von der TiHo intern betriebenen Plattform bereitgestellt und sind 2019 in das auf MyCoRe basierende Repositorium „TiHo eLib“ umgezogen. Außer diesen Primärveröffentlichungen werden auch die von TiHo-Forschenden im Open Access publizierten Fachartikel in der „TiHo eLib“ als Zweitveröffentlichung aufgenommen. Das Repositorium fungiert darüber hinaus als Hochschulbibliographie und hat damit die vorher gedruckt oder als PDF bereitgestellte Bibliographie abgelöst.

    Perspektivisch sollen darüber hinaus die Digitalisate der „Digitalen Bibliothek Veterinärmedizin“ in das Repositorium umziehen. Im Rahmen eines von der Deutschen Forschungsgemeinschaft (DFG) geförderten Digitalisierungsprojekts wurden bis 2014 aus den Beständen der Bibliothek insgesamt 1.436 zwischen 1599 und 1890 erschienene Monographien digitalisiert, nachbearbeitet, katalogisiert, archiviert und als „Digitale Bibliothek“ frei suchbar und nutzbar gemacht.

    Landwirthschaftliches Tierracen-Album © Bibliothek der Tierärztlichen Hochschule Hannover

    Als ehemalige Sondersammelgebietsbibliothek für die Veterinärmedizin und die allgemeine Parasitologie verfügt die TiHo über fachlich seltene und einmalige Bestände, die langfristig erhalten werden sollen. Hierzu gehören nicht nur die oben beschriebenen Monographien, die über Digitalisate überregional nutzbar gemacht wurden, sondern auch Kongressberichte und andere graue Literatur, die nur in digitaler Form vorliegt und dies zum Teil auf elektronischen Trägermedien, deren Funktionalität endlich ist.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen? Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Ludwig Daum: Ueber das Koppen der Pferde. © Bibliothek der Tierärztlichen Hochschule Hannover

    Der Forschungsoutput der Hochschule umfasst zunehmend genuin digitale Publikationen, so dass wir es im Rahmen der Bestandserhaltung als unsere Aufgabe ansehen, auch diesen digitalen Output als Bestand zu erhalten und ihn langfristig zu sichern. Zum Teil ist diese digitale Kopie eine zweite Kopie, da im Fall der Hochschulschriften über die Abgabe an die Deutsche Nationalbibliothek und im Fall der Artikel in Fachzeitschriften weitgehend über die jeweiligen Verlage die Archivierung einer weiteren Kopie zugesagt ist. Studien haben aber in der Vergangenheit gezeigt, dass nicht alle Artikel in wissenschaftlichen Zeitschriften durchgehend abrufbar sind (zum Beispiel Laakso et al. 2021). Da es sich um Forschungsleistungen der eigenen Hochschule handelt, liegt uns die dauerhafte Sicherung dieses Bestandes besonders am Herzen.

    Das Repositorium der TiHo wird vom Gemeinsamen Bibliotheksverbund (GBV) gehostet, so dass die Metadaten der Hochschulbibliographie über Backup und Bitstream-Preservation gesichert sind. Die zukünftige Lesbarkeit der hochgeladenen Volltexte ist damit jedoch nicht abgedeckt und muss separat geplant werden.

    Der aktuell für die Digitalisate genutzte Viewer ist in die Jahre gekommen und muss aktualisiert werden, so dass auch hier Handlungsbedarf bestand.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Insgesamt sind die engmaschige Betreuung und die gemeinsame Arbeit an optimalen Workflows in diesem Projekt besonders hervorzuheben. Dabei birgt jeder Projektteil besondere Herausforderungen. So haben wir zu Beginn die Fragen diskutiert, welche Publikationen bereits wie langzeitarchiviert werden und wann eine Doppelarchivierung empfehlenswert wäre. Die Digitalisate liegen in verschiedenen Formaten vor (TIFF, PDF, xml, txt, und sind zum Teil mit OCR erfasst). Hier wird im Rahmen des Projektes erarbeitet, welche Formate wie gespeichert und wie abrufbar sein sollen. Bei der grauen Literatur muss für die Langzeitarchivierung das Problem ungeklärter Rechtslagen berücksichtigt werden. Eine nachträgliche Rechteklärung ist oft nicht mehr möglich, weil die Rechteinhaber nicht ermittelbar oder erreichbar sind. Hier war die Expertise der TIB für die Entwicklung eines geeigneten Vorgehens ebenfalls sehr hilfreich.

    Ausblick

    Die Umsetzung der digitalen Langzeitarchivierung bleibt eine spannende, wenn auch herausfordernde Aufgabe für alle beteiligten Einrichtungen. Die Bearbeitung der ersten Projektkohorte wird auch in den nächsten Monaten intensiv fortgeführt, während die zweite Kohorte bereits in den Startlöchern steht.

    Blogreihe „LiLA.NDS“
    Im Rahmen einer begleitenden Blogreihe werden wir regelmäßig über den Projektfortschritt Landesinitiative Langzeitarchivierung Niedersachsen (kurz LiLA) berichten. So erhalten Interessierte außerhalb des Projektkonsortiums Einblicke in die Arbeit von LiLA. In den kommenden Beiträgen stellen sich die beteiligten Einrichtungen vor, berichten über ihre zu archivierenden Bestände und erläutern, warum die digitale Langzeitarchivierung für sie von besonderer Bedeutung ist. Damit ist die Blogreihe eine wichtige Säule in der geplanten Wissensbasis, die es dem Projekt ermöglicht, Best Practices vorzustellen und Einblicke in die Umsetzungsphase zu geben.
    [1] Laakso, M., Matthias, L., & Jahn, N. (2021). Open is not forever: A study of vanished open access journals. Journal of the Association for Information Science and Technology, 72(9), 1099–1112. doi.org/10.1002/asi.24460

    #DigitaleLangzeitarchivierung #Bestandserhaltung #Digialisierung #Services #LiLANDS #LizenzCCBY40INT
  19. E-Pflicht, Kunstfilme und Veterinärmedizin: Einblicke in die digitale Langzeitarchivierung bei LiLA.NDS

    ein Beitrag von Markus Bierkoch (GWLB), Sven Grabenhorst (HBK), Sabine Leonhard-Marek (TiHo), Jesko Rücknagel (TIB) und Frauke Stiller (HBK).

    Nachdem bereits drei Einrichtungen der ersten Projektkohorte ihre Einrichtung und das Sammelprofil, die Motivation zur Beteilung an der Landesinitiative sowie ihre im Rahmen von LiLA.NDS zu bearbeitenden Bestände im letzten Blogpost vorstellen konnten, folgen nun drei weitere Einrichtungen des ersten Bearbeitungsjahres.

    Unterschiedliche Medien und Bestände werden gemeinsam mit der TIB auf ihre Datenqualität geprüft, strukturiert, und perspektivisch mit Hilfe entwickelter Workflows in das Langzeitarchiv der TIB transferiert.

    In den folgenden Kurzinterviews berichten Vertreter:innen der Gottfried Wilhelm Leibniz Bibliothek (GWLB) , der Hochschule für Bildende Künste Braunschweig sowie der Tierärztlichen Hochschule Hannover über die verantwortungsvolle Aufgabe, ihre digitalen Bestände langfristig zu sichern.

    Gottfried Wilhelm Leibniz Bibliothek

    Dr. Markus Bierkoch berichtet über die aktuellen Aufgaben, die die GWLB als Pflichtexemplarbibliothek für Niedersachsen übernimmt. Seit 2025 gelten zusätzlich auch elektronische Publikationen aus Niedersachsen als Pflichtexemplare. Neben der Erschließung und Bereitstellung muss die GWLB auch die dauerhafte Archivierung der Pflichtexemplare sicherstellen. Darüber hinaus verfügt die GWLB über einen stetig wachsenden Bestand an Retrodigitalisaten wie des digitalisierten Leibniz-Nachlasses, aber auch zahlreiche historische Karten und Zeitungausgaben. Auch für diese Sammlung besteht ein Bedarf an einer digitalen Langzeitarchivierungslösung. Dies beinhaltet die Umsetzung der digitalen Langzeitarchivierung für die elektronischen Amtsdruckschriften und Pflichtexemplare sowie verschiedener Retrodigitalisate wie des digitalisierten Leibniz-Nachlasses, historischer Karten und Zeitungen.

    Gemeinsam mit den Kolleg:innen Dr. Anne-Kathrin Henkel (stellvertretende Direktorin), Andreas Steinsieck (Abteilungsleitung Medienbearbeitung), Dr. Benedikt Tondera (Abteilungsleitung IT und Digitale Dienste), Manuela Schink (Sachbearbeitung E-Pflicht) und Olaf Guercke (Leiter der Stabsstelle Digitalisierung) beschäftigt sich Markus Bierkoch als Leiter des Sachgebiets Pflicht an der GWLB mit der Umsetzung der E-Pflicht im Rahmen einer zugeschnittenen IT-Lösung, die neben der Abgabe von elektronischen Pflichtexemplaren und deren automatisierte Verarbeitung auch die digitale Langzeitarchivierung umfasst.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek (GWLB) nimmt neben weiteren Aufgaben die Funktion der Pflichtexemplarbibliothek für Niedersachsen wahr. Sie hat den gesetzlichen Auftrag, Veröffentlichungen aus Niedersachsen sowie Publikationen mit Bezug zu Niedersachsen zu sammeln, bibliografisch zu erschließen, bereitzustellen und dauerhaft zu erhalten. Traditionell umfasste dies vor allem gedruckte Bücher, Zeitschriften und Zeitungen.

    Inzwischen entstehen jedoch große Teile der regionalen Literaturproduktion ausschließlich digital, etwa E-Books oder E-Journals. Dem trägt das seit 2025 geltende Niedersächsische Pflichtexemplargesetz (NPflExG) Rechnung, auf dessen Basis nun auch elektronische Veröffentlichungen Pflichtexemplare darstellen. Für die Umsetzung dieses Auftrags wird an der GWLB zurzeit die entsprechende IT-Infrastruktur entwickelt. Ein zentrales Element davon ist die digitale Langzeitarchivierung, um auch elektronische Publikationen dauerhaft zu erhalten.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Niedersächsisches Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz (Hrsg.), Waldzustandsbericht, Bd. 2025. CC BY 4.0

    Besonders wichtig ist für uns zum einen der bereits bestehende sowie der künftig noch zu sammelnde Bestand an elektronischen Amtsdruckschriften und Pflichtexemplaren. Gemäß unserem gesetzlichen Auftrag treffen wir beim Sammeln von Pflichtexemplaren keine inhaltliche Auswahl. Der Pflichtexemplarbestand bietet dementsprechend einen breiten Querschnitt des kulturellen und wissenschaftlichen Lebens in Niedersachsen. Die Erforschung dieses umfangreichen geistigen Erbes soll auch noch in Jahrhunderten gewährleistet sein.

    Darüber hinaus sind die zahlreichen Retrodigitalisate in unseren Digitalen Sammlungen von besonderer Bedeutung. Dazu zählt zum Beispiel der digitalisierte Nachlass von Leibniz, dessen Briefwechsel in das Weltdokumentenerbe aufgenommen wurde. Darüber hinaus hat die GWLB in den letzten Jahren aber auch zahlreiche historische Bücher, Handschriften und Karten sowie die bedeutende regionale Tageszeitung Hannoverscher Courier (1854 bis 1944) digitalisiert, welche für die landeskundliche Forschung einen hohen Wert besitzen. Dementsprechend muss auch für diesen digitalen Bestand eine dauerhafte Sicherungslösung gefunden werden.

    Brief von Joachim Bouvet an Gottfried Wilhelm Leibniz vom 19. September 1699 aus Peking (China), in: Briefwechsel Joachim Bouvet mit Gottfried Wilhelm Leibniz.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Motivation ergibt sich in erster Linie aus unserem gesetzlichen Auftrag, elektronische Pflichtexemplare dauerhaft aufzubewahren und zugänglich zu halten. Ein konkreter Auslöser war daher das Inkrafttreten des Niedersächsischen Pflichtexemplargesetzes (NPflExG). Das Gesetz macht deutlich, dass der um elektronische Pflichtexemplare erweiterte gesetzliche Sammelauftrag ohne digitale Langzeitarchivierung künftig nicht mehr erfüllbar wäre. Die Auseinandersetzung mit der digitalen Langzeitarchivierung ist daher weniger optional als vielmehr eine notwendige Weiterentwicklung unserer bibliothekarischen Kernaufgaben innerhalb eines sich mehr und mehr zum Digitalen hinwendenden Publikationsaufkommens.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Besonders wertvoll ist für uns zum einen die Unterstützung bei der Überführung historisch gewachsener digitaler Bestände in das digitale Langzeitarchivsystem. Unsere digitalen Bestände sind über die Jahre von verschiedenen Personen betreut sowie in verschiedenen technischen Systemen gepflegt worden. Außerdem haben sich über die Zeit hinweg entscheidende Rahmenbedingungen geändert zum Beispiel im Urheberrecht. Deshalb haben sich Inkonsistenzen bei Dateiformaten sowie Metadatenangaben eingeschlichen. Hierüber im fachlichen Austausch mit anderen Einrichtungen ein vertieftes Verständnis zu entwickeln und etwaige Datenbereinigungen zu planen, ist für uns von hoher Bedeutung.

    Zum anderen ist es im Projekt besonders wertvoll, eine IT-Lösung für unsere spezifischen Anforderungen als Pflichtexemplarbibliothek zu entwickeln. Die Anforderungen, die sich aus dem Sammeln elektronischer Pflichtexemplare ergeben, unterscheiden sich häufig von denen der großen Mehrheit der Hochschul- und Universitätsbibliotheken. Sehr hilfreich ist, dass das LiLA.NDS-Team auf diese besonderen Anforderungen eingeht und gemeinsam mit uns sowie unseren weiteren Kooperationspartnern – der Verbundzentrale Göttingen (VZG) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) – eine maßgeschneiderte Lösung plant und umsetzt.

    Hochschule für Bildende Künste Braunschweig

    Als nächstes blicken wir auf die Bibliothek der Hochschule für Bildende Künste Braunschweig (HBK). Im Rahmen des LiLA-Projekts befasst sich die HBK vor allem mit audiovisuellen Medien, die Performances, künstlerisches Schaffen und Reflektieren abbilden und wertvolle Forschungsobjekte für künstlerische Fächer darstellen. Dr. Frauke Stiller, die Bibliotheksleitung, und Sven Grabenhorst, zuständiger Mitarbeiter für die Video- und Filmbearbeitung, skizzieren für uns die Arbeit an der Videosammlung. Unterstützt von ihrem Kollegen Joachim Schulz (Systembibliothekar) arbeiten sie kontinuierlich daran, die Digitalisierung des VHS‑ und DVD-Bestands umzusetzen und die Inhalte ins LZA-System der TIB zu überführen, um sie dauerhaft für Forschung und Lehre zu sichern.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als Hochschulbibliothek besteht unser vordingliches Interesse in der Versorgung von Lehre und Forschung, der an der Hochschule gelehrten Fächer. Ein besonderer Schwerpunkt aber liegt in der Sammlung von Kunst der Gegenwart und der klassischen Moderne. In Bereichen also, in denen Performances, künstlerische Interventionen, künstlerische Arbeitsprozesse und das Reflektieren über Formen künstlerischen Arbeitens im Gespräch am besten auf zeitbasierten Medien wie Video abgebildet werden und glücklicherweise worden sind. Genau diese Videos können ein interessanter Forschungsgegenstand werden und ein Schatz sein.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    In der Sammlung der Videos befinden sich viele Arbeitsergebnisse des künstlerischen Arbeitens an der HBK selbst. So zum Beispiel eine Kassette mit Ergebnissen des Kurses Videopraxis vom Anfang der 80-er Jahre. Diese Arbeiten heute vor ihrem historischen Hintergrund zu sehen, ist spannend. 

    Filmbild, Videopraxis 1983-1986, VC 165/83. © HBK Bibliothek

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Pläne einer Digitalisierung eines Teils unserer VHS-Bestände besteht schon länger. Um sie aber wieder allen berechtigten Nutzenden zugänglich zu machen, bedarf es eines Medienträgerwechsels. Die Anfrage aus der TIB zur Zusammenarbeit im Rahmen einer Langzeitarchivierung gab dann den Anstoß, das Projekt endlich anzugehen und um einen Teil des DVD-Bestandes zu erweitern. Die besondere Motivation liegt auch darin, die Werke unserer hauseigenen Künstler*Innen langfristig zu erhalten, um folgenden Generationen Inspirationsquelle und Forschungsobjekt zu sein.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Die Beratung durch das LiLA-Team, gerade in Bezug auf die vielen Kleinigkeiten und Probleme, die bei einem solchen Projekt auftreten, sind uns eine willkommene Unterstützung. Dies beinhaltet praktische Tipps bei der Erstellung von Workflows und Entscheidungen zu den Metadaten, genauso wie Hinweise zur rechtlichen Klärung. Wir freuen uns aber insbesondere auch über die ganz praktische und handfeste Unterstützung der Digitalisierung der DVDs selbst, wo die TIB mit ihrer Technik eine große Zeitersparnis für uns bedeutet. Dafür bedanken wir uns hier gern nochmal.

    Tierärztliche Hochschule Hannover

    Die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) verfügt über umfangreiche und teils seltene Bestände der Veterinärmedizin und betreibt zentrale Informationsdienste. Prof. Dr. Sabine Leonhard-Marek, die Leiterin der Hochschulbibliothek, spricht mit uns über die vielfältigen Bestände der TiHo – von den Digitalisaten historischer Monographien über Hochschulschriften bis hin zu seltenen Spezialbeständen sowie Kongressberichten – und die Motivation, diese langfristig zu bewahren. Unterstützt wird sie von ihrem Team Christina Gückel (stellvertretende Bibliotheksleiterin), Ngoc Anh Tran (Repositorium) und Sonja Hartinger (Hochschulschriften). Aufgrund der zunehmenden Digitalisierung der Forschung und der einhergehenden Verantwortung, digitale wissenschaftliche Publikationen dauerhaft verfügbar zu halten, bietet das Projekt die Möglichkeit verschiedene Herausforderungen zu adressieren.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als zentrale Einrichtung der Universität versorgt die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) Forschende und Studierende mit Fachinformationen aus der Veterinärmedizin und angrenzenden Fächern. Sie stellt die für Forschung, Studium und Lehre essenziellen Informationsinfrastrukturen für Recherche und Publikation bereit und sorgt durch die Beratung zum Thema Open Access und die Unterstützung bei Publikationsvorhaben für eine erhöhte Sichtbarkeit des Forschungsoutputs.

    Die Hochschulschriften (Dissertationen, PhD-Thesen und Habilitationen) werden an der TiHo seit Ende 2000 parallel zur Druckausgabe auch elektronisch veröffentlicht. Diese Veröffentlichungen wurden zunächst auf von der TiHo intern betriebenen Plattform bereitgestellt und sind 2019 in das auf MyCoRe basierende Repositorium „TiHo eLib“ umgezogen. Außer diesen Primärveröffentlichungen werden auch die von TiHo-Forschenden im Open Access publizierten Fachartikel in der „TiHo eLib“ als Zweitveröffentlichung aufgenommen. Das Repositorium fungiert darüber hinaus als Hochschulbibliographie und hat damit die vorher gedruckt oder als PDF bereitgestellte Bibliographie abgelöst.

    Perspektivisch sollen darüber hinaus die Digitalisate der „Digitalen Bibliothek Veterinärmedizin“ in das Repositorium umziehen. Im Rahmen eines von der Deutschen Forschungsgemeinschaft (DFG) geförderten Digitalisierungsprojekts wurden bis 2014 aus den Beständen der Bibliothek insgesamt 1.436 zwischen 1599 und 1890 erschienene Monographien digitalisiert, nachbearbeitet, katalogisiert, archiviert und als „Digitale Bibliothek“ frei suchbar und nutzbar gemacht.

    Landwirthschaftliches Tierracen-Album © Bibliothek der Tierärztlichen Hochschule Hannover

    Als ehemalige Sondersammelgebietsbibliothek für die Veterinärmedizin und die allgemeine Parasitologie verfügt die TiHo über fachlich seltene und einmalige Bestände, die langfristig erhalten werden sollen. Hierzu gehören nicht nur die oben beschriebenen Monographien, die über Digitalisate überregional nutzbar gemacht wurden, sondern auch Kongressberichte und andere graue Literatur, die nur in digitaler Form vorliegt und dies zum Teil auf elektronischen Trägermedien, deren Funktionalität endlich ist.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen? Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Ludwig Daum: Ueber das Koppen der Pferde. © Bibliothek der Tierärztlichen Hochschule Hannover

    Der Forschungsoutput der Hochschule umfasst zunehmend genuin digitale Publikationen, so dass wir es im Rahmen der Bestandserhaltung als unsere Aufgabe ansehen, auch diesen digitalen Output als Bestand zu erhalten und ihn langfristig zu sichern. Zum Teil ist diese digitale Kopie eine zweite Kopie, da im Fall der Hochschulschriften über die Abgabe an die Deutsche Nationalbibliothek und im Fall der Artikel in Fachzeitschriften weitgehend über die jeweiligen Verlage die Archivierung einer weiteren Kopie zugesagt ist. Studien haben aber in der Vergangenheit gezeigt, dass nicht alle Artikel in wissenschaftlichen Zeitschriften durchgehend abrufbar sind (zum Beispiel Laakso et al. 2021). Da es sich um Forschungsleistungen der eigenen Hochschule handelt, liegt uns die dauerhafte Sicherung dieses Bestandes besonders am Herzen.

    Das Repositorium der TiHo wird vom Gemeinsamen Bibliotheksverbund (GBV) gehostet, so dass die Metadaten der Hochschulbibliographie über Backup und Bitstream-Preservation gesichert sind. Die zukünftige Lesbarkeit der hochgeladenen Volltexte ist damit jedoch nicht abgedeckt und muss separat geplant werden.

    Der aktuell für die Digitalisate genutzte Viewer ist in die Jahre gekommen und muss aktualisiert werden, so dass auch hier Handlungsbedarf bestand.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Insgesamt sind die engmaschige Betreuung und die gemeinsame Arbeit an optimalen Workflows in diesem Projekt besonders hervorzuheben. Dabei birgt jeder Projektteil besondere Herausforderungen. So haben wir zu Beginn die Fragen diskutiert, welche Publikationen bereits wie langzeitarchiviert werden und wann eine Doppelarchivierung empfehlenswert wäre. Die Digitalisate liegen in verschiedenen Formaten vor (TIFF, PDF, xml, txt, und sind zum Teil mit OCR erfasst). Hier wird im Rahmen des Projektes erarbeitet, welche Formate wie gespeichert und wie abrufbar sein sollen. Bei der grauen Literatur muss für die Langzeitarchivierung das Problem ungeklärter Rechtslagen berücksichtigt werden. Eine nachträgliche Rechteklärung ist oft nicht mehr möglich, weil die Rechteinhaber nicht ermittelbar oder erreichbar sind. Hier war die Expertise der TIB für die Entwicklung eines geeigneten Vorgehens ebenfalls sehr hilfreich.

    Ausblick

    Die Umsetzung der digitalen Langzeitarchivierung bleibt eine spannende, wenn auch herausfordernde Aufgabe für alle beteiligten Einrichtungen. Die Bearbeitung der ersten Projektkohorte wird auch in den nächsten Monaten intensiv fortgeführt, während die zweite Kohorte bereits in den Startlöchern steht.

    Blogreihe „LiLA.NDS“
    Im Rahmen einer begleitenden Blogreihe werden wir regelmäßig über den Projektfortschritt Landesinitiative Langzeitarchivierung Niedersachsen (kurz LiLA) berichten. So erhalten Interessierte außerhalb des Projektkonsortiums Einblicke in die Arbeit von LiLA. In den kommenden Beiträgen stellen sich die beteiligten Einrichtungen vor, berichten über ihre zu archivierenden Bestände und erläutern, warum die digitale Langzeitarchivierung für sie von besonderer Bedeutung ist. Damit ist die Blogreihe eine wichtige Säule in der geplanten Wissensbasis, die es dem Projekt ermöglicht, Best Practices vorzustellen und Einblicke in die Umsetzungsphase zu geben.
    [1] Laakso, M., Matthias, L., & Jahn, N. (2021). Open is not forever: A study of vanished open access journals. Journal of the Association for Information Science and Technology, 72(9), 1099–1112. doi.org/10.1002/asi.24460

    #DigitaleLangzeitarchivierung #Bestandserhaltung #Digialisierung #Services #LiLANDS #LizenzCCBY40INT
  20. E-Pflicht, Kunstfilme und Veterinärmedizin: Einblicke in die digitale Langzeitarchivierung bei LiLA.NDS

    ein Beitrag von Markus Bierkoch (GWLB), Sven Grabenhorst (HBK), Sabine Leonhard-Marek (TiHo), Jesko Rücknagel (TIB) und Frauke Stiller (HBK).

    Nachdem bereits drei Einrichtungen der ersten Projektkohorte ihre Einrichtung und das Sammelprofil, die Motivation zur Beteilung an der Landesinitiative sowie ihre im Rahmen von LiLA.NDS zu bearbeitenden Bestände im letzten Blogpost vorstellen konnten, folgen nun drei weitere Einrichtungen des ersten Bearbeitungsjahres.

    Unterschiedliche Medien und Bestände werden gemeinsam mit der TIB auf ihre Datenqualität geprüft, strukturiert, und perspektivisch mit Hilfe entwickelter Workflows in das Langzeitarchiv der TIB transferiert.

    In den folgenden Kurzinterviews berichten Vertreter:innen der Gottfried Wilhelm Leibniz Bibliothek (GWLB) , der Hochschule für Bildende Künste Braunschweig sowie der Tierärztlichen Hochschule Hannover über die verantwortungsvolle Aufgabe, ihre digitalen Bestände langfristig zu sichern.

    Gottfried Wilhelm Leibniz Bibliothek

    Dr. Markus Bierkoch berichtet über die aktuellen Aufgaben, die die GWLB als Pflichtexemplarbibliothek für Niedersachsen übernimmt. Seit 2025 gelten zusätzlich auch elektronische Publikationen aus Niedersachsen als Pflichtexemplare. Neben der Erschließung und Bereitstellung muss die GWLB auch die dauerhafte Archivierung der Pflichtexemplare sicherstellen. Darüber hinaus verfügt die GWLB über einen stetig wachsenden Bestand an Retrodigitalisaten wie des digitalisierten Leibniz-Nachlasses, aber auch zahlreiche historische Karten und Zeitungausgaben. Auch für diese Sammlung besteht ein Bedarf an einer digitalen Langzeitarchivierungslösung. Dies beinhaltet die Umsetzung der digitalen Langzeitarchivierung für die elektronischen Amtsdruckschriften und Pflichtexemplare sowie verschiedener Retrodigitalisate wie des digitalisierten Leibniz-Nachlasses, historischer Karten und Zeitungen.

    Gemeinsam mit den Kolleg:innen Dr. Anne-Kathrin Henkel (stellvertretende Direktorin), Andreas Steinsieck (Abteilungsleitung Medienbearbeitung), Dr. Benedikt Tondera (Abteilungsleitung IT und Digitale Dienste), Manuela Schink (Sachbearbeitung E-Pflicht) und Olaf Guercke (Leiter der Stabsstelle Digitalisierung) beschäftigt sich Markus Bierkoch als Leiter des Sachgebiets Pflicht an der GWLB mit der Umsetzung der E-Pflicht im Rahmen einer zugeschnittenen IT-Lösung, die neben der Abgabe von elektronischen Pflichtexemplaren und deren automatisierte Verarbeitung auch die digitale Langzeitarchivierung umfasst.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek (GWLB) nimmt neben weiteren Aufgaben die Funktion der Pflichtexemplarbibliothek für Niedersachsen wahr. Sie hat den gesetzlichen Auftrag, Veröffentlichungen aus Niedersachsen sowie Publikationen mit Bezug zu Niedersachsen zu sammeln, bibliografisch zu erschließen, bereitzustellen und dauerhaft zu erhalten. Traditionell umfasste dies vor allem gedruckte Bücher, Zeitschriften und Zeitungen.

    Inzwischen entstehen jedoch große Teile der regionalen Literaturproduktion ausschließlich digital, etwa E-Books oder E-Journals. Dem trägt das seit 2025 geltende Niedersächsische Pflichtexemplargesetz (NPflExG) Rechnung, auf dessen Basis nun auch elektronische Veröffentlichungen Pflichtexemplare darstellen. Für die Umsetzung dieses Auftrags wird an der GWLB zurzeit die entsprechende IT-Infrastruktur entwickelt. Ein zentrales Element davon ist die digitale Langzeitarchivierung, um auch elektronische Publikationen dauerhaft zu erhalten.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Niedersächsisches Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz (Hrsg.), Waldzustandsbericht, Bd. 2025. CC BY 4.0

    Besonders wichtig ist für uns zum einen der bereits bestehende sowie der künftig noch zu sammelnde Bestand an elektronischen Amtsdruckschriften und Pflichtexemplaren. Gemäß unserem gesetzlichen Auftrag treffen wir beim Sammeln von Pflichtexemplaren keine inhaltliche Auswahl. Der Pflichtexemplarbestand bietet dementsprechend einen breiten Querschnitt des kulturellen und wissenschaftlichen Lebens in Niedersachsen. Die Erforschung dieses umfangreichen geistigen Erbes soll auch noch in Jahrhunderten gewährleistet sein.

    Darüber hinaus sind die zahlreichen Retrodigitalisate in unseren Digitalen Sammlungen von besonderer Bedeutung. Dazu zählt zum Beispiel der digitalisierte Nachlass von Leibniz, dessen Briefwechsel in das Weltdokumentenerbe aufgenommen wurde. Darüber hinaus hat die GWLB in den letzten Jahren aber auch zahlreiche historische Bücher, Handschriften und Karten sowie die bedeutende regionale Tageszeitung Hannoverscher Courier (1854 bis 1944) digitalisiert, welche für die landeskundliche Forschung einen hohen Wert besitzen. Dementsprechend muss auch für diesen digitalen Bestand eine dauerhafte Sicherungslösung gefunden werden.

    Brief von Joachim Bouvet an Gottfried Wilhelm Leibniz vom 19. September 1699 aus Peking (China), in: Briefwechsel Joachim Bouvet mit Gottfried Wilhelm Leibniz.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Motivation ergibt sich in erster Linie aus unserem gesetzlichen Auftrag, elektronische Pflichtexemplare dauerhaft aufzubewahren und zugänglich zu halten. Ein konkreter Auslöser war daher das Inkrafttreten des Niedersächsischen Pflichtexemplargesetzes (NPflExG). Das Gesetz macht deutlich, dass der um elektronische Pflichtexemplare erweiterte gesetzliche Sammelauftrag ohne digitale Langzeitarchivierung künftig nicht mehr erfüllbar wäre. Die Auseinandersetzung mit der digitalen Langzeitarchivierung ist daher weniger optional als vielmehr eine notwendige Weiterentwicklung unserer bibliothekarischen Kernaufgaben innerhalb eines sich mehr und mehr zum Digitalen hinwendenden Publikationsaufkommens.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Besonders wertvoll ist für uns zum einen die Unterstützung bei der Überführung historisch gewachsener digitaler Bestände in das digitale Langzeitarchivsystem. Unsere digitalen Bestände sind über die Jahre von verschiedenen Personen betreut sowie in verschiedenen technischen Systemen gepflegt worden. Außerdem haben sich über die Zeit hinweg entscheidende Rahmenbedingungen geändert zum Beispiel im Urheberrecht. Deshalb haben sich Inkonsistenzen bei Dateiformaten sowie Metadatenangaben eingeschlichen. Hierüber im fachlichen Austausch mit anderen Einrichtungen ein vertieftes Verständnis zu entwickeln und etwaige Datenbereinigungen zu planen, ist für uns von hoher Bedeutung.

    Zum anderen ist es im Projekt besonders wertvoll, eine IT-Lösung für unsere spezifischen Anforderungen als Pflichtexemplarbibliothek zu entwickeln. Die Anforderungen, die sich aus dem Sammeln elektronischer Pflichtexemplare ergeben, unterscheiden sich häufig von denen der großen Mehrheit der Hochschul- und Universitätsbibliotheken. Sehr hilfreich ist, dass das LiLA.NDS-Team auf diese besonderen Anforderungen eingeht und gemeinsam mit uns sowie unseren weiteren Kooperationspartnern – der Verbundzentrale Göttingen (VZG) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) – eine maßgeschneiderte Lösung plant und umsetzt.

    Hochschule für Bildende Künste Braunschweig

    Als nächstes blicken wir auf die Bibliothek der Hochschule für Bildende Künste Braunschweig (HBK). Im Rahmen des LiLA-Projekts befasst sich die HBK vor allem mit audiovisuellen Medien, die Performances, künstlerisches Schaffen und Reflektieren abbilden und wertvolle Forschungsobjekte für künstlerische Fächer darstellen. Dr. Frauke Stiller, die Bibliotheksleitung, und Sven Grabenhorst, zuständiger Mitarbeiter für die Video- und Filmbearbeitung, skizzieren für uns die Arbeit an der Videosammlung. Unterstützt von ihrem Kollegen Joachim Schulz (Systembibliothekar) arbeiten sie kontinuierlich daran, die Digitalisierung des VHS‑ und DVD-Bestands umzusetzen und die Inhalte ins LZA-System der TIB zu überführen, um sie dauerhaft für Forschung und Lehre zu sichern.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als Hochschulbibliothek besteht unser vordingliches Interesse in der Versorgung von Lehre und Forschung, der an der Hochschule gelehrten Fächer. Ein besonderer Schwerpunkt aber liegt in der Sammlung von Kunst der Gegenwart und der klassischen Moderne. In Bereichen also, in denen Performances, künstlerische Interventionen, künstlerische Arbeitsprozesse und das Reflektieren über Formen künstlerischen Arbeitens im Gespräch am besten auf zeitbasierten Medien wie Video abgebildet werden und glücklicherweise worden sind. Genau diese Videos können ein interessanter Forschungsgegenstand werden und ein Schatz sein.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    In der Sammlung der Videos befinden sich viele Arbeitsergebnisse des künstlerischen Arbeitens an der HBK selbst. So zum Beispiel eine Kassette mit Ergebnissen des Kurses Videopraxis vom Anfang der 80-er Jahre. Diese Arbeiten heute vor ihrem historischen Hintergrund zu sehen, ist spannend. 

    Filmbild, Videopraxis 1983-1986, VC 165/83. © HBK Bibliothek

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Pläne einer Digitalisierung eines Teils unserer VHS-Bestände besteht schon länger. Um sie aber wieder allen berechtigten Nutzenden zugänglich zu machen, bedarf es eines Medienträgerwechsels. Die Anfrage aus der TIB zur Zusammenarbeit im Rahmen einer Langzeitarchivierung gab dann den Anstoß, das Projekt endlich anzugehen und um einen Teil des DVD-Bestandes zu erweitern. Die besondere Motivation liegt auch darin, die Werke unserer hauseigenen Künstler*Innen langfristig zu erhalten, um folgenden Generationen Inspirationsquelle und Forschungsobjekt zu sein.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Die Beratung durch das LiLA-Team, gerade in Bezug auf die vielen Kleinigkeiten und Probleme, die bei einem solchen Projekt auftreten, sind uns eine willkommene Unterstützung. Dies beinhaltet praktische Tipps bei der Erstellung von Workflows und Entscheidungen zu den Metadaten, genauso wie Hinweise zur rechtlichen Klärung. Wir freuen uns aber insbesondere auch über die ganz praktische und handfeste Unterstützung der Digitalisierung der DVDs selbst, wo die TIB mit ihrer Technik eine große Zeitersparnis für uns bedeutet. Dafür bedanken wir uns hier gern nochmal.

    Tierärztliche Hochschule Hannover

    Die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) verfügt über umfangreiche und teils seltene Bestände der Veterinärmedizin und betreibt zentrale Informationsdienste. Prof. Dr. Sabine Leonhard-Marek, die Leiterin der Hochschulbibliothek, spricht mit uns über die vielfältigen Bestände der TiHo – von den Digitalisaten historischer Monographien über Hochschulschriften bis hin zu seltenen Spezialbeständen sowie Kongressberichten – und die Motivation, diese langfristig zu bewahren. Unterstützt wird sie von ihrem Team Christina Gückel (stellvertretende Bibliotheksleiterin), Ngoc Anh Tran (Repositorium) und Sonja Hartinger (Hochschulschriften). Aufgrund der zunehmenden Digitalisierung der Forschung und der einhergehenden Verantwortung, digitale wissenschaftliche Publikationen dauerhaft verfügbar zu halten, bietet das Projekt die Möglichkeit verschiedene Herausforderungen zu adressieren.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als zentrale Einrichtung der Universität versorgt die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) Forschende und Studierende mit Fachinformationen aus der Veterinärmedizin und angrenzenden Fächern. Sie stellt die für Forschung, Studium und Lehre essenziellen Informationsinfrastrukturen für Recherche und Publikation bereit und sorgt durch die Beratung zum Thema Open Access und die Unterstützung bei Publikationsvorhaben für eine erhöhte Sichtbarkeit des Forschungsoutputs.

    Die Hochschulschriften (Dissertationen, PhD-Thesen und Habilitationen) werden an der TiHo seit Ende 2000 parallel zur Druckausgabe auch elektronisch veröffentlicht. Diese Veröffentlichungen wurden zunächst auf von der TiHo intern betriebenen Plattform bereitgestellt und sind 2019 in das auf MyCoRe basierende Repositorium „TiHo eLib“ umgezogen. Außer diesen Primärveröffentlichungen werden auch die von TiHo-Forschenden im Open Access publizierten Fachartikel in der „TiHo eLib“ als Zweitveröffentlichung aufgenommen. Das Repositorium fungiert darüber hinaus als Hochschulbibliographie und hat damit die vorher gedruckt oder als PDF bereitgestellte Bibliographie abgelöst.

    Perspektivisch sollen darüber hinaus die Digitalisate der „Digitalen Bibliothek Veterinärmedizin“ in das Repositorium umziehen. Im Rahmen eines von der Deutschen Forschungsgemeinschaft (DFG) geförderten Digitalisierungsprojekts wurden bis 2014 aus den Beständen der Bibliothek insgesamt 1.436 zwischen 1599 und 1890 erschienene Monographien digitalisiert, nachbearbeitet, katalogisiert, archiviert und als „Digitale Bibliothek“ frei suchbar und nutzbar gemacht.

    Landwirthschaftliches Tierracen-Album © Bibliothek der Tierärztlichen Hochschule Hannover

    Als ehemalige Sondersammelgebietsbibliothek für die Veterinärmedizin und die allgemeine Parasitologie verfügt die TiHo über fachlich seltene und einmalige Bestände, die langfristig erhalten werden sollen. Hierzu gehören nicht nur die oben beschriebenen Monographien, die über Digitalisate überregional nutzbar gemacht wurden, sondern auch Kongressberichte und andere graue Literatur, die nur in digitaler Form vorliegt und dies zum Teil auf elektronischen Trägermedien, deren Funktionalität endlich ist.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen? Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Ludwig Daum: Ueber das Koppen der Pferde. © Bibliothek der Tierärztlichen Hochschule Hannover

    Der Forschungsoutput der Hochschule umfasst zunehmend genuin digitale Publikationen, so dass wir es im Rahmen der Bestandserhaltung als unsere Aufgabe ansehen, auch diesen digitalen Output als Bestand zu erhalten und ihn langfristig zu sichern. Zum Teil ist diese digitale Kopie eine zweite Kopie, da im Fall der Hochschulschriften über die Abgabe an die Deutsche Nationalbibliothek und im Fall der Artikel in Fachzeitschriften weitgehend über die jeweiligen Verlage die Archivierung einer weiteren Kopie zugesagt ist. Studien haben aber in der Vergangenheit gezeigt, dass nicht alle Artikel in wissenschaftlichen Zeitschriften durchgehend abrufbar sind (zum Beispiel Laakso et al. 2021). Da es sich um Forschungsleistungen der eigenen Hochschule handelt, liegt uns die dauerhafte Sicherung dieses Bestandes besonders am Herzen.

    Das Repositorium der TiHo wird vom Gemeinsamen Bibliotheksverbund (GBV) gehostet, so dass die Metadaten der Hochschulbibliographie über Backup und Bitstream-Preservation gesichert sind. Die zukünftige Lesbarkeit der hochgeladenen Volltexte ist damit jedoch nicht abgedeckt und muss separat geplant werden.

    Der aktuell für die Digitalisate genutzte Viewer ist in die Jahre gekommen und muss aktualisiert werden, so dass auch hier Handlungsbedarf bestand.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Insgesamt sind die engmaschige Betreuung und die gemeinsame Arbeit an optimalen Workflows in diesem Projekt besonders hervorzuheben. Dabei birgt jeder Projektteil besondere Herausforderungen. So haben wir zu Beginn die Fragen diskutiert, welche Publikationen bereits wie langzeitarchiviert werden und wann eine Doppelarchivierung empfehlenswert wäre. Die Digitalisate liegen in verschiedenen Formaten vor (TIFF, PDF, xml, txt, und sind zum Teil mit OCR erfasst). Hier wird im Rahmen des Projektes erarbeitet, welche Formate wie gespeichert und wie abrufbar sein sollen. Bei der grauen Literatur muss für die Langzeitarchivierung das Problem ungeklärter Rechtslagen berücksichtigt werden. Eine nachträgliche Rechteklärung ist oft nicht mehr möglich, weil die Rechteinhaber nicht ermittelbar oder erreichbar sind. Hier war die Expertise der TIB für die Entwicklung eines geeigneten Vorgehens ebenfalls sehr hilfreich.

    Ausblick

    Die Umsetzung der digitalen Langzeitarchivierung bleibt eine spannende, wenn auch herausfordernde Aufgabe für alle beteiligten Einrichtungen. Die Bearbeitung der ersten Projektkohorte wird auch in den nächsten Monaten intensiv fortgeführt, während die zweite Kohorte bereits in den Startlöchern steht.

    Blogreihe „LiLA.NDS“
    Im Rahmen einer begleitenden Blogreihe werden wir regelmäßig über den Projektfortschritt Landesinitiative Langzeitarchivierung Niedersachsen (kurz LiLA) berichten. So erhalten Interessierte außerhalb des Projektkonsortiums Einblicke in die Arbeit von LiLA. In den kommenden Beiträgen stellen sich die beteiligten Einrichtungen vor, berichten über ihre zu archivierenden Bestände und erläutern, warum die digitale Langzeitarchivierung für sie von besonderer Bedeutung ist. Damit ist die Blogreihe eine wichtige Säule in der geplanten Wissensbasis, die es dem Projekt ermöglicht, Best Practices vorzustellen und Einblicke in die Umsetzungsphase zu geben.
    [1] Laakso, M., Matthias, L., & Jahn, N. (2021). Open is not forever: A study of vanished open access journals. Journal of the Association for Information Science and Technology, 72(9), 1099–1112. doi.org/10.1002/asi.24460

    #Bestandserhaltung #Digialisierung #Services #LiLANDS #LizenzCCBY40INT #DigitaleLangzeitarchivierung
  21. E-Pflicht, Kunstfilme und Veterinärmedizin: Einblicke in die digitale Langzeitarchivierung bei LiLA.NDS

    ein Beitrag von Markus Bierkoch (GWLB), Sven Grabenhorst (HBK), Sabine Leonhard-Marek (TiHo), Jesko Rücknagel (TIB) und Frauke Stiller (HBK).

    Nachdem bereits drei Einrichtungen der ersten Projektkohorte ihre Einrichtung und das Sammelprofil, die Motivation zur Beteilung an der Landesinitiative sowie ihre im Rahmen von LiLA.NDS zu bearbeitenden Bestände im letzten Blogpost vorstellen konnten, folgen nun drei weitere Einrichtungen des ersten Bearbeitungsjahres.

    Unterschiedliche Medien und Bestände werden gemeinsam mit der TIB auf ihre Datenqualität geprüft, strukturiert, und perspektivisch mit Hilfe entwickelter Workflows in das Langzeitarchiv der TIB transferiert.

    In den folgenden Kurzinterviews berichten Vertreter:innen der Gottfried Wilhelm Leibniz Bibliothek (GWLB) , der Hochschule für Bildende Künste Braunschweig sowie der Tierärztlichen Hochschule Hannover über die verantwortungsvolle Aufgabe, ihre digitalen Bestände langfristig zu sichern.

    Gottfried Wilhelm Leibniz Bibliothek

    Dr. Markus Bierkoch berichtet über die aktuellen Aufgaben, die die GWLB als Pflichtexemplarbibliothek für Niedersachsen übernimmt. Seit 2025 gelten zusätzlich auch elektronische Publikationen aus Niedersachsen als Pflichtexemplare. Neben der Erschließung und Bereitstellung muss die GWLB auch die dauerhafte Archivierung der Pflichtexemplare sicherstellen. Darüber hinaus verfügt die GWLB über einen stetig wachsenden Bestand an Retrodigitalisaten wie des digitalisierten Leibniz-Nachlasses, aber auch zahlreiche historische Karten und Zeitungausgaben. Auch für diese Sammlung besteht ein Bedarf an einer digitalen Langzeitarchivierungslösung. Dies beinhaltet die Umsetzung der digitalen Langzeitarchivierung für die elektronischen Amtsdruckschriften und Pflichtexemplare sowie verschiedener Retrodigitalisate wie des digitalisierten Leibniz-Nachlasses, historischer Karten und Zeitungen.

    Gemeinsam mit den Kolleg:innen Dr. Anne-Kathrin Henkel (stellvertretende Direktorin), Andreas Steinsieck (Abteilungsleitung Medienbearbeitung), Dr. Benedikt Tondera (Abteilungsleitung IT und Digitale Dienste), Manuela Schink (Sachbearbeitung E-Pflicht) und Olaf Guercke (Leiter der Stabsstelle Digitalisierung) beschäftigt sich Markus Bierkoch als Leiter des Sachgebiets Pflicht an der GWLB mit der Umsetzung der E-Pflicht im Rahmen einer zugeschnittenen IT-Lösung, die neben der Abgabe von elektronischen Pflichtexemplaren und deren automatisierte Verarbeitung auch die digitale Langzeitarchivierung umfasst.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek (GWLB) nimmt neben weiteren Aufgaben die Funktion der Pflichtexemplarbibliothek für Niedersachsen wahr. Sie hat den gesetzlichen Auftrag, Veröffentlichungen aus Niedersachsen sowie Publikationen mit Bezug zu Niedersachsen zu sammeln, bibliografisch zu erschließen, bereitzustellen und dauerhaft zu erhalten. Traditionell umfasste dies vor allem gedruckte Bücher, Zeitschriften und Zeitungen.

    Inzwischen entstehen jedoch große Teile der regionalen Literaturproduktion ausschließlich digital, etwa E-Books oder E-Journals. Dem trägt das seit 2025 geltende Niedersächsische Pflichtexemplargesetz (NPflExG) Rechnung, auf dessen Basis nun auch elektronische Veröffentlichungen Pflichtexemplare darstellen. Für die Umsetzung dieses Auftrags wird an der GWLB zurzeit die entsprechende IT-Infrastruktur entwickelt. Ein zentrales Element davon ist die digitale Langzeitarchivierung, um auch elektronische Publikationen dauerhaft zu erhalten.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Niedersächsisches Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz (Hrsg.), Waldzustandsbericht, Bd. 2025. CC BY 4.0

    Besonders wichtig ist für uns zum einen der bereits bestehende sowie der künftig noch zu sammelnde Bestand an elektronischen Amtsdruckschriften und Pflichtexemplaren. Gemäß unserem gesetzlichen Auftrag treffen wir beim Sammeln von Pflichtexemplaren keine inhaltliche Auswahl. Der Pflichtexemplarbestand bietet dementsprechend einen breiten Querschnitt des kulturellen und wissenschaftlichen Lebens in Niedersachsen. Die Erforschung dieses umfangreichen geistigen Erbes soll auch noch in Jahrhunderten gewährleistet sein.

    Darüber hinaus sind die zahlreichen Retrodigitalisate in unseren Digitalen Sammlungen von besonderer Bedeutung. Dazu zählt zum Beispiel der digitalisierte Nachlass von Leibniz, dessen Briefwechsel in das Weltdokumentenerbe aufgenommen wurde. Darüber hinaus hat die GWLB in den letzten Jahren aber auch zahlreiche historische Bücher, Handschriften und Karten sowie die bedeutende regionale Tageszeitung Hannoverscher Courier (1854 bis 1944) digitalisiert, welche für die landeskundliche Forschung einen hohen Wert besitzen. Dementsprechend muss auch für diesen digitalen Bestand eine dauerhafte Sicherungslösung gefunden werden.

    Brief von Joachim Bouvet an Gottfried Wilhelm Leibniz vom 19. September 1699 aus Peking (China), in: Briefwechsel Joachim Bouvet mit Gottfried Wilhelm Leibniz.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Motivation ergibt sich in erster Linie aus unserem gesetzlichen Auftrag, elektronische Pflichtexemplare dauerhaft aufzubewahren und zugänglich zu halten. Ein konkreter Auslöser war daher das Inkrafttreten des Niedersächsischen Pflichtexemplargesetzes (NPflExG). Das Gesetz macht deutlich, dass der um elektronische Pflichtexemplare erweiterte gesetzliche Sammelauftrag ohne digitale Langzeitarchivierung künftig nicht mehr erfüllbar wäre. Die Auseinandersetzung mit der digitalen Langzeitarchivierung ist daher weniger optional als vielmehr eine notwendige Weiterentwicklung unserer bibliothekarischen Kernaufgaben innerhalb eines sich mehr und mehr zum Digitalen hinwendenden Publikationsaufkommens.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Besonders wertvoll ist für uns zum einen die Unterstützung bei der Überführung historisch gewachsener digitaler Bestände in das digitale Langzeitarchivsystem. Unsere digitalen Bestände sind über die Jahre von verschiedenen Personen betreut sowie in verschiedenen technischen Systemen gepflegt worden. Außerdem haben sich über die Zeit hinweg entscheidende Rahmenbedingungen geändert zum Beispiel im Urheberrecht. Deshalb haben sich Inkonsistenzen bei Dateiformaten sowie Metadatenangaben eingeschlichen. Hierüber im fachlichen Austausch mit anderen Einrichtungen ein vertieftes Verständnis zu entwickeln und etwaige Datenbereinigungen zu planen, ist für uns von hoher Bedeutung.

    Zum anderen ist es im Projekt besonders wertvoll, eine IT-Lösung für unsere spezifischen Anforderungen als Pflichtexemplarbibliothek zu entwickeln. Die Anforderungen, die sich aus dem Sammeln elektronischer Pflichtexemplare ergeben, unterscheiden sich häufig von denen der großen Mehrheit der Hochschul- und Universitätsbibliotheken. Sehr hilfreich ist, dass das LiLA.NDS-Team auf diese besonderen Anforderungen eingeht und gemeinsam mit uns sowie unseren weiteren Kooperationspartnern – der Verbundzentrale Göttingen (VZG) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) – eine maßgeschneiderte Lösung plant und umsetzt.

    Hochschule für Bildende Künste Braunschweig

    Als nächstes blicken wir auf die Bibliothek der Hochschule für Bildende Künste Braunschweig (HBK). Im Rahmen des LiLA-Projekts befasst sich die HBK vor allem mit audiovisuellen Medien, die Performances, künstlerisches Schaffen und Reflektieren abbilden und wertvolle Forschungsobjekte für künstlerische Fächer darstellen. Dr. Frauke Stiller, die Bibliotheksleitung, und Sven Grabenhorst, zuständiger Mitarbeiter für die Video- und Filmbearbeitung, skizzieren für uns die Arbeit an der Videosammlung. Unterstützt von ihrem Kollegen Joachim Schulz (Systembibliothekar) arbeiten sie kontinuierlich daran, die Digitalisierung des VHS‑ und DVD-Bestands umzusetzen und die Inhalte ins LZA-System der TIB zu überführen, um sie dauerhaft für Forschung und Lehre zu sichern.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als Hochschulbibliothek besteht unser vordingliches Interesse in der Versorgung von Lehre und Forschung, der an der Hochschule gelehrten Fächer. Ein besonderer Schwerpunkt aber liegt in der Sammlung von Kunst der Gegenwart und der klassischen Moderne. In Bereichen also, in denen Performances, künstlerische Interventionen, künstlerische Arbeitsprozesse und das Reflektieren über Formen künstlerischen Arbeitens im Gespräch am besten auf zeitbasierten Medien wie Video abgebildet werden und glücklicherweise worden sind. Genau diese Videos können ein interessanter Forschungsgegenstand werden und ein Schatz sein.

    Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    In der Sammlung der Videos befinden sich viele Arbeitsergebnisse des künstlerischen Arbeitens an der HBK selbst. So zum Beispiel eine Kassette mit Ergebnissen des Kurses Videopraxis vom Anfang der 80-er Jahre. Diese Arbeiten heute vor ihrem historischen Hintergrund zu sehen, ist spannend. 

    Filmbild, Videopraxis 1983-1986, VC 165/83. © HBK Bibliothek

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

    Die Pläne einer Digitalisierung eines Teils unserer VHS-Bestände besteht schon länger. Um sie aber wieder allen berechtigten Nutzenden zugänglich zu machen, bedarf es eines Medienträgerwechsels. Die Anfrage aus der TIB zur Zusammenarbeit im Rahmen einer Langzeitarchivierung gab dann den Anstoß, das Projekt endlich anzugehen und um einen Teil des DVD-Bestandes zu erweitern. Die besondere Motivation liegt auch darin, die Werke unserer hauseigenen Künstler*Innen langfristig zu erhalten, um folgenden Generationen Inspirationsquelle und Forschungsobjekt zu sein.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Die Beratung durch das LiLA-Team, gerade in Bezug auf die vielen Kleinigkeiten und Probleme, die bei einem solchen Projekt auftreten, sind uns eine willkommene Unterstützung. Dies beinhaltet praktische Tipps bei der Erstellung von Workflows und Entscheidungen zu den Metadaten, genauso wie Hinweise zur rechtlichen Klärung. Wir freuen uns aber insbesondere auch über die ganz praktische und handfeste Unterstützung der Digitalisierung der DVDs selbst, wo die TIB mit ihrer Technik eine große Zeitersparnis für uns bedeutet. Dafür bedanken wir uns hier gern nochmal.

    Tierärztliche Hochschule Hannover

    Die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) verfügt über umfangreiche und teils seltene Bestände der Veterinärmedizin und betreibt zentrale Informationsdienste. Prof. Dr. Sabine Leonhard-Marek, die Leiterin der Hochschulbibliothek, spricht mit uns über die vielfältigen Bestände der TiHo – von den Digitalisaten historischer Monographien über Hochschulschriften bis hin zu seltenen Spezialbeständen sowie Kongressberichten – und die Motivation, diese langfristig zu bewahren. Unterstützt wird sie von ihrem Team Christina Gückel (stellvertretende Bibliotheksleiterin), Ngoc Anh Tran (Repositorium) und Sonja Hartinger (Hochschulschriften). Aufgrund der zunehmenden Digitalisierung der Forschung und der einhergehenden Verantwortung, digitale wissenschaftliche Publikationen dauerhaft verfügbar zu halten, bietet das Projekt die Möglichkeit verschiedene Herausforderungen zu adressieren.

    Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

    Als zentrale Einrichtung der Universität versorgt die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) Forschende und Studierende mit Fachinformationen aus der Veterinärmedizin und angrenzenden Fächern. Sie stellt die für Forschung, Studium und Lehre essenziellen Informationsinfrastrukturen für Recherche und Publikation bereit und sorgt durch die Beratung zum Thema Open Access und die Unterstützung bei Publikationsvorhaben für eine erhöhte Sichtbarkeit des Forschungsoutputs.

    Die Hochschulschriften (Dissertationen, PhD-Thesen und Habilitationen) werden an der TiHo seit Ende 2000 parallel zur Druckausgabe auch elektronisch veröffentlicht. Diese Veröffentlichungen wurden zunächst auf von der TiHo intern betriebenen Plattform bereitgestellt und sind 2019 in das auf MyCoRe basierende Repositorium „TiHo eLib“ umgezogen. Außer diesen Primärveröffentlichungen werden auch die von TiHo-Forschenden im Open Access publizierten Fachartikel in der „TiHo eLib“ als Zweitveröffentlichung aufgenommen. Das Repositorium fungiert darüber hinaus als Hochschulbibliographie und hat damit die vorher gedruckt oder als PDF bereitgestellte Bibliographie abgelöst.

    Perspektivisch sollen darüber hinaus die Digitalisate der „Digitalen Bibliothek Veterinärmedizin“ in das Repositorium umziehen. Im Rahmen eines von der Deutschen Forschungsgemeinschaft (DFG) geförderten Digitalisierungsprojekts wurden bis 2014 aus den Beständen der Bibliothek insgesamt 1.436 zwischen 1599 und 1890 erschienene Monographien digitalisiert, nachbearbeitet, katalogisiert, archiviert und als „Digitale Bibliothek“ frei suchbar und nutzbar gemacht.

    Landwirthschaftliches Tierracen-Album © Bibliothek der Tierärztlichen Hochschule Hannover

    Als ehemalige Sondersammelgebietsbibliothek für die Veterinärmedizin und die allgemeine Parasitologie verfügt die TiHo über fachlich seltene und einmalige Bestände, die langfristig erhalten werden sollen. Hierzu gehören nicht nur die oben beschriebenen Monographien, die über Digitalisate überregional nutzbar gemacht wurden, sondern auch Kongressberichte und andere graue Literatur, die nur in digitaler Form vorliegt und dies zum Teil auf elektronischen Trägermedien, deren Funktionalität endlich ist.

    Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen? Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

    Ludwig Daum: Ueber das Koppen der Pferde. © Bibliothek der Tierärztlichen Hochschule Hannover

    Der Forschungsoutput der Hochschule umfasst zunehmend genuin digitale Publikationen, so dass wir es im Rahmen der Bestandserhaltung als unsere Aufgabe ansehen, auch diesen digitalen Output als Bestand zu erhalten und ihn langfristig zu sichern. Zum Teil ist diese digitale Kopie eine zweite Kopie, da im Fall der Hochschulschriften über die Abgabe an die Deutsche Nationalbibliothek und im Fall der Artikel in Fachzeitschriften weitgehend über die jeweiligen Verlage die Archivierung einer weiteren Kopie zugesagt ist. Studien haben aber in der Vergangenheit gezeigt, dass nicht alle Artikel in wissenschaftlichen Zeitschriften durchgehend abrufbar sind (zum Beispiel Laakso et al. 2021). Da es sich um Forschungsleistungen der eigenen Hochschule handelt, liegt uns die dauerhafte Sicherung dieses Bestandes besonders am Herzen.

    Das Repositorium der TiHo wird vom Gemeinsamen Bibliotheksverbund (GBV) gehostet, so dass die Metadaten der Hochschulbibliographie über Backup und Bitstream-Preservation gesichert sind. Die zukünftige Lesbarkeit der hochgeladenen Volltexte ist damit jedoch nicht abgedeckt und muss separat geplant werden.

    Der aktuell für die Digitalisate genutzte Viewer ist in die Jahre gekommen und muss aktualisiert werden, so dass auch hier Handlungsbedarf bestand.

    Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

    Insgesamt sind die engmaschige Betreuung und die gemeinsame Arbeit an optimalen Workflows in diesem Projekt besonders hervorzuheben. Dabei birgt jeder Projektteil besondere Herausforderungen. So haben wir zu Beginn die Fragen diskutiert, welche Publikationen bereits wie langzeitarchiviert werden und wann eine Doppelarchivierung empfehlenswert wäre. Die Digitalisate liegen in verschiedenen Formaten vor (TIFF, PDF, xml, txt, und sind zum Teil mit OCR erfasst). Hier wird im Rahmen des Projektes erarbeitet, welche Formate wie gespeichert und wie abrufbar sein sollen. Bei der grauen Literatur muss für die Langzeitarchivierung das Problem ungeklärter Rechtslagen berücksichtigt werden. Eine nachträgliche Rechteklärung ist oft nicht mehr möglich, weil die Rechteinhaber nicht ermittelbar oder erreichbar sind. Hier war die Expertise der TIB für die Entwicklung eines geeigneten Vorgehens ebenfalls sehr hilfreich.

    Ausblick

    Die Umsetzung der digitalen Langzeitarchivierung bleibt eine spannende, wenn auch herausfordernde Aufgabe für alle beteiligten Einrichtungen. Die Bearbeitung der ersten Projektkohorte wird auch in den nächsten Monaten intensiv fortgeführt, während die zweite Kohorte bereits in den Startlöchern steht.

    Blogreihe „LiLA.NDS“
    Im Rahmen einer begleitenden Blogreihe werden wir regelmäßig über den Projektfortschritt Landesinitiative Langzeitarchivierung Niedersachsen (kurz LiLA) berichten. So erhalten Interessierte außerhalb des Projektkonsortiums Einblicke in die Arbeit von LiLA. In den kommenden Beiträgen stellen sich die beteiligten Einrichtungen vor, berichten über ihre zu archivierenden Bestände und erläutern, warum die digitale Langzeitarchivierung für sie von besonderer Bedeutung ist. Damit ist die Blogreihe eine wichtige Säule in der geplanten Wissensbasis, die es dem Projekt ermöglicht, Best Practices vorzustellen und Einblicke in die Umsetzungsphase zu geben.
    [1] Laakso, M., Matthias, L., & Jahn, N. (2021). Open is not forever: A study of vanished open access journals. Journal of the Association for Information Science and Technology, 72(9), 1099–1112. doi.org/10.1002/asi.24460

    #Services #LiLANDS #LizenzCCBY40INT #DigitaleLangzeitarchivierung #Bestandserhaltung #Digialisierung
  22. Students @ TIB: Theorie trifft Praxis – neue spannende Themen für Qualifizierungsarbeiten an der TIB

    Die TIB ist nicht nur Universitätsbibliothek, sondern auch Forschungseinrichtung mit fachlichen Schwerpunkten wie Data Science & Digital Libraries, Scientific Data Management, Visual Analytics, nicht-textuellen Materialien und Open Science. Studierende einschlägiger Fachbereiche haben die Möglichkeit, ihre Qualifikationsarbeiten oder Praktika mit direktem Bezug zu aktuellen Forschungsprojekten der TIB zu absolvieren. Die aktualisierte Seite Students @ TIB gibt einen strukturierten Überblick möglicher Themen, die TIB-Mitarbeiter:innen für Studierende dort eingestellt haben.

    Bei der Überarbeitung der Seite wurde sichergestellt, dass sie klar verständlich und gegliedert, auf mobilen Endgeräten nutzbar ist sowie aktuelle Themenvorschläge der TIB-Mitarbeiter:innen enthält. Außerdem wird die Seite fortan zweisprachig geführt: auf Deutsch und Englisch.

    Anlass der Überarbeitung war, dass das Joint Lab Future Libraries & Research Data, die Einrichtung an der Schnittstelle zwischen der TIB und der Hochschule Hannover (HsH) die Pflege der Seite übernommen hat. Auch wenn das Joint Lab primär die Schnittstelle zur HsH betreut, sind ausdrücklich auch Studierende der Leibniz Universität Hannover (LUH) und anderer Hochschulen und Universitäten eingeladen, das Angebot zu nutzen.

    Haus-, Bachelor-, Masterarbeit, Promotion oder ein Praktikum an der TIB

    Studierende, die eine Haus-, Bachelor-, Masterarbeit, Promotion oder ein Praktikum planen, können sich eines der beschriebenen Angebote aussuchen und die angegebenen Kontaktpersonen anschreiben. Neben den auf der Seite skizzierten Ideen sind auch eigene Themen willkommen. Ein Blick auf die Webseiten der Forschungsgruppen und Labs kann helfen, relevante Ansprechpersonen zu finden.

    Der Neustart der Seite fördert die bessere Vernetzung zwischen Hochschulen sowie zwischen Studierenden, Lehrenden und Forschenden. Die Mitarbeiterinnen des Joint Labs und die gesamte TIB freuen sich, wenn das Angebot (weiterhin) rege genutzt wird und auf diesem Wege interessante studentische Arbeiten entstehen. In der Vergangenheit haben sich so auch schon längerfristige Zusammenarbeiten ergeben.

    Ein Aufruf an TIB-Mitarbeiter:innen

    Mitarbeiter:innen der TIB, die eine Idee für eine Qualifikationsarbeit oder ein Praktikumsangebot haben, können diese jederzeit eigenständig auf der Students-@-TIB-Wiki-Seite eintragen. Das Template für Angebote ist am Seitenende zu finden. Bei Fragen können die Mitarbeiterinnen des Joint Labs kontaktiert werden.

    Kontakt

    Joint Lab Future Libraries & Research Data

    Dr. Nina Düvel, Hochschule Hannover: [email protected]

    Franziska Altemeier, TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek: [email protected]

    Joint Lab Future Libraries & Research Data

    #Studium #studentsTib #Abschlussarbeit #LizenzCCBY40INT #ForschungUndEntwicklung #Ausbildung #Themensammlung
  23. Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

    Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf Kompatibilität mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage für semantisch angereicherte Wissensinfrastrukturen dient.

    Über Semantic Wikibase

    Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug für Forschungsdatenmanagement ein. Mit über 1.500 Erweiterungen lässt sich dieses an die individuellen Anforderungen anpassen:

    • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
    • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
    • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

    Semantic Mediawiki vs. Wikibase

    Insbesondere Wikibase und Semantic Mediawiki werden häufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche Stärken und Schwächen:

    Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

    Semantic Mediawiki und Wikibase

    Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. Während strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafür, dass diese auch in Semantic Mediawiki für die Visualisierung in Wiki-Artikeln verfügbar sind. SWB dient also quasi als Brücke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

    Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der älteren Mediawiki Version 1.35 kompatibel, aber unterstützte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende Lücke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und Datenpräsentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und künftig als unser Content-Management-System zur Unterstützung von Forschungsprojekten zu verwenden.

    Case Studies

    Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp für Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

    Ende 2024 konnten wir im Rahmen des Projekts Herrenhäuser des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit über 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden Schwächen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die Unterstützung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende Unterstützung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfür die interdisziplinäre Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

    Die im Projekt entwickelten Best-Practices umfassten unter anderem:

    Warum MediaWiki 1.43 wichtig ist

    Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese Unterstützung war aber gemäß des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

    MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. Für viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, Stabilität und Zukunftsfähigkeit zu gewährleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

    Unsere größte Befürchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen würden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas Günther die entscheidende Grundlage für das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lässt, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. Sämtliche bisher unterstützten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

    Unterstützte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

    Ausblick

    Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein für nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage für kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet für unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

    • Fokussierung auf eine gemeinsame technologische Basis für alle Projekte
    • Bündelung von Wissen und Ressourcen
    • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
    • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
    • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

    Wir freuen uns auf die weitere Entwicklung und die vielfältigen kommenden Projekte mit Semantic Wikibase.

    Relevante Links

    #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase #WeLoveFreeSoftware #NFDI4Culture #SemanticWeb #linkedOpenData #semanticPublishing #SemanticKompakkt #SemanticMediawiki
  24. Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

    Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf Kompatibilität mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage für semantisch angereicherte Wissensinfrastrukturen dient.

    Über Semantic Wikibase

    Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug für Forschungsdatenmanagement ein. Mit über 1.500 Erweiterungen lässt sich dieses an die individuellen Anforderungen anpassen:

    • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
    • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
    • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

    Semantic Mediawiki vs. Wikibase

    Insbesondere Wikibase und Semantic Mediawiki werden häufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche Stärken und Schwächen:

    Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

    Semantic Mediawiki und Wikibase

    Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. Während strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafür, dass diese auch in Semantic Mediawiki für die Visualisierung in Wiki-Artikeln verfügbar sind. SWB dient also quasi als Brücke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

    Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der älteren Mediawiki Version 1.35 kompatibel, aber unterstützte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende Lücke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und Datenpräsentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und künftig als unser Content-Management-System zur Unterstützung von Forschungsprojekten zu verwenden.

    Case Studies

    Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp für Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

    Ende 2024 konnten wir im Rahmen des Projekts Herrenhäuser des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit über 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden Schwächen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die Unterstützung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende Unterstützung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfür die interdisziplinäre Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

    Die im Projekt entwickelten Best-Practices umfassten unter anderem:

    Warum MediaWiki 1.43 wichtig ist

    Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese Unterstützung war aber gemäß des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

    MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. Für viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, Stabilität und Zukunftsfähigkeit zu gewährleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

    Unsere größte Befürchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen würden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas Günther die entscheidende Grundlage für das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lässt, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. Sämtliche bisher unterstützten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

    Unterstützte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

    Ausblick

    Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein für nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage für kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet für unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

    • Fokussierung auf eine gemeinsame technologische Basis für alle Projekte
    • Bündelung von Wissen und Ressourcen
    • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
    • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
    • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

    Wir freuen uns auf die weitere Entwicklung und die vielfältigen kommenden Projekte mit Semantic Wikibase.

    Relevante Links

    #WeLoveFreeSoftware #NFDI4Culture #SemanticWeb #linkedOpenData #semanticPublishing #SemanticKompakkt #SemanticMediawiki #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase
  25. Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

    Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf Kompatibilität mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage für semantisch angereicherte Wissensinfrastrukturen dient.

    Über Semantic Wikibase

    Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug für Forschungsdatenmanagement ein. Mit über 1.500 Erweiterungen lässt sich dieses an die individuellen Anforderungen anpassen:

    • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
    • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
    • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

    Semantic Mediawiki vs. Wikibase

    Insbesondere Wikibase und Semantic Mediawiki werden häufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche Stärken und Schwächen:

    Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

    Semantic Mediawiki und Wikibase

    Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. Während strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafür, dass diese auch in Semantic Mediawiki für die Visualisierung in Wiki-Artikeln verfügbar sind. SWB dient also quasi als Brücke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

    Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der älteren Mediawiki Version 1.35 kompatibel, aber unterstützte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende Lücke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und Datenpräsentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und künftig als unser Content-Management-System zur Unterstützung von Forschungsprojekten zu verwenden.

    Case Studies

    Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp für Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

    Ende 2024 konnten wir im Rahmen des Projekts Herrenhäuser des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit über 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden Schwächen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die Unterstützung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende Unterstützung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfür die interdisziplinäre Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

    Die im Projekt entwickelten Best-Practices umfassten unter anderem:

    Warum MediaWiki 1.43 wichtig ist

    Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese Unterstützung war aber gemäß des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

    MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. Für viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, Stabilität und Zukunftsfähigkeit zu gewährleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

    Unsere größte Befürchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen würden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas Günther die entscheidende Grundlage für das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lässt, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. Sämtliche bisher unterstützten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

    Unterstützte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

    Ausblick

    Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein für nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage für kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet für unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

    • Fokussierung auf eine gemeinsame technologische Basis für alle Projekte
    • Bündelung von Wissen und Ressourcen
    • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
    • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
    • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

    Wir freuen uns auf die weitere Entwicklung und die vielfältigen kommenden Projekte mit Semantic Wikibase.

    Relevante Links

    #SemanticWeb #linkedOpenData #semanticPublishing #SemanticKompakkt #SemanticMediawiki #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase #WeLoveFreeSoftware #NFDI4Culture
  26. Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

    Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf Kompatibilität mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage für semantisch angereicherte Wissensinfrastrukturen dient.

    Über Semantic Wikibase

    Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug für Forschungsdatenmanagement ein. Mit über 1.500 Erweiterungen lässt sich dieses an die individuellen Anforderungen anpassen:

    • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
    • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
    • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

    Semantic Mediawiki vs. Wikibase

    Insbesondere Wikibase und Semantic Mediawiki werden häufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche Stärken und Schwächen:

    Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

    Semantic Mediawiki und Wikibase

    Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. Während strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafür, dass diese auch in Semantic Mediawiki für die Visualisierung in Wiki-Artikeln verfügbar sind. SWB dient also quasi als Brücke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

    Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der älteren Mediawiki Version 1.35 kompatibel, aber unterstützte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende Lücke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und Datenpräsentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und künftig als unser Content-Management-System zur Unterstützung von Forschungsprojekten zu verwenden.

    Case Studies

    Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp für Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

    Ende 2024 konnten wir im Rahmen des Projekts Herrenhäuser des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit über 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden Schwächen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die Unterstützung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende Unterstützung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfür die interdisziplinäre Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

    Die im Projekt entwickelten Best-Practices umfassten unter anderem:

    Warum MediaWiki 1.43 wichtig ist

    Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese Unterstützung war aber gemäß des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

    MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. Für viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, Stabilität und Zukunftsfähigkeit zu gewährleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

    Unsere größte Befürchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen würden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas Günther die entscheidende Grundlage für das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lässt, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. Sämtliche bisher unterstützten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

    Unterstützte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

    Ausblick

    Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein für nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage für kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet für unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

    • Fokussierung auf eine gemeinsame technologische Basis für alle Projekte
    • Bündelung von Wissen und Ressourcen
    • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
    • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
    • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

    Wir freuen uns auf die weitere Entwicklung und die vielfältigen kommenden Projekte mit Semantic Wikibase.

    Relevante Links

    #SemanticKompakkt #SemanticMediawiki #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase #WeLoveFreeSoftware #NFDI4Culture #SemanticWeb #linkedOpenData #semanticPublishing
  27. Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

    Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf Kompatibilität mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage für semantisch angereicherte Wissensinfrastrukturen dient.

    Über Semantic Wikibase

    Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug für Forschungsdatenmanagement ein. Mit über 1.500 Erweiterungen lässt sich dieses an die individuellen Anforderungen anpassen:

    • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
    • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
    • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

    Semantic Mediawiki vs. Wikibase

    Insbesondere Wikibase und Semantic Mediawiki werden häufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche Stärken und Schwächen:

    Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

    Semantic Mediawiki und Wikibase

    Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. Während strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafür, dass diese auch in Semantic Mediawiki für die Visualisierung in Wiki-Artikeln verfügbar sind. SWB dient also quasi als Brücke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

    Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der älteren Mediawiki Version 1.35 kompatibel, aber unterstützte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende Lücke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und Datenpräsentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und künftig als unser Content-Management-System zur Unterstützung von Forschungsprojekten zu verwenden.

    Case Studies

    Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp für Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

    Ende 2024 konnten wir im Rahmen des Projekts Herrenhäuser des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit über 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden Schwächen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die Unterstützung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende Unterstützung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfür die interdisziplinäre Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

    Die im Projekt entwickelten Best-Practices umfassten unter anderem:

    Warum MediaWiki 1.43 wichtig ist

    Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese Unterstützung war aber gemäß des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

    MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. Für viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, Stabilität und Zukunftsfähigkeit zu gewährleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

    Unsere größte Befürchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen würden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas Günther die entscheidende Grundlage für das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lässt, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. Sämtliche bisher unterstützten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

    Unterstützte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

    Ausblick

    Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein für nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage für kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet für unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

    • Fokussierung auf eine gemeinsame technologische Basis für alle Projekte
    • Bündelung von Wissen und Ressourcen
    • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
    • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
    • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

    Wir freuen uns auf die weitere Entwicklung und die vielfältigen kommenden Projekte mit Semantic Wikibase.

    Relevante Links

    #SemanticWeb #linkedOpenData #semanticPublishing #SemanticKompakkt #SemanticMediawiki #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase #WeLoveFreeSoftware #NFDI4Culture
  28. Women in Science: Dr Esther Tobschall

    diesen Beitrag auf Deutsch lesen

    The blog series “Women in Science” introduces women from the TIB who give insights into their careers and personal experiences in science. Dr Esther Tobschall studied chemistry at the University of Hannover and conducted research for her PhD thesis on NMR, impedance and infrared spectroscopy of nanocrystalline and glassy lithium metaborate (LiBO₂) as part of a solid-state physics project. Today, she is the subject specialist for physics at the TIB, where she is primarily responsible for providing information to physicists. In this interview, she talks about the encouragement to ask questions, her own self-image and the joy of research.

    Dr Esther Tobschall // Photo: TIB/C. Bierwagen

    What fascinates you about working in science?

    What particularly appealed to me about academic work was that I was able to immerse myself in a subject in all its aspects and explore it in depth. When I was working on my PhD thesis on nanocrystalline substances, research on nanocrystals was a relatively new field, and we were able to experiment with which measurement methods were best suited for understanding and characterising the nature and properties of these substances.

    I especially enjoyed evaluating and comparing the results from different measurement methods, which is why my colleagues then built me a universal spectrometer as a graduation gift (today, astronomers would call it multi-messenger approach.)

    It was also during this time that I discovered my interest in profound literature reviews, researching and evaluating relevant papers, and synthesising the findings. That is why, quite early on during my PhD, I envisaged a career path as subject librarian.

    As a woman in science, what would you have liked to have known earlier?

    I would have needed more encouragement: the encouragement to realise that I am allowed to ask questions not only regarding the material or literature I am studying, but also to experienced researchers. At the time, I saw my reticence more as a personality trait and did not attribute it to role models. Today, however, I would say that the greater self-confidence of my predominantly male colleagues came from the fact that men have, for generations, naturally had a place in the academic world and communication generally took place amongst men, whilst we few young women in physical chemistry were, in a way, still seen as somewhat exotic. I must emphasise that there was no obvious or covert discrimination; the factor was simply that it was a given.

    This assumption is still enshrined today in the German rules for subject heading cataloguing (RSWK): I get frustrated every time I have to assign the subject heading “Physiker” (meaning the masculine form of physicist) to works about male and female physicists. The subject heading “Physikerin” (standing for “female physicist”), on the other hand, is reserved for works that deal explicitly with women in physics, according to the rules. By the way: What about works that deal exclusively with men in physics? Whenever it is reasonably justifiable, I naturally assign both terms!

    What advice would you give to girls and young women who are considering a career in science?

    It is your inherent right to be part of the scientific community. Never question that, even in difficult circumstances. I am delighted that there are now infinitely more female professors in physics than there were during my active research career, and that they are setting an example through their work and as a role model. You are only truly good at what brings you joy, and if scientific work inspires you, you will – despite any potential adversity – excel and succeed in it. Follow your passion!

    A wish for the future of women and girls in science …

    I was the first pregnant researcher at our institute; I submitted my doctoral thesis shortly before the birth of our daughter and defended it a few months later. So, I hope that, in future, for female researchers, motherhood will not be associated with so much extra effort and the need for such strong assertiveness as is apparently still the case in academia today, and which can thus become a career killer. It is interesting to note that male researchers in senior positions are often fathers too, whereas, according to my observations, motherhood is still less common among female researchers. The fact that balancing work and family life is still far too often seen as a women’s issue rather than a parents’ issue is certainly a general societal problem, but our publicly funded academic structure in particular has the potential to shift the focus here from an “either-or” to a “both-and”. As I stated when I was asked about my daughter and my responsibilities as a mother in the course of a job interview: “The child has a father too!”

    Women in science – a blog series

    The blog series “Women in Science” introduces women at TIB who provide insights into their scientific careers, role models and experiences from their everyday working lives. They all share their perspectives and wishes for the future of science and encourage other women to take their place with confidence.

    #LizenzCCBY40INT #Physics #WomenInScience #WomenAtTIB #subjectSpecialist
  29. Frauen in der Wissenschaft: Dr. Esther Tobschall

    read this article in English

    Die Blogreihe „Frauen in der Wissenschaft“ stellt Frauen aus der TIB vor, die Einblicke in ihre Wege und ihre persönlichen Erfahrungen in der Wissenschaft geben. Dr. Esther Tobschall studierte Chemie an der Universität Hannover und forschte für ihre Dissertation zur NMR-, Impedanz- und Infrarot-Spektroskopie an nanokristallinem und glasigem Lithiummetaborat LiBO2 an einem festkörperphysikalischen Thema. Heute ist sie Fachreferentin für Physik an der TIB und ist dort vor allem für die Informationsversorgung von Physiker:innen verantwortlich. Im Interview spricht sie über die Ermutigung, Fragen zu stellen, das eigene Selbstverständnis und die Freude an der Forschung.

    Dr. Esther Tobschall // Foto: TIB/C. Bierwagen

    Was fasziniert dich an der Arbeit in der Wissenschaft?

    Besonders gereizt hat mich an der wissenschaftlichen Arbeit, dass ich mich in ein Thema mit all seinen Aspekten einarbeiten und dabei in die Tiefe gehen durfte. Als ich mich für meine Dissertation mit nanokristallinen Substanzen beschäftigt habe, war die Forschung an Nanokristallen ein relativ neues Gebiet und wir konnten ausprobieren, mit welchen Messmethoden sich Wesen und Eigenschaften dieser Substanzen am besten erfassen und charakterisieren lassen.

    Das Auswerten und Vergleichen der Messergebnisse unterschiedlicher Verfahren hat mir besonders viel Freude gemacht, weshalb mir meine Kolleg:innen dann auch ein Universalspektrometer für meinem Doktorhut gebastelt haben (in der Astronomie nennt man das heute Multi-Messenger-Beobachtung).

    Auch mein Interesse an umfassender Literaturarbeit, den Recherchen und der Auswertung relevanter Paper sowie das Zusammenführen der Erkenntnisse, habe ich dabei entdeckt. Deshalb habe ich mir schon früh während meiner Promotionszeit den Weg ins Fachreferat an einer wissenschaftlichen Bibliothek als berufliche Perspektive vorgestellt.

    Was hättest du als Frau in der Wissenschaft gerne früher gewusst?

    Ich hätte mehr Ermutigung gebraucht: Die Ermutigung, dass ich Fragen nicht nur an mein zu untersuchendes Material oder Literatur stellen darf, sondern auch an erfahrene Forschende. Damals habe ich meine Zurückhaltung eher als Persönlichkeitsmerkmal gesehen und sie nicht auf Rollenmodelle zurückgeführt. Heute würde ich doch sagen, dass sich das größere Selbstbewusstsein meiner überwiegend männlichen Kollegen daraus gespeist hat, dass Männer seit Generationen selbstverständlich einen Platz im Wissenschaftsbetrieb hatten und Kommunikation in der Regel unter Männern stattfand, während wir wenigen jungen Frauen in der Physikalischen Chemie doch irgendwie noch Exotinnen waren. Ich muss betonen, dass es keine offene oder verdeckte Diskriminierung gab, der Faktor war schlichtweg die Selbstverständlichkeit.

    Dieses Selbstverständnis ist auch heute noch in den Regeln für die Schlagwortkatalogisierung (RSWK) verankert: Ich ärgere mich jedes Mal, wenn ich regelkonform das Schlagwort „Physiker“ für Werke über Physiker und Physikerinnen vergeben muss. Das Schlagwort „Physikerin“ dagegen ist den Werken vorbehalten, die sich explizit mit Frauen in der Physik beschäftigen – was ist eigentlich mit Werken, die sich ausschließlich mit Männern in der Physik befassen? Immer dann, wenn es sich halbwegs vertreten lässt, vergebe ich natürlich beide Begriffe!

    Welchen Rat würdest du Mädchen und jungen Frauen geben, die eine wissenschaftliche Laufbahn anstreben?

    Es ist euer selbstverständliches Recht, Teil des Wissenschaftsbetriebes zu sein. Stellt das auch bei widrigen Bedingungen nie in Frage. Ich freue mich, dass es inzwischen in der Physik (auch mathematisch gesehen) unendlich mehr Professorinnen gibt, als zu meiner aktiven Zeit in der Forschung und diese mit ihrer Arbeit und ihrem Auftreten zum Vorbild werden. Ihr seid nur wirklich gut in dem, was euch Freude macht und wenn euch wissenschaftliches Arbeiten begeistert, werdet ihr – allen eventuellen Widrigkeiten zum Trotz – darin gut und erfolgreich sein. Folgt eurer Freude!

    Ein Wunsch für die Zukunft von Frauen und Mädchen in der Wissenschaft …

    Ich war die erste schwangere Forscherin an unserem Institut, habe meine Dissertation kurz vor der Geburt unserer Tochter eingereicht und die Prüfung wenige Monate danach absolviert. Ich wünsche mir also, dass für Wissenschaftlerinnen das Muttersein in Zukunft nicht mit so viel zusätzlichen Anstrengungen und starkem Durchsetzungsvermögen verbunden ist, wie es heute offenbar im Wissenschaftsbetrieb immer noch der Fall ist und damit zum Karrierekiller werden kann.

    Interessant ist ja, dass forschende Männer in höheren Positionen häufig auch Väter sind, während bei forschenden Frauen Mutterschaft meinen Beobachtungen nach doch noch seltener ist. Dass die Vereinbarkeit von Beruf und Familie noch viel zu häufig als Thema von Frauen gesehen wird und nicht als Thema von Eltern, ist zwar ein allgemeines gesellschaftliches Problem, aber gerade unsere öffentlich geförderte Wissenschaftsstruktur hat das Potential, hier etwas vom Entweder-oder hin zum Sowohl-als-auch zu ändern. Wie stellte ich in einem Bewerbungsgespräch fest, als ich nach meiner Tochter und meinen Verpflichtungen als Mutter gefragt wurde: „Das Kind hat auch einen Vater!“

    Frauen in der Wissenschaft – eine Blogreihe

    In der Blogreihe „Frauen in der Wissenschaft“ werden Frauen an der TIB vorgestellt, die Einblicke in ihre wissenschaftlichen Wege, Rollenbilder und ihre Erfahrungen aus dem Arbeitsalltag geben. Sie alle teilen ihre Perspektive und ihre Wünsche für die Zukunft der Wissenschaft und ermutigen andere Frauen, ihren Platz selbstbewusst einzunehmen.

    #FrauenAnDerTIB #FrauenInDerWissenschaft #LizenzCCBY40INT #Physik #Fachreferat
  30. Bessere KI-Antworten – auch ohne Hochleistungsrechner

    KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

    Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwändig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

    Ausgangslage

    Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

    Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

    Um eine hohe Qualität der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

    Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

    Anforderungen

    Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

    Forscher/Innen

    Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

    Daten

    Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

    Endnutzer/Innen

    Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

    Infrastruktur

    Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur Ausführung von KI-Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

    Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

    • Anpassung auf die verwendeten Daten
    • vollautomatische Optimierung
    • keine technischen Vorkenntnisse nötig
    • Test-Datensatz wird generiert
    • User-Persona-Profile berücksichtigen
    • möglichst effizient, mit geringem Ressourcenbedarf

    Methodik

    Daten

    Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

    Um die Qualität der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie zum Beispiel für On-Device-Anwendungsfälle entwickelt wurde.

    LLM-Prompt

    Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

    Parameter

    In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um später schnell und effizient relevante Inhalte zu finden.

    Information Extraction und Indizierung von Daten in einem RAG-Prozess

    Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

    • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen?
    • Chunk_Overlap: Wie stark überlappen sich die Informationsabschnitte?
    • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
    • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

    Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

    Information Retrieval in einem RAG Prozess

    Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

    Optimierungsverfahren

    Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

    Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
    Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

    Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

    Technische Umsetzung

    Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

    • Wikibase4Research
    • einer Docker-basierten Python-API
    • dem RAG-Framework LlamaIndex
    • lokaler Modellbereitstellung über Ollama

    Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

    Ergebnisse

    Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

    Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

    Warum ist das relevant?

    Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

    Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

    Ausblick

    Die für die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

    Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

    Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

    Prof. Dr. Ina Blümel, Open Science Lab // Foto: TIB/C. Bierwagen

    „AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

    Relevante Links

    #SemanticMediawiki #FIDMaterialsScience #LizenzCCBY40INT #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove
  31. Bessere KI-Antworten – auch ohne Hochleistungsrechner

    KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

    Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwändig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

    Ausgangslage

    Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

    Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

    Um eine hohe Qualität der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

    Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

    Anforderungen

    Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

    Forscher/Innen

    Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

    Daten

    Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

    Endnutzer/Innen

    Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

    Infrastruktur

    Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur Ausführung von KI-Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

    Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

    • Anpassung auf die verwendeten Daten
    • vollautomatische Optimierung
    • keine technischen Vorkenntnisse nötig
    • Test-Datensatz wird generiert
    • User-Persona-Profile berücksichtigen
    • möglichst effizient, mit geringem Ressourcenbedarf

    Methodik

    Daten

    Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

    Um die Qualität der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie zum Beispiel für On-Device-Anwendungsfälle entwickelt wurde.

    LLM-Prompt

    Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

    Parameter

    In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um später schnell und effizient relevante Inhalte zu finden.

    Information Extraction und Indizierung von Daten in einem RAG-Prozess

    Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

    • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen?
    • Chunk_Overlap: Wie stark überlappen sich die Informationsabschnitte?
    • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
    • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

    Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

    Information Retrieval in einem RAG Prozess

    Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

    Optimierungsverfahren

    Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

    Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
    Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

    Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

    Technische Umsetzung

    Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

    • Wikibase4Research
    • einer Docker-basierten Python-API
    • dem RAG-Framework LlamaIndex
    • lokaler Modellbereitstellung über Ollama

    Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

    Ergebnisse

    Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

    Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

    Warum ist das relevant?

    Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

    Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

    Ausblick

    Die für die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

    Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

    Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

    Prof. Dr. Ina Blümel, Open Science Lab // Foto: TIB/C. Bierwagen

    „AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

    Relevante Links

    #SemanticMediawiki #FIDMaterialsScience #LizenzCCBY40INT #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove
  32. Bessere KI-Antworten – auch ohne Hochleistungsrechner

    KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

    Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwändig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

    Ausgangslage

    Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

    Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

    Um eine hohe Qualität der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

    Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

    Anforderungen

    Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

    Forscher/Innen

    Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

    Daten

    Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

    Endnutzer/Innen

    Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

    Infrastruktur

    Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur Ausführung von KI-Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

    Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

    • Anpassung auf die verwendeten Daten
    • vollautomatische Optimierung
    • keine technischen Vorkenntnisse nötig
    • Test-Datensatz wird generiert
    • User-Persona-Profile berücksichtigen
    • möglichst effizient, mit geringem Ressourcenbedarf

    Methodik

    Daten

    Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

    Um die Qualität der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie zum Beispiel für On-Device-Anwendungsfälle entwickelt wurde.

    LLM-Prompt

    Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

    Parameter

    In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um später schnell und effizient relevante Inhalte zu finden.

    Information Extraction und Indizierung von Daten in einem RAG-Prozess

    Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

    • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen?
    • Chunk_Overlap: Wie stark überlappen sich die Informationsabschnitte?
    • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
    • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

    Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

    Information Retrieval in einem RAG Prozess

    Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

    Optimierungsverfahren

    Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

    Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
    Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

    Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

    Technische Umsetzung

    Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

    • Wikibase4Research
    • einer Docker-basierten Python-API
    • dem RAG-Framework LlamaIndex
    • lokaler Modellbereitstellung über Ollama

    Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

    Ergebnisse

    Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

    Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

    Warum ist das relevant?

    Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

    Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

    Ausblick

    Die für die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

    Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

    Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

    Prof. Dr. Ina Blümel, Open Science Lab // Foto: TIB/C. Bierwagen

    „AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

    Relevante Links

    #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove #SemanticMediawiki #FIDMaterialsScience #LizenzCCBY40INT
  33. Bessere KI-Antworten – auch ohne Hochleistungsrechner

    KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

    Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwändig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

    Ausgangslage

    Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

    Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

    Um eine hohe Qualität der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

    Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

    Anforderungen

    Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

    Forscher/Innen

    Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

    Daten

    Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

    Endnutzer/Innen

    Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

    Infrastruktur

    Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur Ausführung von KI-Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

    Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

    • Anpassung auf die verwendeten Daten
    • vollautomatische Optimierung
    • keine technischen Vorkenntnisse nötig
    • Test-Datensatz wird generiert
    • User-Persona-Profile berücksichtigen
    • möglichst effizient, mit geringem Ressourcenbedarf

    Methodik

    Daten

    Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

    Um die Qualität der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie zum Beispiel für On-Device-Anwendungsfälle entwickelt wurde.

    LLM-Prompt

    Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

    Parameter

    In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um später schnell und effizient relevante Inhalte zu finden.

    Information Extraction und Indizierung von Daten in einem RAG-Prozess

    Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

    • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen?
    • Chunk_Overlap: Wie stark überlappen sich die Informationsabschnitte?
    • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
    • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

    Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

    Information Retrieval in einem RAG Prozess

    Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

    Optimierungsverfahren

    Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

    Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
    Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

    Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

    Technische Umsetzung

    Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

    • Wikibase4Research
    • einer Docker-basierten Python-API
    • dem RAG-Framework LlamaIndex
    • lokaler Modellbereitstellung über Ollama

    Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

    Ergebnisse

    Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

    Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

    Warum ist das relevant?

    Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

    Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

    Ausblick

    Die für die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

    Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

    Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

    Prof. Dr. Ina Blümel, Open Science Lab // Foto: TIB/C. Bierwagen

    „AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

    Relevante Links

    #FIDMove #SemanticMediawiki #FIDMaterialsScience #LizenzCCBY40INT #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID
  34. Bessere KI-Antworten – auch ohne Hochleistungsrechner

    KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

    Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwändig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

    Ausgangslage

    Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

    Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

    Um eine hohe Qualität der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

    Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

    Anforderungen

    Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

    Forscher/Innen

    Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

    Daten

    Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

    Endnutzer/Innen

    Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

    Infrastruktur

    Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur Ausführung von KI-Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

    Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

    • Anpassung auf die verwendeten Daten
    • vollautomatische Optimierung
    • keine technischen Vorkenntnisse nötig
    • Test-Datensatz wird generiert
    • User-Persona-Profile berücksichtigen
    • möglichst effizient, mit geringem Ressourcenbedarf

    Methodik

    Daten

    Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

    Um die Qualität der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie zum Beispiel für On-Device-Anwendungsfälle entwickelt wurde.

    LLM-Prompt

    Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

    Parameter

    In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um später schnell und effizient relevante Inhalte zu finden.

    Information Extraction und Indizierung von Daten in einem RAG-Prozess

    Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

    • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen?
    • Chunk_Overlap: Wie stark überlappen sich die Informationsabschnitte?
    • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
    • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

    Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

    Information Retrieval in einem RAG Prozess

    Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

    Optimierungsverfahren

    Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

    Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
    Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

    Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

    Technische Umsetzung

    Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

    • Wikibase4Research
    • einer Docker-basierten Python-API
    • dem RAG-Framework LlamaIndex
    • lokaler Modellbereitstellung über Ollama

    Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

    Ergebnisse

    Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

    Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

    Warum ist das relevant?

    Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

    Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

    Ausblick

    Die für die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

    Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

    Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

    Prof. Dr. Ina Blümel, Open Science Lab // Foto: TIB/C. Bierwagen

    „AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

    Relevante Links

    #LizenzCCBY40INT #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove #SemanticMediawiki #FIDMaterialsScience
  35. Wasser – immer schon ein Thema

    Der 22. März ist seit 1993 der Weltwassertag und wurde 1992 von der UN-Generalversammlung beschlossen. Seit 2003 wird der Weltwassertag von der UN-Wasser organisiert und wird unter ein bestimmtes Motto gestellt. Zu diesem Anlass haben wir uns in der Retrodigitalisierung Werke zum Thema Wasser herausgesucht.

    Wasser ist für unser Leben unverzichtbar und sehr wertvoll. Die besonderen Eigenschaften von Wasser spielen auch in den Bereichen der Technik, Physik, Chemie oder Biologie, die auch zu den Sammelgebieten der TIB gehören, eine große Rolle. Egal ob im flüssigen Zustand als Wasser, gefroren als Eis oder als gasförmigen Wasserdampf: Wasser zeigt sich in allen Lebensbereichen und in der Wissenschaft. Das Thema Wasser findet sich auch im Altbestand der TIB und zeigt, dass Wasser schon in der Vergangenheit ein wichtiges Thema war.

    Als technische Bibliothek haben wir zum Beispiel einige Werke im Bereich des Bauwesens. Wassermühlen waren besonders beliebt, aber auch andere Bauwerke, die im Zusammenhang mit Wasser stehen. Wir haben eine kleine Auswahl an digitalisierten Werken zusammengestellt:

    • Theorie und Bau der Wasser-Räder (1858)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1856)
    • Der Wasser-Mahlmühlenbau, oder Anleitung zur richtigen Konstruktion sämmtlicher beim Mühlenbau vorkommenden Räder und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1865)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Hauptband) (1856)
    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibenden Mühlewerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1. Band + 2. Band) (1840)

     

    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibender Mühlenwerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1.Band, 2. Band, Atlas) (1832)
    • Worinnen enthalten: die Weise, wie der Grund der Schleußen in einem schlechten Erdboden zu legen ist. Beyspiel dessen an der ehemaligen Schleuße im Bassin zu Dünkirchen. Beschreibung mittelmäßiger Schleußen, das Wasser zum Vortheil eines See-Hafens zu dirigiren. Bau der hölzernen Schleußenböden. Vom rechten Gebrauch der Spundpfähle. Von Anlage der Roste zu den Schleußenböden. Von dem dazu gehörigen Eisenwert. (Zweyter Theil, Dritte Ausgabe der Version) (1767)
    • Enthaltend: eine umständliche Beschreibung der Maschinen zu Vertiefung der Seehäven. Von Gründung im Meere, durch eingesenkte große Steine: durch Kästen, welche mit trockenem Mauerwerke angefüllet und ins Meer gesenket werden: durch über einander gelegte prismatische Kisten. Von denen für Seehäven gehörigen Gebäuden, insonderheit von den Schiffs-Docken. Wie man sich der fließenden Wasser bey Belagerungen und im Felde nützlich bedienen kann. (Zweyter Theil, Neunte Ausgabe der Version) (1770)
    • Beyträge zur Wasser-, Brücken- und Straßenbaukunde oder wissenschaftliche Darstellung der in den neuesten Zeiten ausgeführten oder in der Anlage begriffenen Bauwerke und Beschreibungen der vorzüglichsten Maschinen (1.–6. Heft) (1808–1812)

     

    #LizenzCCBY40INT #Digitalisierung #Retrodigitalisierung #Technik #Bauwesen
  36. Wasser – immer schon ein Thema

    Der 22. März ist seit 1993 der Weltwassertag und wurde 1992 von der UN-Generalversammlung beschlossen. Seit 2003 wird der Weltwassertag von der UN-Wasser organisiert und wird unter ein bestimmtes Motto gestellt. Zu diesem Anlass haben wir uns in der Retrodigitalisierung Werke zum Thema Wasser herausgesucht.

    Wasser ist für unser Leben unverzichtbar und sehr wertvoll. Die besonderen Eigenschaften von Wasser spielen auch in den Bereichen der Technik, Physik, Chemie oder Biologie, die auch zu den Sammelgebieten der TIB gehören, eine große Rolle. Egal ob im flüssigen Zustand als Wasser, gefroren als Eis oder als gasförmigen Wasserdampf: Wasser zeigt sich in allen Lebensbereichen und in der Wissenschaft. Das Thema Wasser findet sich auch im Altbestand der TIB und zeigt, dass Wasser schon in der Vergangenheit ein wichtiges Thema war.

    Als technische Bibliothek haben wir zum Beispiel einige Werke im Bereich des Bauwesens. Wassermühlen waren besonders beliebt, aber auch andere Bauwerke, die im Zusammenhang mit Wasser stehen. Wir haben eine kleine Auswahl an digitalisierten Werken zusammengestellt:

    • Theorie und Bau der Wasser-Räder (1858)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1856)
    • Der Wasser-Mahlmühlenbau, oder Anleitung zur richtigen Konstruktion sämmtlicher beim Mühlenbau vorkommenden Räder und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1865)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Hauptband) (1856)
    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibenden Mühlewerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1. Band + 2. Band) (1840)

     

    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibender Mühlenwerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1.Band, 2. Band, Atlas) (1832)
    • Worinnen enthalten: die Weise, wie der Grund der Schleußen in einem schlechten Erdboden zu legen ist. Beyspiel dessen an der ehemaligen Schleuße im Bassin zu Dünkirchen. Beschreibung mittelmäßiger Schleußen, das Wasser zum Vortheil eines See-Hafens zu dirigiren. Bau der hölzernen Schleußenböden. Vom rechten Gebrauch der Spundpfähle. Von Anlage der Roste zu den Schleußenböden. Von dem dazu gehörigen Eisenwert. (Zweyter Theil, Dritte Ausgabe der Version) (1767)
    • Enthaltend: eine umständliche Beschreibung der Maschinen zu Vertiefung der Seehäven. Von Gründung im Meere, durch eingesenkte große Steine: durch Kästen, welche mit trockenem Mauerwerke angefüllet und ins Meer gesenket werden: durch über einander gelegte prismatische Kisten. Von denen für Seehäven gehörigen Gebäuden, insonderheit von den Schiffs-Docken. Wie man sich der fließenden Wasser bey Belagerungen und im Felde nützlich bedienen kann. (Zweyter Theil, Neunte Ausgabe der Version) (1770)
    • Beyträge zur Wasser-, Brücken- und Straßenbaukunde oder wissenschaftliche Darstellung der in den neuesten Zeiten ausgeführten oder in der Anlage begriffenen Bauwerke und Beschreibungen der vorzüglichsten Maschinen (1.–6. Heft) (1808–1812)

     

    #Digitalisierung #Retrodigitalisierung #Technik #Bauwesen #LizenzCCBY40INT
  37. Wasser – immer schon ein Thema

    Der 22. März ist seit 1993 der Weltwassertag und wurde 1992 von der UN-Generalversammlung beschlossen. Seit 2003 wird der Weltwassertag von der UN-Wasser organisiert und wird unter ein bestimmtes Motto gestellt. Zu diesem Anlass haben wir uns in der Retrodigitalisierung Werke zum Thema Wasser herausgesucht.

    Wasser ist für unser Leben unverzichtbar und sehr wertvoll. Die besonderen Eigenschaften von Wasser spielen auch in den Bereichen der Technik, Physik, Chemie oder Biologie, die auch zu den Sammelgebieten der TIB gehören, eine große Rolle. Egal ob im flüssigen Zustand als Wasser, gefroren als Eis oder als gasförmigen Wasserdampf: Wasser zeigt sich in allen Lebensbereichen und in der Wissenschaft. Das Thema Wasser findet sich auch im Altbestand der TIB und zeigt, dass Wasser schon in der Vergangenheit ein wichtiges Thema war.

    Als technische Bibliothek haben wir zum Beispiel einige Werke im Bereich des Bauwesens. Wassermühlen waren besonders beliebt, aber auch andere Bauwerke, die im Zusammenhang mit Wasser stehen. Wir haben eine kleine Auswahl an digitalisierten Werken zusammengestellt:

    • Theorie und Bau der Wasser-Räder (1858)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1856)
    • Der Wasser-Mahlmühlenbau, oder Anleitung zur richtigen Konstruktion sämmtlicher beim Mühlenbau vorkommenden Räder und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1865)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Hauptband) (1856)
    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibenden Mühlewerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1. Band + 2. Band) (1840)

     

    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibender Mühlenwerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1.Band, 2. Band, Atlas) (1832)
    • Worinnen enthalten: die Weise, wie der Grund der Schleußen in einem schlechten Erdboden zu legen ist. Beyspiel dessen an der ehemaligen Schleuße im Bassin zu Dünkirchen. Beschreibung mittelmäßiger Schleußen, das Wasser zum Vortheil eines See-Hafens zu dirigiren. Bau der hölzernen Schleußenböden. Vom rechten Gebrauch der Spundpfähle. Von Anlage der Roste zu den Schleußenböden. Von dem dazu gehörigen Eisenwert. (Zweyter Theil, Dritte Ausgabe der Version) (1767)
    • Enthaltend: eine umständliche Beschreibung der Maschinen zu Vertiefung der Seehäven. Von Gründung im Meere, durch eingesenkte große Steine: durch Kästen, welche mit trockenem Mauerwerke angefüllet und ins Meer gesenket werden: durch über einander gelegte prismatische Kisten. Von denen für Seehäven gehörigen Gebäuden, insonderheit von den Schiffs-Docken. Wie man sich der fließenden Wasser bey Belagerungen und im Felde nützlich bedienen kann. (Zweyter Theil, Neunte Ausgabe der Version) (1770)
    • Beyträge zur Wasser-, Brücken- und Straßenbaukunde oder wissenschaftliche Darstellung der in den neuesten Zeiten ausgeführten oder in der Anlage begriffenen Bauwerke und Beschreibungen der vorzüglichsten Maschinen (1.–6. Heft) (1808–1812)

     

    #LizenzCCBY40INT #Digitalisierung #Retrodigitalisierung #Technik #Bauwesen
  38. Wasser – immer schon ein Thema

    Der 22. März ist seit 1993 der Weltwassertag und wurde 1992 von der UN-Generalversammlung beschlossen. Seit 2003 wird der Weltwassertag von der UN-Wasser organisiert und wird unter ein bestimmtes Motto gestellt. Zu diesem Anlass haben wir uns in der Retrodigitalisierung Werke zum Thema Wasser herausgesucht.

    Wasser ist für unser Leben unverzichtbar und sehr wertvoll. Die besonderen Eigenschaften von Wasser spielen auch in den Bereichen der Technik, Physik, Chemie oder Biologie, die auch zu den Sammelgebieten der TIB gehören, eine große Rolle. Egal ob im flüssigen Zustand als Wasser, gefroren als Eis oder als gasförmigen Wasserdampf: Wasser zeigt sich in allen Lebensbereichen und in der Wissenschaft. Das Thema Wasser findet sich auch im Altbestand der TIB und zeigt, dass Wasser schon in der Vergangenheit ein wichtiges Thema war.

    Als technische Bibliothek haben wir zum Beispiel einige Werke im Bereich des Bauwesens. Wassermühlen waren besonders beliebt, aber auch andere Bauwerke, die im Zusammenhang mit Wasser stehen. Wir haben eine kleine Auswahl an digitalisierten Werken zusammengestellt:

    • Theorie und Bau der Wasser-Räder (1858)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1856)
    • Der Wasser-Mahlmühlenbau, oder Anleitung zur richtigen Konstruktion sämmtlicher beim Mühlenbau vorkommenden Räder und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1865)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Hauptband) (1856)
    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibenden Mühlewerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1. Band + 2. Band) (1840)

     

    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibender Mühlenwerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1.Band, 2. Band, Atlas) (1832)
    • Worinnen enthalten: die Weise, wie der Grund der Schleußen in einem schlechten Erdboden zu legen ist. Beyspiel dessen an der ehemaligen Schleuße im Bassin zu Dünkirchen. Beschreibung mittelmäßiger Schleußen, das Wasser zum Vortheil eines See-Hafens zu dirigiren. Bau der hölzernen Schleußenböden. Vom rechten Gebrauch der Spundpfähle. Von Anlage der Roste zu den Schleußenböden. Von dem dazu gehörigen Eisenwert. (Zweyter Theil, Dritte Ausgabe der Version) (1767)
    • Enthaltend: eine umständliche Beschreibung der Maschinen zu Vertiefung der Seehäven. Von Gründung im Meere, durch eingesenkte große Steine: durch Kästen, welche mit trockenem Mauerwerke angefüllet und ins Meer gesenket werden: durch über einander gelegte prismatische Kisten. Von denen für Seehäven gehörigen Gebäuden, insonderheit von den Schiffs-Docken. Wie man sich der fließenden Wasser bey Belagerungen und im Felde nützlich bedienen kann. (Zweyter Theil, Neunte Ausgabe der Version) (1770)
    • Beyträge zur Wasser-, Brücken- und Straßenbaukunde oder wissenschaftliche Darstellung der in den neuesten Zeiten ausgeführten oder in der Anlage begriffenen Bauwerke und Beschreibungen der vorzüglichsten Maschinen (1.–6. Heft) (1808–1812)

     

    #Technik #Bauwesen #LizenzCCBY40INT #Digitalisierung #Retrodigitalisierung
  39. Wasser – immer schon ein Thema

    Der 22. März ist seit 1993 der Weltwassertag und wurde 1992 von der UN-Generalversammlung beschlossen. Seit 2003 wird der Weltwassertag von der UN-Wasser organisiert und wird unter ein bestimmtes Motto gestellt. Zu diesem Anlass haben wir uns in der Retrodigitalisierung Werke zum Thema Wasser herausgesucht.

    Wasser ist für unser Leben unverzichtbar und sehr wertvoll. Die besonderen Eigenschaften von Wasser spielen auch in den Bereichen der Technik, Physik, Chemie oder Biologie, die auch zu den Sammelgebieten der TIB gehören, eine große Rolle. Egal ob im flüssigen Zustand als Wasser, gefroren als Eis oder als gasförmigen Wasserdampf: Wasser zeigt sich in allen Lebensbereichen und in der Wissenschaft. Das Thema Wasser findet sich auch im Altbestand der TIB und zeigt, dass Wasser schon in der Vergangenheit ein wichtiges Thema war.

    Als technische Bibliothek haben wir zum Beispiel einige Werke im Bereich des Bauwesens. Wassermühlen waren besonders beliebt, aber auch andere Bauwerke, die im Zusammenhang mit Wasser stehen. Wir haben eine kleine Auswahl an digitalisierten Werken zusammengestellt:

    • Theorie und Bau der Wasser-Räder (1858)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1856)
    • Der Wasser-Mahlmühlenbau, oder Anleitung zur richtigen Konstruktion sämmtlicher beim Mühlenbau vorkommenden Räder und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1865)
    • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Hauptband) (1856)
    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibenden Mühlewerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1. Band + 2. Band) (1840)

     

    • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibender Mühlenwerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1.Band, 2. Band, Atlas) (1832)
    • Worinnen enthalten: die Weise, wie der Grund der Schleußen in einem schlechten Erdboden zu legen ist. Beyspiel dessen an der ehemaligen Schleuße im Bassin zu Dünkirchen. Beschreibung mittelmäßiger Schleußen, das Wasser zum Vortheil eines See-Hafens zu dirigiren. Bau der hölzernen Schleußenböden. Vom rechten Gebrauch der Spundpfähle. Von Anlage der Roste zu den Schleußenböden. Von dem dazu gehörigen Eisenwert. (Zweyter Theil, Dritte Ausgabe der Version) (1767)
    • Enthaltend: eine umständliche Beschreibung der Maschinen zu Vertiefung der Seehäven. Von Gründung im Meere, durch eingesenkte große Steine: durch Kästen, welche mit trockenem Mauerwerke angefüllet und ins Meer gesenket werden: durch über einander gelegte prismatische Kisten. Von denen für Seehäven gehörigen Gebäuden, insonderheit von den Schiffs-Docken. Wie man sich der fließenden Wasser bey Belagerungen und im Felde nützlich bedienen kann. (Zweyter Theil, Neunte Ausgabe der Version) (1770)
    • Beyträge zur Wasser-, Brücken- und Straßenbaukunde oder wissenschaftliche Darstellung der in den neuesten Zeiten ausgeführten oder in der Anlage begriffenen Bauwerke und Beschreibungen der vorzüglichsten Maschinen (1.–6. Heft) (1808–1812)

     

    #Technik #Bauwesen #LizenzCCBY40INT #Digitalisierung #Retrodigitalisierung
  40. Weltwassertag 2026

    Quelle: Pixabay

    Als Fachreferentin für Umwelttechnologien habe ich hier im TIB-Blog schon auf einige Aktionstage wie den Welttag der Umwelt oder auch den Global Recycling Day hingewiesen. Heute möchte ich die Aufmerksamkeit auf den Weltwassertag lenken.

    Dieser Aktionstag findet jedes Jahr am 22. März statt und wird von UN-Wasser, einer Unterorganisation der Vereinten Nationen organisiert. Der Zugang zu sauberem Wasser und Sanitäranlagen ist das sechste Nachhaltigkeitsziel der 2030-Agenda der Vereinten Nationen.

    Für uns in Deutschland ist es selbstverständlich, dass jederzeit frisches Wasser aus dem Hahn kommt. Dieses Glück haben jedoch nicht alle Menschen: Fast drei Viertel der Weltbevölkerung lebt in Ländern mit einer unsicheren oder kritischen Trinkwasserversorgung. Darüber hinaus haben laut UNICEF mehr als 350 Millionen Menschen keinen Zugang zu sanitären Anlagen[1]. Doch Fäkalien in der Umwelt können dazu führen, dass Wasserquellen verunreinigt werden, die Menschen für ihren täglichen Bedarf nutzen. Auf diese Weise können sich Krankheiten wie Cholera ausbreiten. Um auf diese prekäre Situation aufmerksam zu machen wurde 1993 der Weltwassertag ins Leben gerufen, der jedes Jahr unter einem anderen Motto steht. Wasser und Gender ist das Motto für 2026.

    Warum gerade dieser Schwerpunkt?

    In sieben von zehn Haushalten ohne Wasseranschluss sind Frauen und Mädchen für das Wasserholen zuständig. Das ist das Ergebnis eines Berichts, der 2023 von UNICEF und WHO vorgelegt wurde. Damit macht dieses Motto nicht nur auf das sechste sondern auch das fünfte Nachhaltigkeitsziel der Vereinen Nationen (Geschlechtergerechtigkeit und Selbstbestimmung für alle Frauen und Mädchen) aufmerksam: Wenn Mädchen weite Wege (manchmal mehrere Stunden zu Fuß) gehen müssen, um Wasser zu holen, können sie in dieser Zeit nicht lernen, spielen oder sich einfach mit Freunden treffen. Welche Veränderungen mit dem Zugang zu sanitären Anlagen erzielt werden können, hat UNICEF unter dem Titel „Welttoilettentag: Wasser und Hygiene für ein besseres Leben“ im November 2025 zusammengetragen.

    Weitere Aktionen am Weltwassertag

    Neben den UN nutzen auch viele andere Organisation den Weltwassertag, um die Aufmerksamkeit auf das Thema Wasser zu lenken.

    Alle zwei Jahre wird in Deutschland am Weltwassertag die Flusslandschaft des Jahres gekürt. 2026/27 fiel die Wahl auf die Murg. Sie fließt vom Nordschwarzwald in die Oberrheinische Tiefebene und mündet nach 80,2 Kilometern nordwestlich von Rastatt in den Rhein. „Im Zuge der Klimaanpassung gewinnen Renaturierungsmaßnahmen in Flusslandschaften zunehmend an Bedeutung, weil durch sie Extremwetterereignisse wie Starkregen und Dürren besser abgefedert werden können. Die Murg bietet hier hervorragende Beispiele.“[2]

    Seit 2011 wird vom Umweltbundesamt der Gewässertyp des Jahres gekürt. In diesem Jahr ist es das Kleingewässer, ein wichtiger „Lebensraum für viele Pflanzen- und Tierarten, darunter zahlreiche gefährdete Amphibien. Zudem erfüllen sie wichtige Funktionen in der Landschaft, beispielsweise als Trittsteine im Biotopverbund oder als Wasser- und Stoffspeicher.“[3]

    Die Wasserdekade läuft seit 2018 bis 2028 und soll die Bemühungen zur Bewältigung wasserbezogener Herausforderungen, wie den Zugang zu sauberem Wasser und sanitären Einrichtungen oder das Risiko von Dürren und Überschwemmungen, beschleunigen.

    Der Hinweis auf die jährlich in Stockholm stattfindende internationale Weltwasserwoche, bei der sich Hersteller, Industrie und Politik zum fachlichen Austausch und zur Vernetzung treffen, darf an dieser Stelle nicht fehlen. Auch hier gibt es ein jährlich wechselndes Thema. Dieses Jahr findet die Weltwasserwoche vom 23. bis 27. August 2026 unter dem Motto „Water for People and Progress” statt.[4]

    Und was können Sie tun?

    Sie haben diesen Beitrag entdeckt und damit den Blick auf die essenziellste Ressource allen Lebens gelenkt – Wasser. Das ist genau das, was mit dem Weltwassertag bezweckt wird – Aufmerksamkeit erzeugen und Überdenken des eigenen Handels. Jedes Jahr gibt die UN zu diesem Zweck auch den Weltwasserreport heraus. Die Ausgabe 2026 ist bereits seit einigen Tagen online und in den Sprachversionen Englisch, Französisch und Italienisch hier zu finden. Die deutsche Übersetzung kann im TIB-Portal abgerufen werden. Dort finden Sie auch viele weitere Informationen rund um das Thema Trinkwasser und Sanitärtechnik.

    Neuerscheinungen zur Umwelttechnik finden Sie im Facheinstieg Umwelttechnik.

    Gerne weise ich auch auf das AV-Portal der TIB hin. Dort finden Sie viele passende Filme zum Thema, wie z.B.  „Hat euer Wasser eine Seele?“ – ein Beitrag des Extremschwimmers Ernst Bromeis, der es sich zur Lebensaufgabe gemacht hat, Menschen für das Thema Wasser zu sensibilisieren.

    Vielleicht finden Sie auf diese Weise auch noch ein paar Ideen, was Sie ganz persönlich zum Weltwassertag beitragen können. Viel Spaß und Erfolg bei der Recherche!

    Quellen

    [1] https://www.unicef.de/informieren/aktuelles/blog/-/welt-toiletten-tag/274976

    [2] Joachim Nibbe, Mitglied des Bundesvorstands der NaturFreunde Deutschlands, https://www.naturfreunde.de/die-murg-ist-flusslandschaft-der-jahre-202627

    [3] https://www.umweltbundesamt.de/themen/wasser/gewaessertyp-des-jahres/gewaessertyp-des-jahres-2026-kleingewaesser#eigenschaften

    [4] https://siwi.org/latest/world-water-day-2026-turning-commitments-into-progress/

    #LizenzCCBY40INT #Weltwassertag
  41. Erinnerungskultur zum Mitmachen: eine digitale Landkarte zum Gestapoterror in Niedersachsen

    Die Verbrechen der Gestapo sichtbar machen und gleichzeitig Bürger:innen aktiv in die Erinnerungskultur einbinden – geht das? Das TIB-Projekt „Gestapo.Terror.Orte“ zeigt, wie digitale Werkzeuge, offene Daten und Citizen Science neue Wege der historischen Aufarbeitung eröffnen.

    Was ist „Gestapo.Terror.Orte“?

    Gestapo.Terror.Orte“ ist eine interaktive Landkarte, die Orte des Gestapoterrors in Niedersachsen und darüber hinaus digital zugänglich macht. Das Projekt verbindet Digital History, Digital Mapping und Open Science: Es nutzt frei verfügbare Daten aus Wikidata und Wikimedia Commons, um Wissen über die Verbrechen der Gestapo, ihre Standorte und die Erinnerung daran zu sammeln, zu vernetzen und für alle sichtbar zu machen.

    Ziel des Projekts:

    • Orte der Gestapo in Niedersachsen (1933–1945) identifizieren und dokumentieren
    • Daten für Forschung, Bildung und Öffentlichkeit frei zugänglich machen
    • Bürger:innen aktiv in die Erforschung und Erinnerung einbinden

    Wie funktioniert die interaktive Landkarte?

    Die interaktive Karte bildet das Herzstück des Projekts. Sie zeigt:

    • Dienstsitze und Infrastruktur der Gestapo
    • Haftstätten und andere Orte des Terrors
    • Geschädigte und Täter:innen
    • Fallbeispiele, die die Arbeitsweise der Gestapo verdeutlichen

    Die Besonderheit: Die Karte kann kontinuierlich durch Citizen Science – also die Mitarbeit von Bürger:innen – erweitert werden. Jede:r kann Daten ergänzen, neue Orte eintragen oder bestehende Einträge verbessern.

    Citizen Science: Geschichte gemeinsam erforschen

    „Gestapo.Terror.Orte“ lebt von der Mitarbeit vieler. Im Rahmen des Projekts fanden 16 Werkstätten statt, in denen Interessierte lernten, wie man historische Daten in Wikidata erfasst. Das Ergebnis:

    • 252 Orte des Gestapoterrors wurden bisher dokumentiert. Außerdem 56 Datensätze zu Täter:innen, mit denen wir einen Beitrag leisten zur Täter:innenforschung, sowie mehr 1.000 Datensätze von Verfolgten, an die auf diese Weise erinnert wird.
    • Für Freiwillige, die auch nach Projektende weitere Daten ergänzen möchten, steht eine Reihe von Materialien online bereit:
      • Wikidata-Basics: Einführung in die freie Wissensdatenbank
      • Schritt-für-Schritt-Anleitungen: Wie trage ich neue Daten ein?
      • Datenmodelle: Wie werden Orte, Täter:innen, Geschädigte und Ereignisse erfasst?

    Die Landkarte ist nicht nur ein Forschungsinstrument, sondern auch ein Bildungsangebot:

    • Thematische Stadtführungen: Touren zu Gestapo-Orten wie zum Beispiel in Hannover, Göttingen und Osnabrück zeigen, wie die Karte auch für Stadtführungen genutzt werden kann.
    • Schulen und Gedenkstätten: Die Karte eignet sich für Projekte zur historischen Aufarbeitung und politischen Bildung.
    • Forschung: Durch Linked Open Data können die gesammelten Daten für weitere Analysen und Projekte genutzt werden.

    Warum ist das Projekt wichtig?

    „Gestapo.Terror.Orte“ verbindet Wissenschaft, digitale Tools und gesellschaftliches Engagement. Es zeigt, wie Erinnerungskultur heute aussehen kann:

    • Partizipativ: Jede:r kann mitmachen und Wissen einbringen.
    • Transparenz: Alle Daten sind frei zugänglich und nachnutzbar.
    • Nachhaltig: Die Karte wächst mit jeder neuen Information – und bleibt so ein lebendiges Archiv.

    Fazit: Das Projekt beweist, dass digitale Erinnerungskultur nicht nur möglich, sondern auch notwendig ist – um die Verbrechen der Vergangenheit sichtbar zu machen und für die Zukunft zu lernen.

    Selbst mitmachen?

    Alle Informationen und Materialien findest du auf der Projektwebsite. Dort kannst du direkt loslegen und die Landkarte mit deinen Erkenntnissen ergänzen!

    Nach Abschluss der Förderung wird „Gestapo.Terror.Orte“ durch die Stiftung niedersächsischer Gedenkstätten betreut. Dort werden auch weitere Werkstätten zur Einführung in die Arbeit mit der Karte sowie zur Erfassung weiterer Daten angeboten.

    Quellen

    Groh-Trautmann, Lisa: Wikidata-Plattformen als Tools für neue Formen forschender Erinnerungsarbeit. B.I.T Online 27 (2024) Nr. 2. https://www.b-i-t-online.de/heft/2024-02-fachbeitrag-groh-trautmann.pdf

    Blümel, Ina, Fahrenkrog, Gabriele, Heller, Lambert und Groh-Trautmann, Lisa (2026). Digitale Erinnerungskultur: „Gestapo.Terror.Orte“. Ti-Magazin (Technologie-Informationen), „ti“ 3/2025: Transfer in die Praxis. https://doi.org/10.60479/JH9S-7514

    Deutschlandfunk Campus & Karriere über Gestapo.Terror.Orte vom 9. Juni 2025: https://on.soundcloud.com/DWOhQXoAdQNrVvj6fd

    Gestapo.Terror.Orte auf der Citizen-Science-Plattform mit:forschen! Gemeinsam Wissen schaffen: https://www.mitforschen.org/projekt/gestapoterrororte-niedersachsen-1933-1945

    #CitizenScience #OpenScience #Projekt #digitaleErinnerungskultur #Partizipation #LizenzCCBY40INT #OpenScienceLab
  42. Erster FDM-Kurs für Betreuende von Qualifizierungsarbeiten an der HsH

    Das Joint Lab Future Libraries & Research Data an der Schnittstelle von TIB und der Hochschule Hannover (HsH) kann einen neuen Meilenstein verzeichnen: Der Basiskurs im Forschungsdatenmanagement (FDM), den die Mitarbeiterinnen des Labs mit dem Data Steward der HsH, Sebastian Lehmann, zusammen vorbereitet hatten, fand Ende Januar das erste Mal statt und war ein voller Erfolg.

    Der vierstündige Präsenzworkshop richtet sich gezielt an Lehrende, die Studierende und Promovierende bei ihren Qualifizierungsarbeiten betreuen, und vermittelt praxisnahe Tipps, um bereits Studierenden den Umgang mit Forschungsdaten näherzubringen. Durch Input und interaktive Übungen im Wechsel sowie Raum für kleinere Diskussionen wurde ein direkter Bezug zur täglichen Betreuungspraxis hergestellt. Details zur Konzeption und Entstehung dieses Formats können in unserem Blogbeitrag „Gute Datenpraxis weitergeben – ein Basiskurs entsteht“ nachgelesen werden. Der erste Workshop fand am 29. Januar 2026 am Expo Plaza der Hochschule Hannover statt und wurde von zwölf Teilnehmer:innen aus Fakultät 3 und dem Institut Data|H der HsH besucht.

    Kursmaterial als Open Educational Resource veröffentlicht

    Das Kursmaterial wurde veröffentlicht und steht interessierten Personen als Open Educational Resource (OER) zur  Verfügung. Es wurde in dem niedersächsischen Repositorium GRO.data publiziert und ist auch über twillo und Zenodo abrufbar.

    Das Material umfasst neben dem kommentiertem Folienmaterial in zwei Formaten auch umfangreiches Begleitmaterial. Das Kurshandbuch bietet Lehrenden eine Orientierung zu den Folien und zeigt auf, welche Lernziele je Abschnitt verfolgt werden. Bei der Konzeption des Kurses wurde für die Formulierung der Lernziele auf die Lernzielmatrix zum Themenbereich Forschungsdatenmanagement zurückgegriffen, an deren dritten Version die beiden Mitarbeiterinnen des Joint Labs beteiligt waren (siehe Blogbeitrag). Zudem wird im Handbuch auf weiterführende, kommentierte Literaturempfehlungen verwiesen. Neben dem Handbuch stehen alle Abbildungen, die in den Kursfolien genutzt werden, mit jeweiligen Lizenzierungsinformationen zum Download bereit.

    Eine Miro-Board-Vorlage für die Übungen des Kurses sowie ergänzendes Material zum Ausdrucken werden ebenfalls zur Verfügung gestellt, sodass die Übungen einfach in eigene Formate eingebaut werden können. Abgerundet wird die Sammlung durch ergänzende hilfreiche Dokumente mit jeweiligen Lizenzierungsinformationen: Dateibenennungskonventionen, Creative-Commons-Lizenzen, Forschungsdaten in Abschlussarbeiten, Team-Documentation-Sheet, 5S-Comic, erweiterte Version der Lernzielmatrix zum Forschungsdatenmanagement mit markierten, im Kurs verfolgten und weiteren neu formulierten Lernzielen.

    Feedback der Teilnehmer:innen

    Die Rückmeldungen der Teilnehmer:innen nach Kursende unterstreichen, dass der Kurs wertvolle Impulse setzte und neue Inspirationen für die Lehre und Betreuung von Abschlussarbeiten bot. Besonders positiv bewerteten die Teilnehmer:innen die praxisnahen Handlungsempfehlungen sowie die Tool- und Webseiten-Tipps, die sich auch über die Lehre hinaus für die eigene Forschungsarbeit als hilfreich erweisen.

    Das Feedback wird in die Überarbeitung für eine geplante zweite Durchführung des Kurses im Sommer 2026 einfließen. So wird die Kursdauer beispielsweise ausgeweitet: von vier Stunden mit kleineren Pausen hin zu einem Format, das sechs Stunden mit einer gemeinsamen Mittagspause vorsieht und dadurch mehr Raum für den wichtigen Erfahrungsaustausch untereinander bietet.

    Entwicklung eines FDM-OER-Angebots von Studierenden für Studierende

    Nachdem durch den Basiskurs ein Angebot für die Zielgruppe der Betreuenden geschaffen wurde, rückt in einem nächsten Schritt nun der wissenschaftliche Nachwuchs in den Fokus. Durch die Stärkung von FDM-Kompetenzen bereits im Studium wird das Fundament für nachhaltiges Datenmanagement und eine offene Wissenschaftskultur gelegt.

    Basierend auf dem Basiskurs für Betreuer:innen entwickeln Studierende des Bachelorstudiengangs Informationsmanagement der Hochschule Hannover im Rahmen ihres Semesterprojekts zukunftsorientierte Lehr- und Lernangebote zum FDM. Unter der fachlichen Begleitung durch das Team des Joint Labs unter der Leitung von Prof. Dr. Ina Blümel arbeiten die Studierenden an zwei zentralen Bausteinen, die eine Etablierung von FDM an der Hochschule weiter voranbringen:

    • a) Selbstlernkurs für Studierende
      Studierende entwickeln einen modular aufgebauten Selbstlernkurs zum FDM, der Lernen in Eigenregie fördert.
    • b) Seminarplanung und Zusatzmaterial für Lehrende
      Parallel dazu erstellen Studierende ein flexibles Seminarpaket, das Lehrende in ihre Lehrveranstaltungen integrieren können.

    Die Ergebnisse des Semesterprojekts werden unter anderem auf der BiblioCon 2026 in Berlin durch die Studierenden vorgestellt.

    Kontakt

    Joint Lab Future Libraries & Research Data

    Dr. Nina Düvel, Hochschule Hannover: [email protected]

    Franziska Altemeier, TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek: [email protected]

    Prof. Dr. Ina Blümel, TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek sowie Hochschule Hannover: [email protected]

    Joint Lab Future Libraries & Research Data

    #Schulung #HochschuleHannover #JointLabFutureLibrariesAndResearchData #LizenzCCBY40INT #Forschungsdatenmanagement #OER #FDM
  43. OpenAlex 2026: Was die neuen Entwicklungen für uns als Bibliothek bedeuten

    2021 wurde bekannt gegeben, dass der Microsoft Academic Graph nicht mehr weiterentwickelt wird.

    OpenAlex trat an, die Lücke zu füllen, und entwickelte sich im Laufe der letzten Jahre zu einer ernstzunehmenden Alternative zu Zitationsdatenbanken wie Dimensions, Scopus oder Web of Science (siehe auch diesen früheren Blogbeitrag).

    Auch in den letzten Monaten hat sich OpenAlex deutlich weiterentwickelt: neue technische Grundlagen, ein erweiterter Datenbestand, verbesserte Suchfunktionen und ein neues Nutzungsmodell. Für uns als Deutsche Zentralbibliothek für Technik und Naturwissenschaften sowie als Universitätsbibliothek sind das keine abstrakten Neuigkeiten – wir sind seit Sommer 2025 Mitglied bei OpenAlex (siehe Supporting Members hier) und gestalten aktiv mit, wie diese Infrastruktur für Forschung und Lehre genutzt werden kann.

    Was OpenAlex heute kann – und warum das für uns relevant ist

    OpenAlex verbindet Publikationen, Autor:innen, Institutionen, Fördermittel und Konzepte in einem offenen Forschungsgraphen. Der Datenbestand ist in letzter Zeit stark gewachsen auf eine Größe von aktuell etwa 450 Millionen Werken und deckt neben klassischen Verlagspublikationen zunehmend auch Preprints, Repositorieninhalte und graue Literatur ab. Für uns bedeutet das: Wir können die Publikationslandschaft unserer Universität – einschließlich des Open-Access-Outputs – besser im globalen Kontext verfolgen und sichtbar machen.

    Verbesserte Suche: neue Möglichkeiten für Forschende und Studierende

    Die Suchfunktion von OpenAlex wurde deutlich ausgebaut. Präzisere Schlagwortsuche, bessere Verarbeitung langer Suchstrings und erste semantische Ansätze machen die Plattform zu einem ernstzunehmenden Werkzeug – insbesondere für systematische Literaturrecherchen und thematische Explorationen. Wir begleiten diese Entwicklung aktiv: In unseren Beratungsangeboten (TIBgefragt) zeigen wir, wie OpenAlex sinnvoll neben den oben erwähnten klassischen Datenbanken eingesetzt werden kann. Interessiert? Buche gleich einen Termin bei unserer Fachreferentin hier.

    Die bibliografische Datenbank OpenAlex

    Fördermittel-Metadaten: Chancen für Reporting und Analyse

    OpenAlex baut einen eigenen Datenzweig für Grants und Förderorganisationen auf. Für uns als Bibliothek eröffnet das konkrete Perspektiven: Publikationen lassen sich verlässlicher den zugehörigen Projekten zuordnen, Förderlandschaften werden transparenter. Wir prüfen derzeit, wie sich diese Daten ergänzend zu unseren CRIS- und Berichtssystemen nutzen lassen.

    Affiliation Curation: Wir können aktiv mitgestalten

    Besonders relevant für uns ist die geplante Affiliation Curation. OpenAlex entwickelt Werkzeuge, mit denen Institutionen ihre eigenen Zuordnungsdaten direkt pflegen können – also prüfen und korrigieren, ob Autor:innen und Publikationen korrekt mit unserer Institution verknüpft sind. Als Bibliothek, die bereits Repositorium, Publikationslisten und CRIS-Systeme betreut, sind wir gut aufgestellt, diesen Prozess zu koordinieren. Korrekte Affiliationsdaten in OpenAlex verbessern direkt die Qualität externer Analysen und Rankings, die auf diesen Daten aufbauen. Wir erwarten hier gezielte Onboarding-Angebote und freuen uns darauf, langfristig an der Datenqualität mitzuwirken

    Unsere Mitgliedschaft – und was wir daraus machen

    Mit der Unterzeichnung der Barcelona Declaration On Open Research Information hat die TIB erklärt, offene und nicht-kommerzielle wissenschaftliche Infrastrukturen zu fördern. Dies tun wir mit unserer Mitgliedschaft bei OpenAlex. Das neue Nutzungsmodell sieht API-Keys und nutzungsbasierte Kontingente vor; als Mitglied haben wir erweiterten Zugang und gestalten die Plattform mit. Neben der Affiliation Curation nutzen wir die Mitgliedschaft für weitere Projekte:

    • Bei GROBI (Graphische Observatorien für bibliometrische Analysen), das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) gefördert wird, arbeiten wir gemeinsam mit Forschenden der Leibniz Universität Hannover an einfach nachnutzbaren Infrastrukturen für das bibliometrische Monitoring in verschiedenen Szenarien.
    • Im durch das niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen von Hochschule digital Niedersachsen geförderten Projekt FIS Niedersachsen (Aufbau eines Netzwerkes und Services zu Forschungsinformationen (FIS)) entwickeln wir gemeinsam mit den niedersächsischen Hochschulen Strategien und Lösungen zur Kuratierung von Publikationsmetadaten – unter anderem durch die oben erwähnte Affiliations-Kuratierung.

    Unsere nächsten Schritte

    Wir möchten gemeinsam mit Forschenden, Lehrenden und Data Stewards ausloten, wie OpenAlex am sinnvollsten in bestehende Workflows eingebunden werden kann – von Publikationsmonitoring und Open-Access-Berichten über Datenanreicherungen im Repositorium bis hin zu automatisierten Analysen.

    Haben Sie konkrete Ideen oder Bedarfe? Sprechen Sie uns an.

    Weiterführende Ressourcen zu OpenAlex

    Wer die Entwicklung von OpenAlex selbst verfolgen möchte, findet hier die wichtigsten Anlaufstellen:

    • Blog – Neuigkeiten, Feature-Ankündigungen und Hintergründe direkt vom OpenAlex-Team: blog.openalex.org
    • Webinare – regelmäßige Online-Veranstaltungen zu aktuellen Themen, mit Aufzeichnungen auf dem YouTube-Kanal: help.openalex.org – Webinars
    • Hilfe-Center – allgemeine Dokumentation zu Daten, Funktionen und Nutzung: help.openalex.org
    • Technische Dokumentation/API – für alle, die OpenAlex programmatisch nutzen oder in eigene Systeme einbinden möchten: developers.openalex.org
    #TIBgefragt #Datenanalyse #Literaturrecherche #OpenAccess #LizenzCCBY40INT #OpenResearchInformation #Bibliometrie #fis #openalex
  44. OpenAlex 2026: Was die neuen Entwicklungen für uns als Bibliothek bedeuten

    2021 wurde bekannt gegeben, dass der Microsoft Academic Graph nicht mehr weiterentwickelt wird.

    OpenAlex trat an, die Lücke zu füllen, und entwickelte sich im Laufe der letzten Jahre zu einer ernstzunehmenden Alternative zu Zitationsdatenbanken wie Dimensions, Scopus oder Web of Science (siehe auch diesen früheren Blogbeitrag).

    Auch in den letzten Monaten hat sich OpenAlex deutlich weiterentwickelt: neue technische Grundlagen, ein erweiterter Datenbestand, verbesserte Suchfunktionen und ein neues Nutzungsmodell. Für uns als Deutsche Zentralbibliothek für Technik und Naturwissenschaften sowie als Universitätsbibliothek sind das keine abstrakten Neuigkeiten – wir sind seit Sommer 2025 Mitglied bei OpenAlex (siehe Supporting Members hier) und gestalten aktiv mit, wie diese Infrastruktur für Forschung und Lehre genutzt werden kann.

    Was OpenAlex heute kann – und warum das für uns relevant ist

    OpenAlex verbindet Publikationen, Autor:innen, Institutionen, Fördermittel und Konzepte in einem offenen Forschungsgraphen. Der Datenbestand ist in letzter Zeit stark gewachsen auf eine Größe von aktuell etwa 450 Millionen Werken und deckt neben klassischen Verlagspublikationen zunehmend auch Preprints, Repositorieninhalte und graue Literatur ab. Für uns bedeutet das: Wir können die Publikationslandschaft unserer Universität – einschließlich des Open-Access-Outputs – besser im globalen Kontext verfolgen und sichtbar machen.

    Verbesserte Suche: neue Möglichkeiten für Forschende und Studierende

    Die Suchfunktion von OpenAlex wurde deutlich ausgebaut. Präzisere Schlagwortsuche, bessere Verarbeitung langer Suchstrings und erste semantische Ansätze machen die Plattform zu einem ernstzunehmenden Werkzeug – insbesondere für systematische Literaturrecherchen und thematische Explorationen. Wir begleiten diese Entwicklung aktiv: In unseren Beratungsangeboten (TIBgefragt) zeigen wir, wie OpenAlex sinnvoll neben den oben erwähnten klassischen Datenbanken eingesetzt werden kann. Interessiert? Buche gleich einen Termin bei unserer Fachreferentin hier.

    Die bibliografische Datenbank OpenAlex

    Fördermittel-Metadaten: Chancen für Reporting und Analyse

    OpenAlex baut einen eigenen Datenzweig für Grants und Förderorganisationen auf. Für uns als Bibliothek eröffnet das konkrete Perspektiven: Publikationen lassen sich verlässlicher den zugehörigen Projekten zuordnen, Förderlandschaften werden transparenter. Wir prüfen derzeit, wie sich diese Daten ergänzend zu unseren CRIS- und Berichtssystemen nutzen lassen.

    Affiliation Curation: Wir können aktiv mitgestalten

    Besonders relevant für uns ist die geplante Affiliation Curation. OpenAlex entwickelt Werkzeuge, mit denen Institutionen ihre eigenen Zuordnungsdaten direkt pflegen können – also prüfen und korrigieren, ob Autor:innen und Publikationen korrekt mit unserer Institution verknüpft sind. Als Bibliothek, die bereits Repositorium, Publikationslisten und CRIS-Systeme betreut, sind wir gut aufgestellt, diesen Prozess zu koordinieren. Korrekte Affiliationsdaten in OpenAlex verbessern direkt die Qualität externer Analysen und Rankings, die auf diesen Daten aufbauen. Wir erwarten hier gezielte Onboarding-Angebote und freuen uns darauf, langfristig an der Datenqualität mitzuwirken

    Unsere Mitgliedschaft – und was wir daraus machen

    Mit der Unterzeichnung der Barcelona Declaration On Open Research Information hat die TIB erklärt, offene und nicht-kommerzielle wissenschaftliche Infrastrukturen zu fördern. Dies tun wir mit unserer Mitgliedschaft bei OpenAlex. Das neue Nutzungsmodell sieht API-Keys und nutzungsbasierte Kontingente vor; als Mitglied haben wir erweiterten Zugang und gestalten die Plattform mit. Neben der Affiliation Curation nutzen wir die Mitgliedschaft für weitere Projekte:

    • Bei GROBI (Graphische Observatorien für bibliometrische Analysen), das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) gefördert wird, arbeiten wir gemeinsam mit Forschenden der Leibniz Universität Hannover an einfach nachnutzbaren Infrastrukturen für das bibliometrische Monitoring in verschiedenen Szenarien.
    • Im durch das niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen von Hochschule digital Niedersachsen geförderten Projekt FIS Niedersachsen (Aufbau eines Netzwerkes und Services zu Forschungsinformationen (FIS)) entwickeln wir gemeinsam mit den niedersächsischen Hochschulen Strategien und Lösungen zur Kuratierung von Publikationsmetadaten – unter anderem durch die oben erwähnte Affiliations-Kuratierung.

    Unsere nächsten Schritte

    Wir möchten gemeinsam mit Forschenden, Lehrenden und Data Stewards ausloten, wie OpenAlex am sinnvollsten in bestehende Workflows eingebunden werden kann – von Publikationsmonitoring und Open-Access-Berichten über Datenanreicherungen im Repositorium bis hin zu automatisierten Analysen.

    Haben Sie konkrete Ideen oder Bedarfe? Sprechen Sie uns an.

    Weiterführende Ressourcen zu OpenAlex

    Wer die Entwicklung von OpenAlex selbst verfolgen möchte, findet hier die wichtigsten Anlaufstellen:

    • Blog – Neuigkeiten, Feature-Ankündigungen und Hintergründe direkt vom OpenAlex-Team: blog.openalex.org
    • Webinare – regelmäßige Online-Veranstaltungen zu aktuellen Themen, mit Aufzeichnungen auf dem YouTube-Kanal: help.openalex.org – Webinars
    • Hilfe-Center – allgemeine Dokumentation zu Daten, Funktionen und Nutzung: help.openalex.org
    • Technische Dokumentation/API – für alle, die OpenAlex programmatisch nutzen oder in eigene Systeme einbinden möchten: developers.openalex.org
    #Literaturrecherche #OpenAccess #LizenzCCBY40INT #OpenResearchInformation #Bibliometrie #fis #openalex #TIBgefragt #Datenanalyse
  45. OpenAlex 2026: Was die neuen Entwicklungen für uns als Bibliothek bedeuten

    2021 wurde bekannt gegeben, dass der Microsoft Academic Graph nicht mehr weiterentwickelt wird.

    OpenAlex trat an, die Lücke zu füllen, und entwickelte sich im Laufe der letzten Jahre zu einer ernstzunehmenden Alternative zu Zitationsdatenbanken wie Dimensions, Scopus oder Web of Science (siehe auch diesen früheren Blogbeitrag).

    Auch in den letzten Monaten hat sich OpenAlex deutlich weiterentwickelt: neue technische Grundlagen, ein erweiterter Datenbestand, verbesserte Suchfunktionen und ein neues Nutzungsmodell. Für uns als Deutsche Zentralbibliothek für Technik und Naturwissenschaften sowie als Universitätsbibliothek sind das keine abstrakten Neuigkeiten – wir sind seit Sommer 2025 Mitglied bei OpenAlex (siehe Supporting Members hier) und gestalten aktiv mit, wie diese Infrastruktur für Forschung und Lehre genutzt werden kann.

    Was OpenAlex heute kann – und warum das für uns relevant ist

    OpenAlex verbindet Publikationen, Autor:innen, Institutionen, Fördermittel und Konzepte in einem offenen Forschungsgraphen. Der Datenbestand ist in letzter Zeit stark gewachsen auf eine Größe von aktuell etwa 450 Millionen Werken und deckt neben klassischen Verlagspublikationen zunehmend auch Preprints, Repositorieninhalte und graue Literatur ab. Für uns bedeutet das: Wir können die Publikationslandschaft unserer Universität – einschließlich des Open-Access-Outputs – besser im globalen Kontext verfolgen und sichtbar machen.

    Verbesserte Suche: neue Möglichkeiten für Forschende und Studierende

    Die Suchfunktion von OpenAlex wurde deutlich ausgebaut. Präzisere Schlagwortsuche, bessere Verarbeitung langer Suchstrings und erste semantische Ansätze machen die Plattform zu einem ernstzunehmenden Werkzeug – insbesondere für systematische Literaturrecherchen und thematische Explorationen. Wir begleiten diese Entwicklung aktiv: In unseren Beratungsangeboten (TIBgefragt) zeigen wir, wie OpenAlex sinnvoll neben den oben erwähnten klassischen Datenbanken eingesetzt werden kann. Interessiert? Buche gleich einen Termin bei unserer Fachreferentin hier.

    Die bibliografische Datenbank OpenAlex

    Fördermittel-Metadaten: Chancen für Reporting und Analyse

    OpenAlex baut einen eigenen Datenzweig für Grants und Förderorganisationen auf. Für uns als Bibliothek eröffnet das konkrete Perspektiven: Publikationen lassen sich verlässlicher den zugehörigen Projekten zuordnen, Förderlandschaften werden transparenter. Wir prüfen derzeit, wie sich diese Daten ergänzend zu unseren CRIS- und Berichtssystemen nutzen lassen.

    Affiliation Curation: Wir können aktiv mitgestalten

    Besonders relevant für uns ist die geplante Affiliation Curation. OpenAlex entwickelt Werkzeuge, mit denen Institutionen ihre eigenen Zuordnungsdaten direkt pflegen können – also prüfen und korrigieren, ob Autor:innen und Publikationen korrekt mit unserer Institution verknüpft sind. Als Bibliothek, die bereits Repositorium, Publikationslisten und CRIS-Systeme betreut, sind wir gut aufgestellt, diesen Prozess zu koordinieren. Korrekte Affiliationsdaten in OpenAlex verbessern direkt die Qualität externer Analysen und Rankings, die auf diesen Daten aufbauen. Wir erwarten hier gezielte Onboarding-Angebote und freuen uns darauf, langfristig an der Datenqualität mitzuwirken

    Unsere Mitgliedschaft – und was wir daraus machen

    Mit der Unterzeichnung der Barcelona Declaration On Open Research Information hat die TIB erklärt, offene und nicht-kommerzielle wissenschaftliche Infrastrukturen zu fördern. Dies tun wir mit unserer Mitgliedschaft bei OpenAlex. Das neue Nutzungsmodell sieht API-Keys und nutzungsbasierte Kontingente vor; als Mitglied haben wir erweiterten Zugang und gestalten die Plattform mit. Neben der Affiliation Curation nutzen wir die Mitgliedschaft für weitere Projekte:

    • Bei GROBI (Graphische Observatorien für bibliometrische Analysen), das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) gefördert wird, arbeiten wir gemeinsam mit Forschenden der Leibniz Universität Hannover an einfach nachnutzbaren Infrastrukturen für das bibliometrische Monitoring in verschiedenen Szenarien.
    • Im durch das niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen von Hochschule digital Niedersachsen geförderten Projekt FIS Niedersachsen (Aufbau eines Netzwerkes und Services zu Forschungsinformationen (FIS)) entwickeln wir gemeinsam mit den niedersächsischen Hochschulen Strategien und Lösungen zur Kuratierung von Publikationsmetadaten – unter anderem durch die oben erwähnte Affiliations-Kuratierung.

    Unsere nächsten Schritte

    Wir möchten gemeinsam mit Forschenden, Lehrenden und Data Stewards ausloten, wie OpenAlex am sinnvollsten in bestehende Workflows eingebunden werden kann – von Publikationsmonitoring und Open-Access-Berichten über Datenanreicherungen im Repositorium bis hin zu automatisierten Analysen.

    Haben Sie konkrete Ideen oder Bedarfe? Sprechen Sie uns an.

    Weiterführende Ressourcen zu OpenAlex

    Wer die Entwicklung von OpenAlex selbst verfolgen möchte, findet hier die wichtigsten Anlaufstellen:

    • Blog – Neuigkeiten, Feature-Ankündigungen und Hintergründe direkt vom OpenAlex-Team: blog.openalex.org
    • Webinare – regelmäßige Online-Veranstaltungen zu aktuellen Themen, mit Aufzeichnungen auf dem YouTube-Kanal: help.openalex.org – Webinars
    • Hilfe-Center – allgemeine Dokumentation zu Daten, Funktionen und Nutzung: help.openalex.org
    • Technische Dokumentation/API – für alle, die OpenAlex programmatisch nutzen oder in eigene Systeme einbinden möchten: developers.openalex.org
    #Literaturrecherche #OpenAccess #LizenzCCBY40INT #OpenResearchInformation #Bibliometrie #fis #openalex #TIBgefragt #Datenanalyse
  46. OpenAlex 2026: Was die neuen Entwicklungen für uns als Bibliothek bedeuten

    2021 wurde bekannt gegeben, dass der Microsoft Academic Graph nicht mehr weiterentwickelt wird.

    OpenAlex trat an, die Lücke zu füllen, und entwickelte sich im Laufe der letzten Jahre zu einer ernstzunehmenden Alternative zu Zitationsdatenbanken wie Dimensions, Scopus oder Web of Science (siehe auch diesen früheren Blogbeitrag).

    Auch in den letzten Monaten hat sich OpenAlex deutlich weiterentwickelt: neue technische Grundlagen, ein erweiterter Datenbestand, verbesserte Suchfunktionen und ein neues Nutzungsmodell. Für uns als Deutsche Zentralbibliothek für Technik und Naturwissenschaften sowie als Universitätsbibliothek sind das keine abstrakten Neuigkeiten – wir sind seit Sommer 2025 Mitglied bei OpenAlex (siehe Supporting Members hier) und gestalten aktiv mit, wie diese Infrastruktur für Forschung und Lehre genutzt werden kann.

    Was OpenAlex heute kann – und warum das für uns relevant ist

    OpenAlex verbindet Publikationen, Autor:innen, Institutionen, Fördermittel und Konzepte in einem offenen Forschungsgraphen. Der Datenbestand ist in letzter Zeit stark gewachsen auf eine Größe von aktuell etwa 450 Millionen Werken und deckt neben klassischen Verlagspublikationen zunehmend auch Preprints, Repositorieninhalte und graue Literatur ab. Für uns bedeutet das: Wir können die Publikationslandschaft unserer Universität – einschließlich des Open-Access-Outputs – besser im globalen Kontext verfolgen und sichtbar machen.

    Verbesserte Suche: neue Möglichkeiten für Forschende und Studierende

    Die Suchfunktion von OpenAlex wurde deutlich ausgebaut. Präzisere Schlagwortsuche, bessere Verarbeitung langer Suchstrings und erste semantische Ansätze machen die Plattform zu einem ernstzunehmenden Werkzeug – insbesondere für systematische Literaturrecherchen und thematische Explorationen. Wir begleiten diese Entwicklung aktiv: In unseren Beratungsangeboten (TIBgefragt) zeigen wir, wie OpenAlex sinnvoll neben den oben erwähnten klassischen Datenbanken eingesetzt werden kann. Interessiert? Buche gleich einen Termin bei unserer Fachreferentin hier.

    Die bibliografische Datenbank OpenAlex

    Fördermittel-Metadaten: Chancen für Reporting und Analyse

    OpenAlex baut einen eigenen Datenzweig für Grants und Förderorganisationen auf. Für uns als Bibliothek eröffnet das konkrete Perspektiven: Publikationen lassen sich verlässlicher den zugehörigen Projekten zuordnen, Förderlandschaften werden transparenter. Wir prüfen derzeit, wie sich diese Daten ergänzend zu unseren CRIS- und Berichtssystemen nutzen lassen.

    Affiliation Curation: Wir können aktiv mitgestalten

    Besonders relevant für uns ist die geplante Affiliation Curation. OpenAlex entwickelt Werkzeuge, mit denen Institutionen ihre eigenen Zuordnungsdaten direkt pflegen können – also prüfen und korrigieren, ob Autor:innen und Publikationen korrekt mit unserer Institution verknüpft sind. Als Bibliothek, die bereits Repositorium, Publikationslisten und CRIS-Systeme betreut, sind wir gut aufgestellt, diesen Prozess zu koordinieren. Korrekte Affiliationsdaten in OpenAlex verbessern direkt die Qualität externer Analysen und Rankings, die auf diesen Daten aufbauen. Wir erwarten hier gezielte Onboarding-Angebote und freuen uns darauf, langfristig an der Datenqualität mitzuwirken

    Unsere Mitgliedschaft – und was wir daraus machen

    Mit der Unterzeichnung der Barcelona Declaration On Open Research Information hat die TIB erklärt, offene und nicht-kommerzielle wissenschaftliche Infrastrukturen zu fördern. Dies tun wir mit unserer Mitgliedschaft bei OpenAlex. Das neue Nutzungsmodell sieht API-Keys und nutzungsbasierte Kontingente vor; als Mitglied haben wir erweiterten Zugang und gestalten die Plattform mit. Neben der Affiliation Curation nutzen wir die Mitgliedschaft für weitere Projekte:

    • Bei GROBI (Graphische Observatorien für bibliometrische Analysen), das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) gefördert wird, arbeiten wir gemeinsam mit Forschenden der Leibniz Universität Hannover an einfach nachnutzbaren Infrastrukturen für das bibliometrische Monitoring in verschiedenen Szenarien.
    • Im durch das niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen von Hochschule digital Niedersachsen geförderten Projekt FIS Niedersachsen (Aufbau eines Netzwerkes und Services zu Forschungsinformationen (FIS)) entwickeln wir gemeinsam mit den niedersächsischen Hochschulen Strategien und Lösungen zur Kuratierung von Publikationsmetadaten – unter anderem durch die oben erwähnte Affiliations-Kuratierung.

    Unsere nächsten Schritte

    Wir möchten gemeinsam mit Forschenden, Lehrenden und Data Stewards ausloten, wie OpenAlex am sinnvollsten in bestehende Workflows eingebunden werden kann – von Publikationsmonitoring und Open-Access-Berichten über Datenanreicherungen im Repositorium bis hin zu automatisierten Analysen.

    Haben Sie konkrete Ideen oder Bedarfe? Sprechen Sie uns an.

    Weiterführende Ressourcen zu OpenAlex

    Wer die Entwicklung von OpenAlex selbst verfolgen möchte, findet hier die wichtigsten Anlaufstellen:

    • Blog – Neuigkeiten, Feature-Ankündigungen und Hintergründe direkt vom OpenAlex-Team: blog.openalex.org
    • Webinare – regelmäßige Online-Veranstaltungen zu aktuellen Themen, mit Aufzeichnungen auf dem YouTube-Kanal: help.openalex.org – Webinars
    • Hilfe-Center – allgemeine Dokumentation zu Daten, Funktionen und Nutzung: help.openalex.org
    • Technische Dokumentation/API – für alle, die OpenAlex programmatisch nutzen oder in eigene Systeme einbinden möchten: developers.openalex.org
    #Literaturrecherche #OpenAccess #LizenzCCBY40INT #OpenResearchInformation #Bibliometrie #fis #openalex #TIBgefragt #Datenanalyse
  47. OpenAlex 2026: Was die neuen Entwicklungen für uns als Bibliothek bedeuten

    2021 wurde bekannt gegeben, dass der Microsoft Academic Graph nicht mehr weiterentwickelt wird.

    OpenAlex trat an, die Lücke zu füllen, und entwickelte sich im Laufe der letzten Jahre zu einer ernstzunehmenden Alternative zu Zitationsdatenbanken wie Dimensions, Scopus oder Web of Science (siehe auch diesen früheren Blogbeitrag).

    Auch in den letzten Monaten hat sich OpenAlex deutlich weiterentwickelt: neue technische Grundlagen, ein erweiterter Datenbestand, verbesserte Suchfunktionen und ein neues Nutzungsmodell. Für uns als Deutsche Zentralbibliothek für Technik und Naturwissenschaften sowie als Universitätsbibliothek sind das keine abstrakten Neuigkeiten – wir sind seit Sommer 2025 Mitglied bei OpenAlex (siehe Supporting Members hier) und gestalten aktiv mit, wie diese Infrastruktur für Forschung und Lehre genutzt werden kann.

    Was OpenAlex heute kann – und warum das für uns relevant ist

    OpenAlex verbindet Publikationen, Autor:innen, Institutionen, Fördermittel und Konzepte in einem offenen Forschungsgraphen. Der Datenbestand ist in letzter Zeit stark gewachsen auf eine Größe von aktuell etwa 450 Millionen Werken und deckt neben klassischen Verlagspublikationen zunehmend auch Preprints, Repositorieninhalte und graue Literatur ab. Für uns bedeutet das: Wir können die Publikationslandschaft unserer Universität – einschließlich des Open-Access-Outputs – besser im globalen Kontext verfolgen und sichtbar machen.

    Verbesserte Suche: neue Möglichkeiten für Forschende und Studierende

    Die Suchfunktion von OpenAlex wurde deutlich ausgebaut. Präzisere Schlagwortsuche, bessere Verarbeitung langer Suchstrings und erste semantische Ansätze machen die Plattform zu einem ernstzunehmenden Werkzeug – insbesondere für systematische Literaturrecherchen und thematische Explorationen. Wir begleiten diese Entwicklung aktiv: In unseren Beratungsangeboten (TIBgefragt) zeigen wir, wie OpenAlex sinnvoll neben den oben erwähnten klassischen Datenbanken eingesetzt werden kann. Interessiert? Buche gleich einen Termin bei unserer Fachreferentin hier.

    Die bibliografische Datenbank OpenAlex

    Fördermittel-Metadaten: Chancen für Reporting und Analyse

    OpenAlex baut einen eigenen Datenzweig für Grants und Förderorganisationen auf. Für uns als Bibliothek eröffnet das konkrete Perspektiven: Publikationen lassen sich verlässlicher den zugehörigen Projekten zuordnen, Förderlandschaften werden transparenter. Wir prüfen derzeit, wie sich diese Daten ergänzend zu unseren CRIS- und Berichtssystemen nutzen lassen.

    Affiliation Curation: Wir können aktiv mitgestalten

    Besonders relevant für uns ist die geplante Affiliation Curation. OpenAlex entwickelt Werkzeuge, mit denen Institutionen ihre eigenen Zuordnungsdaten direkt pflegen können – also prüfen und korrigieren, ob Autor:innen und Publikationen korrekt mit unserer Institution verknüpft sind. Als Bibliothek, die bereits Repositorium, Publikationslisten und CRIS-Systeme betreut, sind wir gut aufgestellt, diesen Prozess zu koordinieren. Korrekte Affiliationsdaten in OpenAlex verbessern direkt die Qualität externer Analysen und Rankings, die auf diesen Daten aufbauen. Wir erwarten hier gezielte Onboarding-Angebote und freuen uns darauf, langfristig an der Datenqualität mitzuwirken

    Unsere Mitgliedschaft – und was wir daraus machen

    Mit der Unterzeichnung der Barcelona Declaration On Open Research Information hat die TIB erklärt, offene und nicht-kommerzielle wissenschaftliche Infrastrukturen zu fördern. Dies tun wir mit unserer Mitgliedschaft bei OpenAlex. Das neue Nutzungsmodell sieht API-Keys und nutzungsbasierte Kontingente vor; als Mitglied haben wir erweiterten Zugang und gestalten die Plattform mit. Neben der Affiliation Curation nutzen wir die Mitgliedschaft für weitere Projekte:

    • Bei GROBI (Graphische Observatorien für bibliometrische Analysen), das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) gefördert wird, arbeiten wir gemeinsam mit Forschenden der Leibniz Universität Hannover an einfach nachnutzbaren Infrastrukturen für das bibliometrische Monitoring in verschiedenen Szenarien.
    • Im durch das niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen von Hochschule digital Niedersachsen geförderten Projekt FIS Niedersachsen (Aufbau eines Netzwerkes und Services zu Forschungsinformationen (FIS)) entwickeln wir gemeinsam mit den niedersächsischen Hochschulen Strategien und Lösungen zur Kuratierung von Publikationsmetadaten – unter anderem durch die oben erwähnte Affiliations-Kuratierung.

    Unsere nächsten Schritte

    Wir möchten gemeinsam mit Forschenden, Lehrenden und Data Stewards ausloten, wie OpenAlex am sinnvollsten in bestehende Workflows eingebunden werden kann – von Publikationsmonitoring und Open-Access-Berichten über Datenanreicherungen im Repositorium bis hin zu automatisierten Analysen.

    Haben Sie konkrete Ideen oder Bedarfe? Sprechen Sie uns an.

    Weiterführende Ressourcen zu OpenAlex

    Wer die Entwicklung von OpenAlex selbst verfolgen möchte, findet hier die wichtigsten Anlaufstellen:

    • Blog – Neuigkeiten, Feature-Ankündigungen und Hintergründe direkt vom OpenAlex-Team: blog.openalex.org
    • Webinare – regelmäßige Online-Veranstaltungen zu aktuellen Themen, mit Aufzeichnungen auf dem YouTube-Kanal: help.openalex.org – Webinars
    • Hilfe-Center – allgemeine Dokumentation zu Daten, Funktionen und Nutzung: help.openalex.org
    • Technische Dokumentation/API – für alle, die OpenAlex programmatisch nutzen oder in eigene Systeme einbinden möchten: developers.openalex.org
    #OpenResearchInformation #Bibliometrie #fis #openalex #TIBgefragt #Datenanalyse #Literaturrecherche #OpenAccess #LizenzCCBY40INT
  48. Frauen in der Wissenschaft: Prof. Dr. Ina Blümel

    read this article in English

    Die Blogreihe „Frauen in der Wissenschaft“ stellt Frauen aus der TIB vor, die Einblicke in ihre Wege und ihre persönlichen Erfahrungen in der Wissenschaft geben.

    Prof. Dr. Ina Blümel // Foto: TIB/C. Bierwagen

    Dieses Mal: Prof. Dr. Ina Blümel. Sie studierte Architektur in Braunschweig, Mailand und Helsinki und promovierte an der Humboldt-Universität zu Berlin am Institut für Bibliotheks- und Informationswissenschaft.

    Heute ist sie Leiterin des Joint Labs Future Libraries and Research Data sowie Co-Leiterin des Open Science Labs an der TIB und Professorin an der Fakultät III – Medien, Information und Design der Hochschule Hannover.

    Im Interview spricht sie darüber, wie sie mit ihrer Arbeit Dinge gemeinsam mit anderen sichtbar machen kann, dass Wege in der Wissenschaft nicht gradlinig sein müssen und dass von offener, vernetzter und fairer Forschung am Ende alle profitieren.

    Was fasziniert dich an der Arbeit in der Wissenschaft?

    Mich fasziniert, dass ich mit Forschung Dinge in Bewegung bringen kann, die sonst unsichtbar bleiben: Daten, Modelle, Bilder, Videos – all das wird unter anderem durch gute Metadaten, Linked Data und offene Infrastrukturen auffindbar und nachnutzbar.

    Ich komme ursprünglich aus der Architektur und habe mich früh für digitale Werkzeuge und den Sprung von 2D zu 3D interessiert. Heute reizt mich genau diese Schnittstelle aus Technik, Kultur und Wissen besonders. Mir ist dabei wichtig, dass Forschung nicht im Elfenbeinturm stattfindet, sondern gemeinsam mit und in Communities – zum Beispiel rund um Wikimedia – intuitiv bedienbare Werkzeuge, Workflows und offene Ressourcen entstehen.

    Was hättest du als Frau in der Wissenschaft gerne früher gewusst?

    Ich hätte gern früher gewusst, wie normal Umwege sind – und dass interdisziplinäre Biografien keine Abweichung, sondern oft ein Vorteil sind. Außerdem: Man darf und sollte sich Verbündete suchen, sichtbar Netzwerke aufbauen und Mentoring aktiv einfordern – das ist kein Luxus, sondern Teil professioneller Arbeit. Und ich hätte mir früher öfter erlaubt, prototypisch zu arbeiten: Mutig Dinge zu testen, auch wenn sie noch nicht perfekt sind.

    Welchen Rat würdest du Mädchen und jungen Frauen geben, die eine wissenschaftliche Laufbahn anstreben?

    Sucht euch Themen, die euch wirklich packen – dann trägt euch die Neugier durch Phasen, in denen es zäh wird. Lernt, eure Arbeit sichtbar zu machen – auch in offenen Formaten. Übt früh, klar über Ressourcen zu sprechen: Zeit, Geld, Zugang, Betreuung. Traut euch, in Communitys zu gehen: Wissenschaft wird besser, wenn wir sie vernetzt und offen denken und wenn unterschiedliche Perspektiven aktiv in die Gestaltung einfließen.

    Ein Wunsch für die Zukunft von Frauen und Mädchen in der Wissenschaft …

    Ich wünsche mir eine Wissenschaft, in der Zugehörigkeit nicht erklärt werden muss: gleiche Chancen, gleiche Sicherheit, gleiche Sichtbarkeit – unabhängig vom Geschlecht. Und ich wünsche mir Strukturen, die Kooperation, Offenheit und nachhaltige Entwicklungen belohnen, statt nur kurzfristige Leuchttürme zu produzieren. Wenn wir Forschung offener, vernetzter und fairer organisieren, profitieren am Ende alle – und besonders jene, die heute noch zu oft ausgebremst werden.

    Frauen in der Wissenschaft – eine Blogreihe

    In der Blogreihe „Frauen in der Wissenschaft“ werden Frauen an der TIB vorgestellt, die Einblicke in ihre wissenschaftlichen Wege, Rollenbilder und ihre Erfahrungen aus dem Arbeitsalltag geben. Sie alle teilen ihre Perspektive und ihre Wünsche für die Zukunft der Wissenschaft und ermutigen andere Frauen, ihren Platz selbstbewusst einzunehmen.

    #LizenzCCBY40INT #OpenScienceLab #OpenScience #FrauenAnDerTIB #HochschuleHannover #FrauenInDerWissenschaft
  49. Frauen in der Wissenschaft: Prof. Dr. Maria-Esther Vidal

    read this article in English

    Die Blogreihe „Frauen in der Wissenschaft“ stellt Frauen aus der TIB vor, die Einblicke in ihre Wege und ihre persönlichen Erfahrungen in der Wissenschaft geben. Prof. Dr. Maria-Esther Vidal studierte Informatik an der Universidad Simón Bolívar in Caracas (Venezuela). Heute leitet sie die Forschungsgruppe Scientific Data Management an der TIB und ist Professorin an der Leibniz Universität Hannover sowie Mitglied des Forschungszentrums L3S. Im Interview spricht sie über das Privileg, junge Wissenschaftler:innen auf ihrem Weg begleiten zu dürfen, über Neugierde in der Wissenschaft und Vielfalt als Stärke.

    Prof. Dr. Maria-Esther Vidal // Foto: TIB/C. Bierwagen

    Was fasziniert dich an der Arbeit in der Wissenschaft?

    Was mich an der Wissenschaft fasziniert, ist die Möglichkeit, Neugierde in Wissen mit echter Wirkung umzuwandeln. Ich finde es spannend, Ideen aus verschiedenen Disziplinen miteinander zu verbinden und zu sehen, wie abstrakte Konzepte letztendlich dazu beitragen können, das Leben der Menschen zu verbessern.

    Abgesehen von den wissenschaftlichen Entdeckungen selbst ist für mich einer der lohnendsten Aspekte der Wissenschaft, dass ich mit vielen Nachwuchswissenschaftler:innen zusammenarbeiten und sie bei ihrer Entwicklung  die Begleitung ihrer Entwicklung zu unabhängigen Forschern begleiten kann.

    Was hättest du als Frau in der Wissenschaft gerne früher gewusst?

    Ich hätte gerne früher gewusst, dass Grenzen selten feststehen. Viele von ihnen verschwinden in dem Moment, in dem man aufhört, sie als real zu betrachten.

    Welchen Rat würdest du Mädchen und jungen Frauen geben, die eine wissenschaftliche Laufbahn anstreben?

    Folgt eurer Neugier und vertraut auf eure Denkweise. Glaubt an euch selbst und kämpft für eure Träume. Wartet nicht darauf, dass man euch erlaubt, Raum einzunehmen, Fragen zu stellen und euren eigenen Weg zu gehen – die Wissenschaft braucht vielfältige Perspektiven.

    Ein Wunsch für die Zukunft von Frauen und Mädchen in der Wissenschaft …

    Mein Wunsch ist eine Zukunft, in der Frauen und Mädchen ohne unsichtbare Barrieren Wissenschaft betreiben können, in der Ideen und Talent wichtiger sind als Erwartungen und in der Vielfalt als Stärke angesehen wird.

    Frauen in der Wissenschaft – eine Blogreihe

    In der Blogreihe „Frauen in der Wissenschaft“ werden Frauen an der TIB vorgestellt, die Einblicke in ihre wissenschaftlichen Wege, Rollenbilder und ihre Erfahrungen aus dem Arbeitsalltag geben. Sie alle teilen ihre Perspektive und ihre Wünsche für die Zukunft der Wissenschaft und ermutigen andere Frauen, ihren Platz selbstbewusst einzunehmen.

    #Forschung #ScientificDataManagement #Interview #LizenzCCBY40INT #ForschungUndEntwicklung #DataScience
  50. Ein Abstecher in die Welt der Mode

    Im Bestand der TIB befinden sich gerade bei den älteren Werken viele Themen aus angrenzenden Fachgebieten der Naturwissenschaften und Technik. In unserer Blogreihe „Retrodigitalisierung – vom Papier zum Pixel“ geht es dieses Mal um das Thema Mode. Passend zum Karneval, der fünften Jahreszeit, haben wir einige sehr interessante, bereits digitalisierte Werke aus drei verschiedenen Jahrhunderten zusammengetragen.

    Eine Königin aus Hispanien und eine Speierische Frauw

    Im Frauwenzimmer Wirt vermeldt von allerley schönen Kleidungen vnnd Trachten der Weiber/ hohes vnd niders Stands/ wie man fast an allen Orten geschmückt vnnd gezieret ist/ Als Teutsche/ Welche/ Französische/ Engelländische/ Niderländische/ Böhemische/ Bayerische/ vnd alle anstossende Länder. Durchauß mit neuen Figuren gezieret/ dergleichen nie ist außgangen.

    (aus der Sammlung Haupt ein Nachdruck von 1586 (erschienen 1880))

    Fundstücke aus dem obigen Werk sind die beiden folgenden Abbildungen: eine Frau in hispanischer Tracht und eine Frau aus Speyer:

    Eine Königin in Hispanien

     

    Eine Speierische Frauw

    Ein historisches Frauenkostüm aus dem 16. Jahrhundert

    Die vollständige Lehre der Mannsschneiderei nach den neuesten Methoden des Maasnehmens, der Anwendung des vom Verfasser neu erfundenen Corporismeters und des vom Professor Fontaine-Père zu Paris erfundenen Reductions-Schema auch für alle Arten von Beinkleidern; die Zuschneidekunst von Oberröcken, Fräkken, Paletots, Mänteln, Uniformen, Westen, Beinkleidern, Kamaschen, Knabenanzügen, für den regelmäßigen und unregelmäßigen Bau und Wuchs; auch ihrer Zusammensetzung und Bearbeitung, practischen Winken über Nachbesserungen und Veränderungen

    (aus dem 19. Jahrhundert, erschienen 1842)

    In dem oben genannten Werk findet sich eine Vielzahl von Schnittmustern, die mit eingebunden sind und von der Retrodigitalisierung aufgeklappt im Überformat gescannt wurden:

    Beinkleider, Frack oder Uniform für den Herrn

    Das Kostümwerk: eine Geschichte des Kostüms aller Zeiten und Völker vom Altertum bis zur Neuzeit einschließlich der Volkstrachten Europas und der Trachten der außereuropäischen Länder : 200 Tafeln, von denen 120 in Vierfarbendruck, 80 in Tiefdruck wiedergegeben sind, und 12 Tafeln mit Kostümschnitten

    (aus dem 20. Jahrhundert, erschienen 1941)

    Auch für alle Männer, die sich Beinkleider, einen Frack oder eine Uniform aus vergangenen Tagen schneidern möchten, haben wir etwas in unserem vielfältigen TIB-Bestand:

    Deutschland: 16. Jahrhundert Landsknechte 1540–1550

    Für alle, die sich zum Beispiel ein Kostüm aus dem alten Ägypten, Spät-Rom oder Persien schneidern möchten, gibt es die passenden Schnitttafeln:

    Kleidung aus dem alten Ägypten, Spät-Rom oder Persien

    Retrodigitalisierung – vom Papier zum Pixel

    Viele wissenschaftliche Schätze schlummern in den analogen Beständen der TIB – meist schwer zugänglich und oft nur vor Ort nutzbar. Dank Retrodigitalisierung ändert sich das: Durch die Digitalisierung werden gedruckte Bücher, Karten und weitere analoge Materialien gesichert und historisches Wissen sichtbar, durchsuchbar und nachhaltig verfügbar gemacht.

    In der Blogreihe „Retrodigitalisierung – vom Papier zum Pixel“ zeigt die TIB Schätze, die nun nicht mehr nur in den Regalen der Bibliothek stehen, sondern online von überall auf der Welt angesehen werden können. Auch einen Blick hinter die Kulissen der Retrodigitalisierung wird es geben: Wie werden aus analogen Beständen digitale Ressourcen? Welche technischen und rechtlichen Herausforderungen gibt es dabei? Von der Auswahl der Materialien über Scanprozesse bis zur Langzeitarchivierung – die Reihe beleuchtet Retrodigitalisierung als eine wichtige Aufgabe moderner Bibliotheken.

    #LizenzCCBY40INT #Retrodigitalisierung #Fundstücke #TIBBestand