home.social

#visual-analytics — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #visual-analytics, aggregated by home.social.

fetched live
  1. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics
  2. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics
  3. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #VisualAnalytics #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos
  4. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics #LizenzCCBY40INT
  5. Desinformation in Zeiten generativer KI

    Woche der Meinungsfreiheit 2026: Was ist wahr?

    Vom 3. bis 10. Mai 2026 findet zum sechsten Mal die Woche der Meinungsfreiheit statt. Unter dem Motto „Was ist wahr?“ geht es in der bundesweiten Aktionswoche um Fakten, Meinungen und Wahrhaftigkeit. In Demokratien ist Meinungsfreiheit ein hohes Gut. Doch was passiert, wenn Menschen nachweislich falsche Informationen verbreiten?

    Als Bibliothek und wissenschaftliche Infrastruktureinrichtung steht die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek für freien Zugang zu Wissen, digitale Souveränität und faktenbasierte Informationen – grundlegende Pfeiler einer demokratischen Gesellschaft. Denn nur wer Zugang zu verlässlichen Informationen hat, kann sich eine freie Meinung bilden. In den kommenden Tagen zeigen wir in Beiträgen im TIB-Blog, wie wir als TIB, die Meinungsfreiheit stärken: mit Citizen-Science-Projekten, mit dem freien Zugang zu Informationen, die eine objektive Meinungsbildung ermöglichen, und mit Forschungsansätzen im Bereich der Erkennung von Desinformation.

    Im digitalen Zeitalter verbreiten sich Informationen in rasanter Geschwindigkeit. Dadurch können auch Desinformationen schneller verbreitet werden und stellen eine wachsende Herausforderung für Gesellschaft, Medien, Politik und Demokratie dar. Ihre Auswirkungen reichen von der gezielten Meinungsmanipulation über gesellschaftliche Polarisierung bis hin zum schwindenden Vertrauen in Medien und Institutionen.

    Künstliche Intelligenz (KI) kann helfen, Inhalte automatisiert auf ihre Glaubwürdigkeit zu prüfen. Gleichzeitig schafft sie neue Risiken, etwa durch die einfache Erzeugung täuschend echter Inhalte. Die TIB erforscht, wie KI im Umgang mit Desinformation eingesetzt werden kann und wo ihre Grenzen liegen.

    Herausforderungen bei der Erkennung von Desinformation

    Desinformation tritt in vielen Formen auf: von falschen Fakten bis hin zu manipulierten, generierten oder aus dem Kontext gerissenen Bildern. Besonders schwierig ist, dass Desinformation oft erst erkannt wird, wenn sie sich bereits weit verbreitet hat. Gleichzeitig fehlen gerade bei aktuellen Ereignissen häufig verlässliche Informationen zur Einordnung.

    Um Desinformation wirksam zu begegnen, wird eine Kombination verschiedenster KI-Lösungen und interdisziplinärer Forschung benötigt.

    Forschung an der TIB: Drei Perspektiven auf Desinformation

    Wenn echte Bilder täuschen: Intermodale Konsistenz erkennen

    Ein verbreitetes Muster von Desinformation ist die Nutzung echter Bilder in einem falschen Kontext. Solche Fälle sind schwer zu erkennen, da weder Bild noch Text für sich genommen falsch sein müssen und erst ihr Zusammenspiel eine irreführende Wirkung erzeugt.

    Beispiel: In einem Beitrag von CBS News am 25.03.2020 zur COVID-19-Pandemie in New York wurde Bildmaterial aus einem italienischen Krankenhaus verwendet und so ein verzerrtes Bild der Lage vermittelt.

    Screenshot des CBS-Beitrags auf der Webseite von Sharyl Attkisson vom 01.02.2021 aus dem Internet Archiv (https://web.archive.org/web/20210201012505/https://sharylattkisson.com/2020/03/cbs-admits-crowded-new-york-hospital-was-actually-in-italy/)

    Die Forschungsgruppe Visual Analytics beschäftigt sich seit Jahren mit der Erforschung von KI-Methoden zur Bestimmung von intermodalen Relationen, zum Beispiel zwischen Bild und Text. In diesem Zusammenhang wurden auch Lösungen und Prototypen zur Analyse der intermodalen Konsistenz in Nachrichten entwickelt. Dabei wird überprüft, ob zentrale Elemente wie Personen, Orte oder Ereignisse im Bild tatsächlich mit den Aussagen in (gesprochenen) Textinhalten übereinstimmen. So lassen sich Hinweise darauf finden, wenn visuelle Inhalte in einen falschen Kontext (wieder-)verwendet wurden.

    Screenshot des Prototypen (https://labs.tib.eu/newsanalytics) zur Analyse der intermodalen Konsistenz (und Geolokalisierung von Fotos) in Nachrichten. Aus Copyright-Gründen wurde der Wikipedia-Artikel zur zweiten Amtseinführung von Barack Obama als US-Präsident exemplarisch verwendet.

    Wie Desinformation erzählt wird: Narrative verstehen

    Desinformation entsteht häufig nicht nur durch einzelne falsche Fakten, sondern durch bestimmte narrative Muster, die bewusst oder unbewusst Sichtweisen oder Emotionen verstärken. Solche Erzählmuster, die ursprünglich vor allem aus Film und Storytelling bekannt sind, beeinflussen zunehmend auch die Berichterstattung in Nachrichtenmedien.

    Beispiel: In einem Tagesschau-Interview am 19. Januar 2022 tätigte der damalige Bundesgesundheitsminister Karl Lauterbach diese Aussage: „Es wird ja niemand gegen seinen Willen geimpft. Selbst die Impfpflicht führt ja dazu, dass man sich zum Schluss freiwillig impfen lässt“. Während der Beitrag der Tagesschau (zum Video) sachlich mit Interview-Sequenzen berichtet, wird die Aussage im Beitrag von Bild TV (zum Video) teilweise ironisiert oder ins Lächerliche gezogen und somit eine ablehnende Haltung verstärkt.

    Gegenüberstellung der Berichterstatung: Tagesschau-Interview und Bild-TV-Beitrag (Screenshots wurden den verlinkten Videos entnommen)

    Im interdisziplinären Projekt FakeNarratives untersuchte die Forschungsgruppe Visual Analytics gemeinsam mit Partnern der Universität Bremen und der Universität Leipzig, wie sich solche narrativen Muster mithilfe computergestützter Analysen sowie medien- und geisteswissenschaftlicher Methoden in Nachrichtenvideos erkennen lassen. Die Ergebnisse zeigen, dass alternative Nachrichtensendungen wie BildTV oder CompactTV deutlich häufiger evaluierende und emotionalisierende Erzählmuster verwenden als öffentlich-rechtliche Angebote wie die Tagesschau oder das ZDF heute journal.

    Wenn KI selbst zur Herausforderung wird: Systeme robuster machen

    KI ist ein wichtiges Werkzeug im Kampf gegen Desinformation. Gleichzeitig stellt generative KI neue Anforderungen an bestehende Erkennungssysteme, etwa durch die Möglichkeit, Inhalte vielfältig zu variieren oder subtil zu verändern, um noch glaubwürdigere desinformierende Beiträge oder Deep Fakes zu erzeugen.

    Beispiel: Ein mit großen generativen Sprachmodellen (LLM) umgeschriebener Fake-News-Beitrag wird trotz gleichbleibender Fakten von einem Modell zur Erkennung von Desinformation fälschlicherweise als korrekt (real) eingestuft.

    Screenshot aus der Publikation von Tahmasebi et al., 2026

    In einer aktuellen Publikation haben Forschende der TIB untersucht, wie Klassifikationsmodelle zur Erkennung von Desinformation gegenüber sogenannten Adversarial Attacks, also gezielten Täuschungsangriffen auf KI-Systeme, robuster gemacht werden können. Dabei wurden desinformierende Inhalte mit hilfe generativer beispielsweise in einem neutral oder positivem Ton umformuliert, sodass sie sich schwerer als Falschinformationen erkennen lassen.

    Durch die Optimierung der Klassifikationssysteme mit solchen umformulierten Texten konnte die Robustheit gegenüber diesen Angriffen deutlich gesteigert werden. KI-gestützte Verfahren zur Erkennung von Desinformation werden dadurch zuverlässiger und widerstandsfähiger gegenüber gezielten Manipulationen.

    Fazit: Gemeinsam gegen Desinformation

    Desinformation ist eine komplexe Herausforderung. Die Forschung an der TIB zeigt, wie KI dabei helfen kann, irreführende Inhalte besser zu erkennen und zu analysieren.

    Gleichzeitig ist klar: KI allein reicht nicht. Die Systeme sind auf verlässliche Daten angewiesen und benötigen weiterhin menschliche Bewertung. Der Umgang mit Desinformation erfordert das Zusammenspiel von Wissenschaft, Medien und Gesellschaft.

    Nur wenn verlässliche Informationen zugänglich sind, technologische Werkzeuge verantwortungsvoll eingesetzt werden und Menschen befähigt sind, Inhalte kritisch zu hinterfragen, wird eine informierte Meinungsbildung und -äußerung ermöglicht.

    #LizenzCCBY40INT #Desinformation #Forschung #FakeNews #Videos #VisualAnalytics
  6. „Dendrography and Art History“ zeigt, wie Algorithmen formale Beziehungen zwischen Bildern sichtbar machen. Dendrogramme ordnen Stilentwicklung – Bedeutung entsteht erst durch kunsthistorische Interpretation.
    #DigitalArtHistory #Cezanne #VisualAnalytics
    dhq.digitalhumanities.org/vol/

  7. „Dendrography and Art History“ zeigt, wie Algorithmen formale Beziehungen zwischen Bildern sichtbar machen. Dendrogramme ordnen Stilentwicklung – Bedeutung entsteht erst durch kunsthistorische Interpretation.
    #DigitalArtHistory #Cezanne #VisualAnalytics
    dhq.digitalhumanities.org/vol/

  8. „Dendrography and Art History“ zeigt, wie Algorithmen formale Beziehungen zwischen Bildern sichtbar machen. Dendrogramme ordnen Stilentwicklung – Bedeutung entsteht erst durch kunsthistorische Interpretation.
    #DigitalArtHistory #Cezanne #VisualAnalytics
    dhq.digitalhumanities.org/vol/

  9. „Dendrography and Art History“ zeigt, wie Algorithmen formale Beziehungen zwischen Bildern sichtbar machen. Dendrogramme ordnen Stilentwicklung – Bedeutung entsteht erst durch kunsthistorische Interpretation.
    #DigitalArtHistory #Cezanne #VisualAnalytics
    dhq.digitalhumanities.org/vol/

  10. „Dendrography and Art History“ zeigt, wie Algorithmen formale Beziehungen zwischen Bildern sichtbar machen. Dendrogramme ordnen Stilentwicklung – Bedeutung entsteht erst durch kunsthistorische Interpretation.
    #DigitalArtHistory #Cezanne #VisualAnalytics
    dhq.digitalhumanities.org/vol/

  11. Just now, I have registered for #IEEEVIS 2025 in Vienna. I'm looking forward to six awesome days full of #visualization and #VisualAnalytics research.

  12. Just now, I have registered for #IEEEVIS 2025 in Vienna. I'm looking forward to six awesome days full of #visualization and #VisualAnalytics research.

  13. Just now, I have registered for #IEEEVIS 2025 in Vienna. I'm looking forward to six awesome days full of #visualization and #VisualAnalytics research.

  14. The "Grammar of Graphics" is a powerful concept that ggplot2 in R is built on. It breaks down the process of data visualization into layers, making it easier to customize and understand how to build effective charts.

    Want to dive deeper into creating beautiful and informative visuals with ggplot2? Check out my online course on "Data Visualization in R Using ggplot2 & Friends!" Take a look here for more details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics #datascience

  15. The "Grammar of Graphics" is a powerful concept that ggplot2 in R is built on. It breaks down the process of data visualization into layers, making it easier to customize and understand how to build effective charts.

    Want to dive deeper into creating beautiful and informative visuals with ggplot2? Check out my online course on "Data Visualization in R Using ggplot2 & Friends!" Take a look here for more details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics #datascience

  16. The "Grammar of Graphics" is a powerful concept that ggplot2 in R is built on. It breaks down the process of data visualization into layers, making it easier to customize and understand how to build effective charts.

    Want to dive deeper into creating beautiful and informative visuals with ggplot2? Check out my online course on "Data Visualization in R Using ggplot2 & Friends!" Take a look here for more details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics #datascience

  17. The "Grammar of Graphics" is a powerful concept that ggplot2 in R is built on. It breaks down the process of data visualization into layers, making it easier to customize and understand how to build effective charts.

    Want to dive deeper into creating beautiful and informative visuals with ggplot2? Check out my online course on "Data Visualization in R Using ggplot2 & Friends!" Take a look here for more details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics #datascience

  18. The "Grammar of Graphics" is a powerful concept that ggplot2 in R is built on. It breaks down the process of data visualization into layers, making it easier to customize and understand how to build effective charts.

    Want to dive deeper into creating beautiful and informative visuals with ggplot2? Check out my online course on "Data Visualization in R Using ggplot2 & Friends!" Take a look here for more details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics #datascience

  19. I recently discovered the tidyplots package in R, and it’s impressive how effortlessly it enables you to create beautiful, publication-ready plots.

    The example visualizations shown here were created by the package author, Jan Broder Engler, and are featured on the tidyplots website: jbengler.github.io/tidyplots/

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package #tidyverse

  20. I recently discovered the tidyplots package in R, and it’s impressive how effortlessly it enables you to create beautiful, publication-ready plots.

    The example visualizations shown here were created by the package author, Jan Broder Engler, and are featured on the tidyplots website: jbengler.github.io/tidyplots/

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package #tidyverse

  21. I recently discovered the tidyplots package in R, and it’s impressive how effortlessly it enables you to create beautiful, publication-ready plots.

    The example visualizations shown here were created by the package author, Jan Broder Engler, and are featured on the tidyplots website: jbengler.github.io/tidyplots/

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package #tidyverse

  22. I recently discovered the tidyplots package in R, and it’s impressive how effortlessly it enables you to create beautiful, publication-ready plots.

    The example visualizations shown here were created by the package author, Jan Broder Engler, and are featured on the tidyplots website: jbengler.github.io/tidyplots/

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package #tidyverse

  23. I recently discovered the tidyplots package in R, and it’s impressive how effortlessly it enables you to create beautiful, publication-ready plots.

    The example visualizations shown here were created by the package author, Jan Broder Engler, and are featured on the tidyplots website: jbengler.github.io/tidyplots/

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package #tidyverse

  24. CfP: VIS4DH 2025
    The VIS4DH workshop will be held in conjunction with IEEE VIS in Vienna, Austria. It invites submissions at the intersection of visualization and (digital) humanities.
    This year’s theme: Visualizing Peace and Conflict
    More details: vis4dh.dbvis.de
    #VIS4DH #IEEEVIS #DigitalHumanities #InformationVisualization #VisualAnalytics #CfP #PeaceResearch #ConflictStudies #HumanitiesData #DataHumanities #DH2025 #CriticalVisualization

  25. CfP: VIS4DH 2025
    The VIS4DH workshop will be held in conjunction with IEEE VIS in Vienna, Austria. It invites submissions at the intersection of visualization and (digital) humanities.
    This year’s theme: Visualizing Peace and Conflict
    More details: vis4dh.dbvis.de
    #VIS4DH #IEEEVIS #DigitalHumanities #InformationVisualization #VisualAnalytics #CfP #PeaceResearch #ConflictStudies #HumanitiesData #DataHumanities #DH2025 #CriticalVisualization

  26. CfP: VIS4DH 2025
    The VIS4DH workshop will be held in conjunction with IEEE VIS in Vienna, Austria. It invites submissions at the intersection of visualization and (digital) humanities.
    This year’s theme: Visualizing Peace and Conflict
    More details: vis4dh.dbvis.de
    #VIS4DH #IEEEVIS #DigitalHumanities #InformationVisualization #VisualAnalytics #CfP #PeaceResearch #ConflictStudies #HumanitiesData #DataHumanities #DH2025 #CriticalVisualization

  27. CfP: VIS4DH 2025
    The VIS4DH workshop will be held in conjunction with IEEE VIS in Vienna, Austria. It invites submissions at the intersection of visualization and (digital) humanities.
    This year’s theme: Visualizing Peace and Conflict
    More details: vis4dh.dbvis.de
    #VIS4DH #IEEEVIS #DigitalHumanities #InformationVisualization #VisualAnalytics #CfP #PeaceResearch #ConflictStudies #HumanitiesData #DataHumanities #DH2025 #CriticalVisualization

  28. CfP: VIS4DH 2025
    The VIS4DH workshop will be held in conjunction with IEEE VIS in Vienna, Austria. It invites submissions at the intersection of visualization and (digital) humanities.
    This year’s theme: Visualizing Peace and Conflict
    More details: vis4dh.dbvis.de
    #VIS4DH #IEEEVIS #DigitalHumanities #InformationVisualization #VisualAnalytics #CfP #PeaceResearch #ConflictStudies #HumanitiesData #DataHumanities #DH2025 #CriticalVisualization

  29. Adding statistical metrics to your plots can transform your visualizations from basic to highly informative. With ggplot2 in R and its versatile extensions, incorporating features like p-values, confidence intervals, and regression lines becomes both straightforward and visually appealing.

    With these tools, integrating statistical insights into your ggplot2 visualizations becomes both effective and effortless.

    More details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics

  30. Adding statistical metrics to your plots can transform your visualizations from basic to highly informative. With ggplot2 in R and its versatile extensions, incorporating features like p-values, confidence intervals, and regression lines becomes both straightforward and visually appealing.

    With these tools, integrating statistical insights into your ggplot2 visualizations becomes both effective and effortless.

    More details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics

  31. Adding statistical metrics to your plots can transform your visualizations from basic to highly informative. With ggplot2 in R and its versatile extensions, incorporating features like p-values, confidence intervals, and regression lines becomes both straightforward and visually appealing.

    With these tools, integrating statistical insights into your ggplot2 visualizations becomes both effective and effortless.

    More details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics

  32. Adding statistical metrics to your plots can transform your visualizations from basic to highly informative. With ggplot2 in R and its versatile extensions, incorporating features like p-values, confidence intervals, and regression lines becomes both straightforward and visually appealing.

    With these tools, integrating statistical insights into your ggplot2 visualizations becomes both effective and effortless.

    More details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics

  33. Adding statistical metrics to your plots can transform your visualizations from basic to highly informative. With ggplot2 in R and its versatile extensions, incorporating features like p-values, confidence intervals, and regression lines becomes both straightforward and visually appealing.

    With these tools, integrating statistical insights into your ggplot2 visualizations becomes both effective and effortless.

    More details: statisticsglobe.com/online-cou

    #rprogramminglanguage #visualanalytics

  34. Make your plots more stylish and visually appealing! The ggthemes package offers a variety of pre-built themes that help you customize the look of your ggplot2 visualizations, drawing inspiration from popular design standards.

    The visualization shown here is from the package website: yutannihilation.github.io/allY

    More: statisticsglobe.com/online-cou

    #datascienceeducation #coding #visualanalytics #tidyverse #ggplot2 #package

  35. Make your plots more stylish and visually appealing! The ggthemes package offers a variety of pre-built themes that help you customize the look of your ggplot2 visualizations, drawing inspiration from popular design standards.

    The visualization shown here is from the package website: yutannihilation.github.io/allY

    More: statisticsglobe.com/online-cou

    #datascienceeducation #coding #visualanalytics #tidyverse #ggplot2 #package

  36. Make your plots more stylish and visually appealing! The ggthemes package offers a variety of pre-built themes that help you customize the look of your ggplot2 visualizations, drawing inspiration from popular design standards.

    The visualization shown here is from the package website: yutannihilation.github.io/allY

    More: statisticsglobe.com/online-cou

    #datascienceeducation #coding #visualanalytics #tidyverse #ggplot2 #package

  37. Make your plots more stylish and visually appealing! The ggthemes package offers a variety of pre-built themes that help you customize the look of your ggplot2 visualizations, drawing inspiration from popular design standards.

    The visualization shown here is from the package website: yutannihilation.github.io/allY

    More: statisticsglobe.com/online-cou

    #datascienceeducation #coding #visualanalytics #tidyverse #ggplot2 #package

  38. Make your plots more stylish and visually appealing! The ggthemes package offers a variety of pre-built themes that help you customize the look of your ggplot2 visualizations, drawing inspiration from popular design standards.

    The visualization shown here is from the package website: yutannihilation.github.io/allY

    More: statisticsglobe.com/online-cou

    #datascienceeducation #coding #visualanalytics #tidyverse #ggplot2 #package

  39. Creating publication-ready plots in R is easier than ever with ggpubr. This extension for ggplot2 simplifies the process of generating clean and professional graphics, especially for exploratory data analysis and reporting.

    The attached visual, which I created using ggpubr, demonstrates its versatility.

    Additional information: statisticsglobe.com/online-cou

    #bigdata #visualanalytics #tidyverse #programming #statisticalanalysis #datavisualization #package #data #ggplot2

  40. Creating publication-ready plots in R is easier than ever with ggpubr. This extension for ggplot2 simplifies the process of generating clean and professional graphics, especially for exploratory data analysis and reporting.

    The attached visual, which I created using ggpubr, demonstrates its versatility.

    Additional information: statisticsglobe.com/online-cou

    #bigdata #visualanalytics #tidyverse #programming #statisticalanalysis #datavisualization #package #data #ggplot2

  41. Creating publication-ready plots in R is easier than ever with ggpubr. This extension for ggplot2 simplifies the process of generating clean and professional graphics, especially for exploratory data analysis and reporting.

    The attached visual, which I created using ggpubr, demonstrates its versatility.

    Additional information: statisticsglobe.com/online-cou

    #bigdata #visualanalytics #tidyverse #programming #statisticalanalysis #datavisualization #package #data #ggplot2

  42. Creating publication-ready plots in R is easier than ever with ggpubr. This extension for ggplot2 simplifies the process of generating clean and professional graphics, especially for exploratory data analysis and reporting.

    The attached visual, which I created using ggpubr, demonstrates its versatility.

    Additional information: statisticsglobe.com/online-cou

    #bigdata #visualanalytics #tidyverse #programming #statisticalanalysis #datavisualization #package #data #ggplot2

  43. Creating publication-ready plots in R is easier than ever with ggpubr. This extension for ggplot2 simplifies the process of generating clean and professional graphics, especially for exploratory data analysis and reporting.

    The attached visual, which I created using ggpubr, demonstrates its versatility.

    Additional information: statisticsglobe.com/online-cou

    #bigdata #visualanalytics #tidyverse #programming #statisticalanalysis #datavisualization #package #data #ggplot2

  44. Visual analytics (Cartography 🗺️)

    Visual analytics is a multidisciplinary science and technology field that emerged from information visualization and scientific visualization. It focuses on how analytical reasoning can be facilitated by interactive visual interfaces.

    en.wikipedia.org/wiki/Visual_a

    #VisualAnalytics #BigData #Cartography #Infographics #ComputerGraphics #TypesOfAnalytics

  45. Visual analytics (Cartography 🗺️)

    Visual analytics is a multidisciplinary science and technology field that emerged from information visualization and scientific visualization. It focuses on how analytical reasoning can be facilitated by interactive visual interfaces.

    en.wikipedia.org/wiki/Visual_a

    #VisualAnalytics #BigData #Cartography #Infographics #ComputerGraphics #TypesOfAnalytics

  46. Visual analytics (Cartography 🗺️)

    Visual analytics is a multidisciplinary science and technology field that emerged from information visualization and scientific visualization. It focuses on how analytical reasoning can be facilitated by interactive visual interfaces.

    en.wikipedia.org/wiki/Visual_a

    #VisualAnalytics #BigData #Cartography #Infographics #ComputerGraphics #TypesOfAnalytics

  47. Am 2. April 2025 wurde Johannes Frank vom @vdi_news Rheingau-Bezirksverein für seine herausragende Masterarbeit mit dem Titel „Analyse von Einflussfaktoren auf die Unfallschwere von Unfalldaten mittels KI und #xai ausgezeichnet.
    Johannes Frank widmete sich einem hochrelevanten Thema der #Verkehrssicherheit und nutzte dabei moderne Technologien, insbesondere #kunstlicheintelligenz , #VisualAnalytics und Ansätze der Erklärbaren KI. Herzlichen Glückwunsch, Johannes!

    i3mainz.hs-mainz.de/news/2025/

  48. Am 2. April 2025 wurde Johannes Frank vom @vdi_news Rheingau-Bezirksverein für seine herausragende Masterarbeit mit dem Titel „Analyse von Einflussfaktoren auf die Unfallschwere von Unfalldaten mittels KI und #xai ausgezeichnet.
    Johannes Frank widmete sich einem hochrelevanten Thema der #Verkehrssicherheit und nutzte dabei moderne Technologien, insbesondere #kunstlicheintelligenz , #VisualAnalytics und Ansätze der Erklärbaren KI. Herzlichen Glückwunsch, Johannes!

    i3mainz.hs-mainz.de/news/2025/

  49. Am 2. April 2025 wurde Johannes Frank vom @vdi_news Rheingau-Bezirksverein für seine herausragende Masterarbeit mit dem Titel „Analyse von Einflussfaktoren auf die Unfallschwere von Unfalldaten mittels KI und #xai ausgezeichnet.
    Johannes Frank widmete sich einem hochrelevanten Thema der #Verkehrssicherheit und nutzte dabei moderne Technologien, insbesondere #kunstlicheintelligenz , #VisualAnalytics und Ansätze der Erklärbaren KI. Herzlichen Glückwunsch, Johannes!

    i3mainz.hs-mainz.de/news/2025/

  50. Am 2. April 2025 wurde Johannes Frank vom @vdi_news Rheingau-Bezirksverein für seine herausragende Masterarbeit mit dem Titel „Analyse von Einflussfaktoren auf die Unfallschwere von Unfalldaten mittels KI und #xai ausgezeichnet.
    Johannes Frank widmete sich einem hochrelevanten Thema der #Verkehrssicherheit und nutzte dabei moderne Technologien, insbesondere #kunstlicheintelligenz , #VisualAnalytics und Ansätze der Erklärbaren KI. Herzlichen Glückwunsch, Johannes!

    i3mainz.hs-mainz.de/news/2025/

  51. Am 2. April 2025 wurde Johannes Frank vom @vdi_news Rheingau-Bezirksverein für seine herausragende Masterarbeit mit dem Titel „Analyse von Einflussfaktoren auf die Unfallschwere von Unfalldaten mittels KI und #xai ausgezeichnet.
    Johannes Frank widmete sich einem hochrelevanten Thema der #Verkehrssicherheit und nutzte dabei moderne Technologien, insbesondere #kunstlicheintelligenz , #VisualAnalytics und Ansätze der Erklärbaren KI. Herzlichen Glückwunsch, Johannes!

    i3mainz.hs-mainz.de/news/2025/

  52. Basic boxplots are often not the best way to visualize your data! They can hide important information, such as the distribution of individual data points or group-specific differences.

    The attached visual showcases several ways to enhance boxplots.

    All of these examples were created using ggplot2 and extensions in R.

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package

  53. Basic boxplots are often not the best way to visualize your data! They can hide important information, such as the distribution of individual data points or group-specific differences.

    The attached visual showcases several ways to enhance boxplots.

    All of these examples were created using ggplot2 and extensions in R.

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package

  54. Basic boxplots are often not the best way to visualize your data! They can hide important information, such as the distribution of individual data points or group-specific differences.

    The attached visual showcases several ways to enhance boxplots.

    All of these examples were created using ggplot2 and extensions in R.

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package

  55. Basic boxplots are often not the best way to visualize your data! They can hide important information, such as the distribution of individual data points or group-specific differences.

    The attached visual showcases several ways to enhance boxplots.

    All of these examples were created using ggplot2 and extensions in R.

    Click this link for detailed information: statisticsglobe.com/online-cou

    #statisticsclass #datavisualization #advancedanalytics #rprogramminglanguage #visualanalytics #package