#algorithmwatch — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #algorithmwatch, aggregated by home.social.
-
Stoppt Dobrindts Überwachungspläne!
https://weact.campact.de/petitions/stoppt-dobrindts-uberwachungsplane
#campact #algorithmwatch #Dobrindt #CDUCSU #Hubig #SPD #peterthiel #palantir #dsgvo #bundesregierung #überwachungsstaat #1984
-
Europarechts- und verfassungswidrig: Schwarz-Rot soll Pläne für biometrische Internetfahndung zurückziehen
Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen laut AlgorithmWatch gegen Europarecht und die Verfassung. Sie seien so unverhältnismäßig, dass man sie nicht verbessern, sondern nur zurückziehen könne.
Die Pläne der Bundesregierung, die digitalen Ermittlungsbefugnisse von Sicherheitsbehörden auszuweiten, sind nach Meinung der Organisation AlgorithmWatcheuroparechtswidrig und stehen im Konflikt mit verfassungsrechtlichen Mindestanforderungen und datenschutzrechtlichen Grundsätzen.
Dabei kommt AlgorithmWatch – wie auch schon zuvor die Gesellschaft für Freiheitsrechte (GFF) – zu dem Schluss, dass man dieses Gesetz nicht mit ein paar Änderungen verbessern könnte. Die verfassungs- und menschenrechtliche Unverhältnismäßigkeit lasse „ausschließlich die Empfehlung zu, die Gesetzentwürfe zurückzuziehen und ein grundsätzliches gesetzliches Verbot des Einsatzes biometrischer Massenerkennungssysteme für öffentliche und private Stellen einzuführen“, so die Zusammenfassung der Stellungnahme zum Gesetz (PDF).
„Flächendeckende Verfolgung aller Menschen im digitalen Raum“
Die schwarz-rote Koalition plant in ihrem „Sicherheitspaket“ einerseits eine biometrische Massenfahndung im Internet zu erlauben sowie andererseits die Zusammenführung und Auswertung polizeilicher Daten mittels automatisierter Datenbankanalyse. Die Stellungnahme der Nichtregierungsorganisation fokussiert sich auf die biometrische Fahndung.
Diese biometrische Internetfahndung sieht die NGO sehr kritisch:
Der biometrische Abgleich ermöglicht die Identifizierung von Personen im öffentlichen Raum und im Internet auf Basis biometrischer Merkmale und schafft somit die technischen Voraussetzungen für eine flächendeckende Verfolgung aller Menschen im (digitalen) öffentlichen Raum.
Laut AlgorithmWatch berührt die Überwachungsmaßnahme zwangsläufig die Grundrechte aller Menschen, sie sei weder erforderlich noch verhältnismäßig. Betroffen seien dabei insbesondere die Grundrechte auf informationelle Selbstbestimmung und freie Meinungsäußerung.
Rückschlüsse auf politische Einstellungen
Die NGO kritisiert, dass die Maßnahme heimlich erfolgt und eine extrem hohe Streubreite hat: Es seien einfach alle Menschen betroffen, deren Gesichtsbilder im Internet zu finden sind. Das ist heute ein großer Teil der Bevölkerung. Zudem gebe es erhebliche Diskriminierungsrisiken, wenn sensible Daten erfasst und verarbeitet werden, wie Aufnahmen von Demonstrationen, Parteiveranstaltungen, Pride-Events, Gewerkschaftskundgebungen oder Gottesdiensten. Solche Aufnahmen lassen Rückschlüsse zu auf politische Haltungen, Parteizugehörigkeit, sexuelle oder religiöse Einstellungen.
Darüber hinaus könnten durch die biometrische Internetfahndung auch Bilder aus dem Kernbereich privater Lebensführung ausgewertet werden wie etwa Kindergeburtstage oder private Familienfeiern. Dieser Kernbereich ist verfassungsrechtlich besonders geschützt. Die öffentliche Verfügbarkeit der Daten, die für einen Abgleich herangezogen werden, ändere nichts daran, dass Schutzbereiche der Grundrechte berührt sind.
In der Stellungnahme verweist AlgorithmWatch darauf, dass das Bundesverfassungsgericht bei Kfz-Kennzeichen, die deutlich weniger sensibel als biometrische Merkmale seien, hohe verfassungsrechtliche Anforderungen aufgestellt habe.
Auch seien die Anforderungen für die geplante massenhafte Verarbeitung biometrischer Daten zu unspezifisch sowie die Einsatzzwecke und Tatbestandsmerkmale zu breit und nicht gewichtig genug, als dass eine grundrechtskonforme Anwendung realistisch erscheine. Hier verweist die Organisation auf den Straftatenkatalog des § 100a Abs. 2 StPO , der regelmäßig erweitert und angepasst werde und sich deshalb nicht zur klaren Begrenzung der Maßnahmen auf schwerwiegende Straftaten eigne. Diese Kritik hatte auch die GFF geäußert.
Technische Ausgestaltung unklar
Der Gesetzentwurf lege außerdem „völlig unzureichend“ dar, wie die Überwachungsmaßnahme technisch vonstattengehen soll. Einerseits sollen die die im Rahmen des biometrischen Abgleichs erhobenen und verarbeiteten Daten nach dessen Durchführung „unverzüglich” gelöscht werden, auf der anderen Seite bleibe der Gesetzentwurf schuldig, wie die Sache technisch funktionieren soll.
Klar ist: Für einen biometrischen Abgleich braucht es eine Datenbank, die mit einem gesuchten Bild verglichen werden muss. Bisherige Systeme von privaten Firmen zur Gesichtssuche im Internet wie beispielsweise PimEyes funktionieren so, dass sie meist illegal alle möglichen Gesichtsbilder aus dem Internet sammeln, auswerten und die biometrischen Merkmale sowie die Fundstellen und Metadaten und Zusatzinformationen dieser Bilder in einer Datenbank hinterlegen. Suche ich nun nach einem Gesicht, werden die biometrischen Merkmale dieses Gesichts mit den in der Datenbank hinterlegten Daten abgeglichen – und die jeweiligen Ergebnisse ausgespuckt.
Ein durch AlgorithmWatch beauftragtes Gutachten hat festgestellt, dass ein biometrischer Abgleich zwischen Bildern gesuchter Personen und im Internet verfügbaren Fotos ohne Verwendung einer Datenbank nicht sinnvoll umsetzbar ist. Für die NGO ist damit klar, dass das Vorhaben verboten ist, weil die KI-Verordnung der EU eine mittels Künstlicher Intelligenz erstellte Gesichterdatenbank verbieten würde.
Ein Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.
Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Genau dieses Schlupfloch könnte die Bundesregierung nutzen wollen, sie lässt aber offen, wie das technisch funktionieren soll.
Auslagerung an Private als Schlupfloch?
AlgorithmWatch kritisiert, dass der Gesetzentwurf eine Art Auslagerungsbefugnis enthalte, für den Fall, dass Polizei- und Strafverfolgungsbehörden den Abgleich technisch nicht selbst durchführen können. Sie erlaubt ausdrücklich eine Übermittlung von Daten zum Zweck eines biometrischen Abgleichs an öffentliche Stellen und private Anbieter sowohl im Inland als auch im Ausland sowie innerhalb wie außerhalb der Europäischen Union.
Auch das könnte ein Schlupfloch sein. Die NGO sagt dazu: „Eine Erlaubnis für solch eine Auslagerung des biometrischen Abgleichs ins (Nicht-EU-)Ausland führt sämtliche durch die Gesetzestexte eingeführten Beschränkungen ad absurdum.“ Damit würde der in den Gesetzentwürfen beschriebene Vorgang des Löschens aller verarbeiteten Daten nach jeder einzelnen Suchanfrage zur theoretischen Fassade, heißt es in der Stellungnahme. „Aus diesem Grund, so die Vermutung, wird auf die Übermittlung von Daten an Dritte verwiesen, welche den Abgleich im Auftrag deutscher Behörden durchführen würden. Ins Spiel kommen könnten dann solche Anbieter wie PimEyes oder Clearview AI.
Der Staat dürfe aber, so die Stellungnahme, selbst keine rechtswidrigen Angebote Dritter nutzen. „Ein Delegieren der Umsetzung ins Ausland stellt entsprechend keine europa- und grundrechtskonforme Lösung dar.“ Dazu komme, dass derart schwerwiegende Grundrechtseingriffe nicht an private Unternehmen oder öffentliche Stellen in Drittstaaten ausgelagert werden dürften.
Markus Reuter recherchiert und schreibt zu Digitalpolitik, Desinformation, Zensur und Moderation sowie Überwachungstechnologien. Darüber hinaus beschäftigt er sich mit der Polizei, Grund- und Bürgerrechten sowie Protesten und sozialen Bewegungen. Für eine Recherchereihe zur Polizei auf Twitter erhielt er 2018 den Preis des Bayerischen Journalistenverbandes, für eine TikTok-Recherche 2020 den Journalismuspreis Informatik. Bei netzpolitik.org seit März 2016 als Redakteur dabei. Er ist erreichbar unter markus.reuter | ett | netzpolitik.org, sowie auf Mastodon und Bluesky. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
@algorithmwatch sucht eine stellvertretende Leitung des Teams #Engagement (Schwerpunkt #Campaigning)
Du „kannst Kampagnen“ und hast Lust darauf, politische Debatten zu prägen und Menschen zu motivieren, die Arbeit von AlgorithmWatch zu unterstützen? Dann bewirb dich!
-
@algorithmwatch sucht eine stellvertretende Leitung des Teams #Engagement (Schwerpunkt #Campaigning)
Du „kannst Kampagnen“ und hast Lust darauf, politische Debatten zu prägen und Menschen zu motivieren, die Arbeit von AlgorithmWatch zu unterstützen? Dann bewirb dich!
-
Neue Episode bei @letztens: Blick auf @algorithmwatch – eine #NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode bei @letztens: Blick auf @algorithmwatch – eine #NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode bei @letztens: Blick auf @algorithmwatch – eine #NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode bei @letztens: Blick auf @algorithmwatch – eine #NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode bei @letztens: Blick auf @algorithmwatch – eine #NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode: Wir schauen auf @algorithmwatch – eine NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode: Wir schauen auf @algorithmwatch – eine NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode: Wir schauen auf @algorithmwatch – eine NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Neue Episode: Wir schauen auf @algorithmwatch – eine NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.
Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.
Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.
https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/
-
Transparenzregister mit Lücken: KI-Nutzung der öffentlichen Verwaltung bleibt undurchsichtig
Seit gut einem Jahr gibt es das nationale KI-Transparenzregister. Der IT-Planungsrat will es nun auf alle Verwaltungsebenen ausweiten. Dennoch bleibt weiterhin unklar, in welchem Umfang die öffentliche Verwaltung sogenannte Künstliche Intelligenz einsetzt – und mit welchem Risiko.
Ob zur Grundwasseranalyse oder um den Zustand von Straßen zu erfassen – in der öffentlichen Verwaltung kommen immer mehr Werkzeuge zum Einsatz, die auf sogenannter Künstlicher Intelligenz basieren. Kaum eine Verwaltungswebsite verzichtet noch auf einen Chatbot. Seit einer Woche steht für die Mitarbeiter:innen der Berliner Verwaltung der KI-Assistent BärGPT bereit. Und das Verbraucherportal der Bundesnetzagentur setzt KAI ein.
Geht es nach Digitalminister Karsten Wildberger (CDU), wird der Erfolg der Digitalisierung in der öffentlichen Verwaltung maßgeblich von KI-Systemen abhängen. Daher dürfte es auch immer wichtiger werden, KI-Anwendungen zu erfassen. Seit gut einem Jahr gibt es dafür unter anderem das nationale KI-Transparenzregister. Es ist Teil des Marktplatzes der KI-Möglichkeiten, kurz MaKI. Daneben gibt es ein Dashboard mit Daten über KI-Nutzung in der Verwaltung und Steckbriefen über einzelne KI-Tools.
Für das Transparenzregister ist das Bundesministerium für Digitales und Staatsmodernisierung zuständig. Den Grundstein für MaKI legte eine Pilotinitiative des Beratungszentrums für Künstliche Intelligenz (BeKI) des Bundesinnenministeriums. Das Zentrum ist im Aufbau und soll „eine zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung“ sein.
Das KI-Transparenzregister soll die Vorgaben der KI-Verordnung umsetzen. Derzeit umfasst die Datenbank gut 240 Einträge zu KI-Anwendungen auf Bundesebene. Die Datensätze dazu liefern die nutzenden Bundesbehörden selbst. Zum 1. Dezember hat das Bund-Länder-Gremium IT-Planungsrat den Roll-out auf alle Verwaltungsebenen begonnen. Anfang 2027 will der IT-Planungsrat den MaKI samt Transparenzregister als eigenständiges Produkt unter seine Fittiche nehmen.
Register setzt auf Freiwilligkeit
Dass der Rat die anderen Verwaltungsebenen einbeziehen will, sei zu begrüßen, sagt der Jurist Jonas Botta gegenüber netzpolitik.org. Das sei eine wichtige Voraussetzung dafür, um ein umfassendes Bild über den behördlichen KI-Einsatz zu erhalten. Botta leitete ein Drittmittelprojekt zum KI-Transparenzregister, an dem auch die Nichtregierungsorganisation AlgorithmWatch, die gemeinnützige Verwaltungsplattform NExT e. V. und das Deutsche Forschungsinstitut für öffentliche Verwaltung (FÖV) beteiligt waren.
Im KI-Transparenzregister geben Behörden verschiedene Informationen zu ihren KI-Anwendungen an. Etwa dazu, ob diese gerade entwickelt werden oder schon im Einsatz sind. Das Register umfasst außerdem Daten zu nicht länger genutzten KI-Tools und Projektstarts. Daneben können Behörden eine Kontakt-E-Mail-Adresse und das nutzende Ressort angeben oder auch, ob der Auftrag extern oder inhouse vergeben wurde.
Ausschlaggebend ist hier jedoch das Wort „können“. Denn bislang geben Behörden die Angaben zu ihren KI-Tools freiwillig weiter. Damit sei das Register nach wie vor kein „umfassender, grundrechtssichernder Transparenz-Mechanismus“, sagt Jonas Botta.
Das KI-Transparenzregister müsste aber für die öffentliche Verwaltung verpflichtend sein, um den staatlichen KI-Einsatz grundrechtlich abzusichern. Als Vorbild könne ein entsprechendes Register namens Algoritmeregister aus den Niederlanden dienen.
Intransparentes Verwaltungshandeln
Wäre es verpflichtend, würde das Register Verwaltungshandeln verlässlich transparent machen. Das sei „im demokratischen Rechtsstaat nicht nur allgemein von hoher Bedeutung“, sagt Jonas Botta, sondern werde „angesichts des ‚Blackbox‘-Phänomens von KI-Systemen“ immer wichtiger.
Eine große Schwäche des Registers in seiner jetzigen Form sind die Hürden für Bürger:innen. Die zur Verfügung gestellten Daten sind unübersichtlich aufbereitet und in einer schier endlos langen Tabelle aufgeführt. Sie können zwar etwa nach Entwicklungsstatus oder Verwaltungsebene gefiltert werden. Exportieren lassen sie sich dann aber nur in Form einer Excel-Tabelle. Darüber hinaus sind die angegebenen Daten lückenhaft. So gibt es etwa nicht immer eine Angabe zum Lizenztyp oder zum Kooperationspartner.
Auch sind Angaben zu rechtlichen Grundlagen für den Einsatz von KI-Systemen unvollständig oder es fehlen Angaben dazu, welche Daten die Behörden während des Einsatzes erheben und nutzen, kritisiert Pia Sombetzki von AlgorithmWatch. „Wenn hinter der Angabe zur ‚Beschreibung der Verfahren des Betriebs‘ beispielsweise steht ‚vorhanden’“, sei das keine hilfreiche Auskunft, weil diese zu unspezifisch sei.
Risikostatus: unklar
Bürger:innen können kaum nachvollziehen, „wann sie mit welchem KI-System konfrontiert sind, warum die Behörde dieses System verwendet und welche potenzielle Risiken“ sie bergen, sagt Botta. Auch Abwägungsprozesse der jeweiligen Behörde blieben undurchsichtig: Welche KI setzt die Behörde aus welchen Gründen und für welchen Anwendungsfall ein? Welche Risiken spielen dabei eine Rolle? Und wie kann sie Risiken minimieren oder umgehen?
„Von echter Nachvollziehbarkeit über die KI-Einsätze beim Staat sind wir noch meilenweit entfernt“, sagt Sombetzki. Das Register versäume es, eine lückenlose Nachvollziehbarkeit beim Thema Risikobewertung zu schaffen. Hier fehlten klare Vorgaben. Das verdeutliche auch die Antwort der Bundesregierung auf eine Kleine Anfrage der Partei Die Linke. Die dort gemachten Angaben seien nicht mit denen im Transparenzregister deckungsgleich. Gleichzeitig verweise die Bundesregierung auf die Angaben im Register.
Zudem hätten Behörden bei mehr als einem Drittel der KI-Anwendungen keinerlei Risikobewertungen vorgenommen. Obwohl die KI-Verordnung voraussetze, dass die Bundesverwaltung das Risiko ihrer KI-Einsätze abschätzt, wie Pia Sombetzki anmerkt.
An der Verwaltung ausgerichtet
Botta kritisiert zudem die Anbindung des Transparenzregisters an den MaKI. Damit stünden bislang die Behördeninteressen im Fokus, wie die Qualitätssicherung und Nachnutzung von KI-Tools durch die Behörden selbst. Diese Interessen betonte auch Heiko Geue beim Pressegespräch anlässlich der 48. Sitzung des IT-Planungsrats Ende November. Geue ist Finanz- und Digitalisierungsminister Mecklenburg-Vorpommerns sowie Vorsitzender des Rats.
Doch Behördeninteressen bildeten nur eine der Anforderungen an das Transparenzregister ab. Dieses solle, so Botta, aber auch für Bürger:innen, die organisierte Zivilgesellschaft und die Wissenschaft KI-Tools und deren Einsatz in der Verwaltung transparent machen. Für sie halte sich der Nutzen aber bislang stark in Grenzen, so der Jurist. Pia Sombetzki sieht derweil die Gefahr, dass das MaKI „zu einem unwirksamen Marktplatz unter vielen“ verkommt und mit ihm das Register.
Esther Menhard ist freie Autorin bei netzpolitik.org. Sie recherchiert zur Digitalisierung der öffentlichen Verwaltung und nimmt dazu gerne Hinweise entgegen. Von Haus aus Philosophin, interessiert sie sich für Datenethik, die Schnittstelle zwischen Wissenschaft und Digitalität, AdTech, Open Access und Open Source. Kontakt: E-Mail (OpenPGP), Mastodon Bluesky. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Im auf englisch geführten Gespräch mit #MatthiasSpielkamp (#AlgorithmWatch) und #MariaExner (#Publix) denkt #MeredithWhittaker darüber nach, wie wir #Technologie wieder stärker an menschlichen Bedürfnissen ausrichten können – und wie wir unsere #Privatsphäre gegenüber grossen Plattformen und Betriebssystem-Anbietern schützen können.
Wir wünschen dir eine spannende und inspirierende Stunde!
https://www.youtube.com/live/y6BVGLpHpJU
2/2
-
Das große #KI-Sprachmodelle unseren Meinungsbildungsprozess beeinflussen, ist ja nichts Neues. Dass sie Wahlen beeinflussen können, haben #algorithmwatch & #aiforensics vor den Landtagswahlen in Hessen und Bayern sowie den Eidgenössischen Wahlen in der Schweiz herausgearbeitet. https://algorithmwatch.org/de/bing-chat-wahlen-2023/
-
Das große #KI-Sprachmodelle unseren Meinungsbildungsprozess beeinflussen, ist ja nichts Neues. Dass sie Wahlen beeinflussen können, haben #algorithmwatch & #aiforensics vor den Landtagswahlen in Hessen und Bayern sowie den Eidgenössischen Wahlen in der Schweiz herausgearbeitet. https://algorithmwatch.org/de/bing-chat-wahlen-2023/
-
Das große #KI-Sprachmodelle unseren Meinungsbildungsprozess beeinflussen, ist ja nichts Neues. Dass sie Wahlen beeinflussen können, haben #algorithmwatch & #aiforensics vor den Landtagswahlen in Hessen und Bayern sowie den Eidgenössischen Wahlen in der Schweiz herausgearbeitet. https://algorithmwatch.org/de/bing-chat-wahlen-2023/
-
Das große #KI-Sprachmodelle unseren Meinungsbildungsprozess beeinflussen, ist ja nichts Neues. Dass sie Wahlen beeinflussen können, haben #algorithmwatch & #aiforensics vor den Landtagswahlen in Hessen und Bayern sowie den Eidgenössischen Wahlen in der Schweiz herausgearbeitet. https://algorithmwatch.org/de/bing-chat-wahlen-2023/
-
Das große #KI-Sprachmodelle unseren Meinungsbildungsprozess beeinflussen, ist ja nichts Neues. Dass sie Wahlen beeinflussen können, haben #algorithmwatch & #aiforensics vor den Landtagswahlen in Hessen und Bayern sowie den Eidgenössischen Wahlen in der Schweiz herausgearbeitet. https://algorithmwatch.org/de/bing-chat-wahlen-2023/