#sprachmodelle — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #sprachmodelle, aggregated by home.social.
-
Wie präzise kann ein KI-Chatbot bei der Diagnose von #Glaukom und #Netzhauterkrankungen wirklich sein?
In einer Studie traten #Sprachmodelle gegen erfahrene Augenärzte an – mit überraschenden Ergebnissen. Besonders junge #Fachärzte könnten von dieser Technologie profitieren.
#Medizin #Ophthalmologie #Augenheilkunde #Science #KINutzen #Retröt
-
📬 Freundliche Chatbots: Bis zu 30 % mehr Fehler im Wohlfühlmodus
#KünstlicheIntelligenz #Studie #empathischeKI #falscheAntworten #freundlicheChatbots #KIFehlerquote #KIRisiken #KIStudie #Sprachmodelle #Sycophancy https://sc.tarnkappe.info/d1ae77 -
Ein Forschungsteam der #Binghamton University entwickelt einen sprechenden #Roboterhund als Assistenz für blinde Menschen.
Das System nutzt große #Sprachmodelle, versteht gesprochene Befehle und beschreibt Routen sowie Hindernisse in Echtzeit. Funktionen wie „Plan Verbalization“ und „Scene Verbalization“ stärken das situative Bewusstsein. Erste Tests mit Probanden zeigen positives Feedback. Weitere Studien und Praxistests sind geplant.
https://www.golem.de/news/kuenstliche-intelligenz-roboter-blindenhund-mit-stimme-2604-207476.html
-
Weil nachgefragt wurde, welcher Aspekt m.E. bei #KI in der #Justiz übersehen wird, hier die Kurzfassung:
"KI" umfasst viel mehr als nur Große #Sprachmodelle (LLM). Dazu gehören auch maschinelles Lernen, algorithmische Systeme etc. Die sollte man bevorzugt nutzen, weil es deterministische Ansätze sind, keine probabilistischen (auf Wahrscheinlichkeit beruhenden) wie LLMs.
Und selbst #LLM ist nicht gleich #LLM: es kommt sehr darauf an, ob nach dem grundlegenden "Spracherwerb" noch einmal auf fachspezifischen Daten die sog. "Gewichte" nachtrainiert wurden.
Viel #Halluzination (richtig: Konfabulation) lässt sich mit Retrieval Augmented Generation (#RAG = Bindung an Wissensdatenbanken für die inhaltliche Auskunft) sowie durch eine niedrige "#Temperatureinstellung" (= Spielraum zur Auswahl nicht nur des allerwahrscheinlichsten nächsten Tokens [Wortbruchstück]) verhindern.
Und dann kann man das Ganze noch so schlau kombinieren, dass LLMs wirklich nur dort eingesetzt werden, wo die anderen Formen der KI nicht weiterkommen. Zur Abrundung lässt sich ein System integrieren, das dem "Human in the Loop" erlaubt, schnell optisch zu erkennen, wo die KI wie und warum entschieden hat - um es ggfl. von Hand zu korrigieren.
In die Richtung geht das AI-based #Rulemapping von Prof. #Breidenbach, das bereits im Echteinsatz Beschwerden gegen Hate-Speech-Entscheidungen der großen Plattformen bearbeitet. Und zwar 1000fach jeden Monat.
Wir sind ja auch froh, wenn unsere Zahnärztin nicht den guten pneumatischen Bohrhammer vom letzten Hausumbau, sondern ihren Spezial-Fein-Bohrer einsetzt und der Chirurg nicht das große Brotmesser aus seiner Küche, sondern sein steriles Skalpell. Was zudem nochmal auf den "Human in the Loop" verweist: wir brauchen - auch in Jura - Menschen, die mit #Sachverstand und #Empathie am Ende die Kontrollfrage stellen: ist das Ergebnis in einem demokratischen Rechtsstaat unter Beachtung der Grund-und Menschenrechte in Ordnung?
#Justiz #Gericht #Urteil #Richter*in #JuraBubble #TeamRechtsstaat
-
Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?
Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser antworten.
https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/
#KI #Sprachmodelle #Halluzinationen #LLM #KITransparenz #KünstlicheIntelligenz #KINews
-
Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?
Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser antworten.
https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/
#KI #Sprachmodelle #Halluzinationen #LLM #KITransparenz #KünstlicheIntelligenz #KINews
-
Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?
Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser antworten.
https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/
#KI #Sprachmodelle #Halluzinationen #LLM #KITransparenz #KünstlicheIntelligenz #KINews
-
Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?
Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser antworten.
https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/
#KI #Sprachmodelle #Halluzinationen #LLM #KITransparenz #KünstlicheIntelligenz #KINews
-
Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?
Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser antworten.
https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/
#KI #Sprachmodelle #Halluzinationen #LLM #KITransparenz #KünstlicheIntelligenz #KINews
-
Wenn #Sprachmodelle plötzlich menschenverachtende Aussagen treffen oder gefährliche Tipps geben, läuft etwas gewaltig schief.
Eine aktuelle Untersuchung zeigt, wie schnell #Feintuning unerwartete Folgen haben kann – mit brisanten Konsequenzen für reale Anwendungen.
Das Phänomen wurde nur durch Zufall entdeckt.
#KI #Sprachmodelle #Finetuning #AIRisiko #LLM #AISecurity #KIMissbrauch #Retröt
-
Gilt das Copyright für KI nicht?
KI ignoriert Urheberrecht
Mehr dazu bei https://the-decoder.de/urheberrechtlich-geschuetzte-romane-lassen-sich-laut-studien-fast-komplett-aus-ki-sprachmodellen-abrufen/
a-fsa.de/d/3Mu
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Tags: #AI #KI #LLM #Sprachmodelle #Wiedergabe #Bücher #Studie #Urheberrecht #illegal #Netzneutralität #OpenSource #DANMode #Transparenz #Informationsfreiheit #Claude3.7Sonnet #GPT-4.1 #Gemini2.5Pro #Grok3 -
Gilt das Copyright für KI nicht?
KI ignoriert Urheberrecht
Mehr dazu bei https://the-decoder.de/urheberrechtlich-geschuetzte-romane-lassen-sich-laut-studien-fast-komplett-aus-ki-sprachmodellen-abrufen/
a-fsa.de/d/3Mu
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Tags: #AI #KI #LLM #Sprachmodelle #Wiedergabe #Bücher #Studie #Urheberrecht #illegal #Netzneutralität #OpenSource #DANMode #Transparenz #Informationsfreiheit #Claude3.7Sonnet #GPT-4.1 #Gemini2.5Pro #Grok3 -
Gilt das Copyright für KI nicht?
KI ignoriert Urheberrecht
Mehr dazu bei https://the-decoder.de/urheberrechtlich-geschuetzte-romane-lassen-sich-laut-studien-fast-komplett-aus-ki-sprachmodellen-abrufen/
a-fsa.de/d/3Mu
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Tags: #AI #KI #LLM #Sprachmodelle #Wiedergabe #Bücher #Studie #Urheberrecht #illegal #Netzneutralität #OpenSource #DANMode #Transparenz #Informationsfreiheit #Claude3.7Sonnet #GPT-4.1 #Gemini2.5Pro #Grok3 -
Gilt das Copyright für KI nicht?
KI ignoriert Urheberrecht
Mehr dazu bei https://the-decoder.de/urheberrechtlich-geschuetzte-romane-lassen-sich-laut-studien-fast-komplett-aus-ki-sprachmodellen-abrufen/
a-fsa.de/d/3Mu
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9408-20260115-gilt-das-copyright-fuer-ki-nicht.html
Tags: #AI #KI #LLM #Sprachmodelle #Wiedergabe #Bücher #Studie #Urheberrecht #illegal #Netzneutralität #OpenSource #DANMode #Transparenz #Informationsfreiheit #Claude3.7Sonnet #GPT-4.1 #Gemini2.5Pro #Grok3 -
#AI #Jailbreaking: Eine Studie belegt, dass Umformulieren schädlicher Anfragen in Versform als universelle Jailbreak-Methode funktioniert. Über 25 führende #Sprachmodelle hinweg erreichten poetische Prompts Erfolgsraten von bis zu 100%.
Warum das so ist? Metaphern, rhythmische Strukturen und ungewöhnliche Erzählweisen stören die Mustererkennungs-Mechanismen der #Sicherheitsfilter, indem eigentlich weniger harmlose Anfragen mit harmlos wirkenden Versen kombiniert werden:
https://the-decoder.de/poesie-als-sicherheitsluecke-gedichte-hebeln-sprachmodelle-aus/
-
KI-Sprachmodelle zeigen Vorurteile gegen regionale deutsche Sprachvarianten: Neue Studie zur Reaktion von Künstlicher Intelligenz auf Dialektäußerungen // #KünstlicheIntelligenz #Sprachmodelle #LLMs #Computerlinguistik #Dialekte #UniMainz
https://nachrichten.idw-online.de/2025/11/12/ki-sprachmodelle-zeigen-vorurteile-gegen-regionale-deutsche-sprachvarianten -
KI-Sprachmodelle zeigen Vorurteile gegen regionale deutsche Sprachvarianten: Neue Studie zur Reaktion von Künstlicher Intelligenz auf Dialektäußerungen 👉 https://presse.uni-mainz.de/ki-sprachmodelle-zeigen-vorurteile-gegen-regionale-deutsche-sprachvarianten/
#KünstlicheIntelligenz #Sprachmodelle #LLMs #Computerlinguistik #Dialekte
-
#Shoutout geh raus an alle KI-begeisterten polnisch Sprechenden:
#Polnisch erzielt bei der Interaktion mit #KI die besten Ergebnisse unter 26 getesteten Sprachen.
Eine Analyse zeigte, dass große #Sprachmodelle Aufgaben auf Polnisch mit durchschnittlich 88 % Genauigkeit lösen.
#Englisch landete nur auf Platz sechs. Überraschend schnitt auch #Chinesisch deutlich schlechter ab.
#artificialintelligence #Polen #GenAI #ChatBots #KünstlicheIntelligenz
-
Clickbait führt bei KI-Modellen zu kognitivem Rückbau
Eine aktuelle Studie untersucht, wie sich minderwertige Internet-Inhalte wie Clickbait und oberflächliche Social-Media-Posts auf große KI-Sprachmodelle auswirken. Die Ergebnisse legen nahe, dass eine schlechte Datengrundlage die Leistung
https://www.apfeltalk.de/magazin/news/clickbait-fuehrt-bei-ki-modellen-zu-kognitivem-rueckbau/
#KI #News #Clickbait #Forschung #Internet #KI #Llama3 #LLM #Qwen #Sprachmodelle #Studie #Trainingsdaten -
Vielen Dank für die sehr interessanten #IgniteTalks an Fabian Fricke, Anja Gerber, Stefan Buddenbohm, Lasse Mempel-Länger und Lennart Linde ✨. Es gab #Datenhorrorgeschichten rund um #LIDO, #Textgrid, #Sprachmodelle und #CulturalChange. 👻
Vielen Dank für die Fotos an Bernhard Weisser, Florian Thiery, Stefan Buddenbohm und Nathaly Witt 👋😊
-
#SteadyCommunityContent #KINutzen #Retröt
Wie präzise kann ein KI-Chatbot bei der Diagnose von #Glaukom und #Netzhauterkrankungen wirklich sein?
In einer Studie traten #Sprachmodelle gegen erfahrene Augenärzte an – mit überraschenden Ergebnissen. Besonders junge #Fachärzte könnten von dieser Technologie profitieren.
-
So schützt Apple Intelligence Deine Privatsphäre im Vergleich zur Konkurrenz
Künstliche Intelligenz (KI) steht seit Jahren im Fokus der Tech-Branche. Große Sprachm
https://www.apfeltalk.de/magazin/news/so-schuetzt-apple-intelligence-deine-privatsphaere-im-vergleich-zur-konkurrenz/
#KI #News #AppleFoundationalModels #AppleIntelligence #ChatGPTIntegration #CloudComputing #Datenschutz #KI #KnstlicheIntelligenz #OnDeviceModelle #OpenAI #PrivateCloudCompute #Privatsphre #Siri #Sprachmodelle -
Gerichtsurteil: KI-Training bei Anthropic mit urheberrechtlich geschützten Werken gilt als faire Nutzung
Ein US-Gerichtsurteil hat das kontroverse Thema der Nutzung urheberrechtlich g
https://www.apfeltalk.de/magazin/news/gerichtsurteil-ki-training-bei-anthropic-mit-urheberrechtlich-geschuetzten-werken-gilt-als-faire-nutzung/
#News #Services #Tellerrand #Anthropic #FaireNutzung #GeistigesEigentum #Gerichtsurteil #KIRecht #KITraining #Piraterie #Sprachmodelle #Urheberrechte #WilliamAlsup -
Erpresserische KI
"Roboter sind auch nur Menschen"
Mehr dazu bei https://www.heise.de/news/Studie-Grosse-KI-Modelle-greifen-unter-Stress-auf-Erpressung-zurueck-10455051.html
a-fsa.de/d/3HN
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/9195-20250624-erpresserische-ki.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9195-20250624-erpresserische-ki.html
Tags: #Manipulation #Drohungen #Erpressung #Selbsterhaltung #KI #AI-Act #EU #Gefahren #Fehler #Hacker #Ethik #sensibleDaten #Studie #Sprachmodelle #Claude #Gemini #Grok #Zugriff #Hersteller #Datenpannen #Datenskandale #Transparenz #Informationsfreiheit -
#OpenAI verkürzt #Sicherheitstests von Monaten auf Tage
Unter dem Druck, neue #Sprachmodelle schnell zu veröffentlichen, verkürzt #OpenAI die #Sicherheitstests für seine #KIs drastisch.
-
Der Einsatz von #KI nimmt rapide zu und mit ihm der #Stromverbrauch.
Große #Sprachmodelle benötigen beim Training und im Betrieb immense #Energie. Oft fehlt es an Transparenz über den tatsächlichen #Strombedarf. KI-Systeme werden selbst in Geräten wie #Zahnbürsten verbaut – oft ohne echten Mehrwert.
https://taz.de/Stromfresser-Kuenstliche-Intelligenz/!6077262/
#Digitalisierung #Rechenzentren #Technologie #CO2Emmissionen #Umweltfolgen #Energieeffizienz
-
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
-
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
-
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
-
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
-
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
-
📬 BREIN vs. GEITje LLM: Niederländisches KI-Sprachmodell abgeschaltet
#KünstlicheIntelligenz #Rechtssachen #BREIN #EdwinRijgersberg #OpenSourceKI #Sprachmodelle #Urheberrecht https://sc.tarnkappe.info/1cc4a2 -
Große #Sprachmodelle (LLMs) könnten medizinischem Personal bei der Erstellung von #Dokumentationen helfen. Wissenschaftler aus #Freiburg testeten mehrere nicht-kommerzielle LLMs für die Erstellung von Abschlussberichten eines Behandlers (Epikrise-Bericht). Ihre Studie zeigte, dass auch nicht-proprietäre und lokal betriebene KI-Systeme in der Lage sind, bei der medizinischen #Textgenerierung zu helfen.
#Healthcare #KI #LLM #Datenschutz #Technologie #Compliance #Science
-
Apple treibt die KI-Branche mit neuen Open-Source-Modellen voran
Apple hat zwei neue, leistungsstarke Sprachmodelle veröffentlicht. Diese Modelle sollen Entwickler:innen und Unternehmen weltweit zugutekommen und zeigen, wie Apple kompakte, aber
https://www.apfeltalk.de/magazin/news/apple-treibt-die-ki-branche-mit-neuen-open-source-modellen-voran/
#KI #News #AIModelle #Apple #DataComp #Innovation #KIForschung #KnstlicheIntelligenz #MachineLearning #OpenSource #Sprachmodelle #Technologie -
Über LLM (Large Language Models) wie #ChatGPT #GoogleBard und #BingAI wird viel geredet, wir haben 7 Tipps zu den Chancen und Risken dieser Systeme.
Link zur Guideline zur Sicheren Nutzung von LLM:
https://researchinstitute.at/guidelines-zur-sicheren-nutzung-von-large-language-models-llm/
-
Am Hirnscan ablesen, welche Geschichte ein Proband sich ausdenkt? Das geht verblüffend gut, wenn einem die KI beim Raten hilft. Wie genau, machte nun ein Forscherteam vor.#Hirnforschung #Neurowissenschaft #KünstlicheIntelligenz #Sprachmodelle #Gedankenlesen #Magnetresonanztomografie #FMRT #FMRI #BildgebendeVerfahren #PsychologieHirnforschung #ITTech
Wenn die KI ins Hirn blickt -
Es gibt zwei Qualitätsstufen von Trainingsdaten für Sprachmodelle: elaborierte Texte oder Nutzerkommentare. Erstere könnten bald knapp werden.
KI-Modelle: Es droht ein Mangel an Trainingsdaten -
heise+ | Sprachmodelle: Was ist ein Terrorist, GPT-3?
Die großen Sprachmodelle hinter Chatbots werden mit Unmengen persönlicher Daten aus dem Internet trainiert. Das kann aus Politikern Terroristen machen.
Sprachmodelle: Was ist ein Terrorist, GPT-3? -
Große Sprachmodelle können private Daten wie Adressen oder Telefonnummern preisgeben. TR-Autorin Melissa Heikkilä wagt einen Selbstversuch.
Wie GPT-3 aus einer Tech-Redakteurin eine Schönheitskönigin machte -
heise+ | KI und Bewusstsein: Vor welchen Dingen hast du Angst, LaMDA?
Google-Ingenieur Blake Lemoine behauptet, dass die KI LaMDA ein Bewusstsein entwickelt hat. Das bewiesen die mit ihr geführten Gespräche. Wir liefern Auszüge.
KI und Bewusstsein: Vor welchen Dingen hast du Angst, LaMDA?