home.social

#kiagenten — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #kiagenten, aggregated by home.social.

  1. KI-basierte Fraud-Agenten durchbrechen klassische KYC-Schutzmechanismen, indem sie aus jedem Review-Abbruch lernen und ihr Vorgehen autonom optimieren. Ihre flexible Architektur aus Orchestrator, Tool-Runner, persistentem Speicher und Feedback-Modul macht sie anpassungsfähig und zu einer realen Gefahr für Banken.
    #Aktuell #Security #AI #Betrug #KIAgenten
    https://w...
    it-finanzmagazin.de/black-box-

  2. Zeitenwende: Natürliche Sprache wird zur neuen Bedienoberfläche

    Ende 2011 habe ich hier im Blog über Siri und KI-Systeme für Unternehmen geschrieben: Nach Tastatur, Maus und Touchscreen wird Sprache das nächste natürliche Interface sein — für den Computer, fürs iPhone, fürs SmartHome. „Alles nur eine Frage der Zeit.“ Das war vor fünfzehn Jahren. Lange Zeit sah es nicht danach aus. Siri blieb der Wetterfrosch, Alexa der Einkaufsknopf, der Google Assistant der Timer-Steller. Die entsprechenden Geräte und smarten Lautsprecher habe ich 2018 als trojanisches Pferd in unseren Wohnzimmern beschrieben, weil sie viel zu wenig konnten und gleichzeitig viel zu viel abhörten. Diese Gefahr besteht übrigens noch immer.

    Aber jetzt scheint der Moment gekommen, in dem das lange angekündigte Versprechen plötzlich wahr werden könnte. Wir tippen oder sprechen in natürlichen Sätzen mit unseren Geräten. Genauer: Large Language Models auf unseren Devices verstehen uns — endlich. Jörg Schieb bringt es in seinem Kommentar zu Claude Design auf den Punkt: „Wir erleben gerade, wie Textbeschreibung zur neuen Universalsprache für Produktion wird. Erst Code (Claude Code), dann Dokumente (Claude.ai), jetzt Design (Claude Design). Der Trend ist eindeutig: Du beschreibst, KI baut.“ Das ist ein bahnbrechender Paradigmenwechsel.

    Vom Kommando zum Dialog — warum Siri den Durchbruch verpasst hat

    Der Unterschied zu den Sprachassistenten der 2010er Jahre ist technisch, aber seine Folgen sind kulturell. Siri, Alexa und der Google Assistant waren Kommandoparser: Sie bildeten natürliche Sprache auf ein enges Set vordefinierter Funktionen ab. Sagte man etwas Unerwartetes, hieß es „Das habe ich leider nicht verstanden“.

    Large Language Models, große Sprachmodelle wie die von Claude, ChatGPT, Gemini oder Le Chat sind keine solchen Parser mehr. Sie sind laut aktuellem Überblick zur Mensch-Maschine-Interaktion ein Reasoning-Layer, der unvollständige, kontextuelle Sätze versteht und auf Absicht reagiert, nicht auf Schlüsselwörter. Erst durch diese Fähigkeit wird Sprache tatsächlich zur neuen Benutzerschnittstelle. Ein Klick sagt dem Computer „öffne das“. Ein Satz an ein Sprachmodell dagegen „buche mir die Reise per Bahn nach Berlin inklusive Hotel in meiner Kategorie zwischen dem 17. und 20. Mai“.

    Andrej Karpathy, eine der einflussreichsten Stimmen der KI-Szene, zieht die Parallele zur Einführung der grafischen Benutzeroberfläche in den 1980ern. Damals ersetzten die Icons von Windows die Kommandozeile. Heute ersetzt die Beschreibung das Icon. Wer in Zukunft produktiv arbeiten will, beschreibt — und die Maschine baut oder führt Dinge autonom aus.

    Im privaten Alltag: Sprache macht aus dem Smartphone einen Mitarbeiter

    Auch privat wird sich grundlegend ändern, wie wir unser Smartphone oder die Geräte im Smart Home bedienen und nutzen. Das ewig nicht eingelöste Versprechen, das Apple 2011 mit Siri gegeben hat — dein Telefon versteht dich und hilft dir — wird jetzt eingelöst, nur von anderen Anbietern und in einer anderen Dimension.

    Statt auf Programmsymbole zu klicken oder zu „touchen“, sprechen wir künftig mit unserem Smartphone. Genauer: Wir sprechen mit den dort installierten Large Language Models wie ChatGPT in ganzen Sätzen und sagen, was wir wollen. Zurück bekommen wir nicht eine Ergebnisliste mit Links, sondern stattdessen das Ergebnis. Einen Reiseplan. Eine gegengelesene E-Mail. Vielleicht künftig die Einkaufsliste basierend auf dem Foto meines leeren Kühlschranks. Eine Präsentation für die Jahreshauptversammlung meines Vereins über den neuen Grill. Eine E-Mail, mit der ich meine Freunde zu meiner Geburtstagsfeier einlade — genau in meinem Ton, da ich dem System meine alten Texte und E-Mails zum Lesen gegeben habe.

    Das ist keine Zukunftsmusik mehr. Früher musste ich wissen, welche App ich öffne, welchen Button ich drücke, wo ich den Befehl im Menü finde. Künftig reicht die Beschreibung dessen, was ich erreichen will. Welches Programm im Hintergrund benutzt wird, das erledigt die Künstliche Intelligenz. Das ist — nach Tastatur, Maus, Touch — tatsächlich die nächste Stufe der Bedienung, die ich 2011 vorhergesagt habe. Mit fünfzehn Jahren Verspätung und von anderen Anbietern erfüllt, als ich damals vermutete.

    Der Preis der Bequemlichkeit: Hirn einschalten, Kontrolle behalten

    In natürlicher Sprache formulierte Sätze, egal ob getippt oder gesprochen, sind also das neue Interface. Das ist ungemein komfortabel. Ich beschreibe in meinen eigenen Worten, was ich brauche, und bekomme ein Ergebnis. Oft verblüffend gut. Manchmal beeindruckend. Und nicht selten einfach falsch.

    Wenn ich heute in Google suche, bekomme ich nicht mehr nur Links, sondern eine Zusammenfassung in natürlicher Sprache. Ingrid Brodnig hat das gerade einmal für die Google-KI-Übersichten vorgerechnet: Selbst wenn neun von zehn Antworten stimmen — bei über fünf Billionen Google-Suchanfragen pro Jahr bedeutet die verbleibende Fehlerquote zig Millionen falscher Antworten pro Stunde. Und eine EBU-Studie der öffentlich-rechtlichen Rundfunkanstalten fand sogar in 45 Prozent der geprüften KI-Antworten mindestens einen erheblichen Fehler. Besonders gemein: Die Modelle formulieren gerade dann am selbstbewusstesten, wenn sie sich irren — also falsche Aussagen treffen.

    Je bequemer es wird, desto größer die Versuchung, Kontrolle abzugeben, weil es dann ja so einfach ist. Dabei geht es nicht nur darum, Fakten und Quellen zu prüfen, auf deren Basis uns die KI antwortet. Es geht auch wieder einmal um unsere eigenen Daten. Wer einer KI einmal Zugriff auf E-Mails, Kalender, Dateien, Browser-Verlauf gibt, damit der KI-Agent „alles einfacher macht“, öffnet ein Tor, das sich schwer wieder schließen lässt. Und je weniger Mühe uns die Antwort kostet, desto weniger prüfen wir sie. Gerade bei vermeintlich trivialen Fragen — wann ist X gestorben, wie heißt das Gericht, wo liegt der Ort — scannen wir die Antwort nur noch.

    Genau deshalb bleibt das eigene Hirn unersetzlich. Das eigene Misstrauen. Die eigene Kontrolle. Sprache als Interface ist ein Produktivitätsgeschenk — aber nur, wenn ich die Fähigkeit behalte, zu prüfen und zu widersprechen. Dem Modell. Dem Ergebnis. Und manchmal auch der Bequemlichkeit, mit der es mir serviert wird.

    Im Unternehmen: Beschreibung ersetzt Bedienung — und das bricht Hierarchien auf

    Auch im Beruf wird der Effekt deutlich zu spüren sein. Industrie-Prognosen rechnen damit, dass natürliche Sprache bis 2026 zur Standard-Schnittstelle für Unternehmensdaten-Workloads wird. Wer eine Auswertung, eine Präsentation, einen Prototyp braucht, öffnet kein Tool mehr. Er oder sie beschreibt, was gebraucht wird. Code, Dokumente, Designs, Analysen — alles entsteht aus dem gleichen Input: Sprache.

    Die Folgen sind handfest. Die Grenze zwischen Anwendern und System-Designerin oder -Designer löst sich auf. Wer früher auf die IT-Abteilung warten musste, lässt sich heute das Dashboard von Claude bauen. Wer früher ein Agenturbriefing schreiben musste, kann sich heute von der KI ein Mockup in zwanzig Minuten erstellen lassen.

    Das klingt komfortabel — aber es trifft unweigerlich den Mittelbau vieler Wissensberufe: Leute, die Geld damit verdient haben, Templates umzufärben, PowerPoints zu schubsen, Standardcode zu schreiben, Standardtexte zu redigieren. Dieser Mittelbau wackelt. Warten wir mal ab, ob sich das Versprechen bewahrheitet, mit der neuen KI-Arbeitsweise in zwei Jahren das Dreifache bei gleicher Teamgröße zu schaffen.

    Der nächste Schritt: Die KI übernimmt den Rechner

    Und weil die Entwicklung gerade erst richtig Fahrt aufnimmt, folgt die nächste Stufe auf dem Fuß. Sprache bleibt nicht im Chat-Fenster. Sie wandert in den Rechner selbst. Was der Business Punk in den letzten Tagen als „KI-Krieg ums Desktop-Monopol“ beschreibt, ist der konsequente nächste Schritt: Google liefert uns jetzt mit Gemma 4 eine KI, die autonom auf unserem Rechner läuft — erst einmal ohne Verbindung zu den „großen“ Large Language Models von Google. Diese lokal auf meinem Mac laufende KI kann wohl alles, was man so privat braucht — und ist kostenlos. Das Prinzip ist alt: Wir füttern Kundinnen und Kunden an und verdienen dann an allem drum herum.

    Doch natürlich gibt es gute Gründe dafür, ein Large Language Model lokal laufen zu lassen. Das ist einmal der Datenschutz, denn viele Daten wandern einfach nicht in die Cloud der großen Tech Bros. Mit der lokalen KI ist man unabhängiger und es kostet weniger als die Abos von Gemini oder anderen Tools. Last but not least verbraucht man keine Energie in Rechenzentren, da alles lokal auf dem Rechner läuft.

    Die KI Gemma 4 von Google läuft auf unserem Rechner daheim. Andere Anbieter wie Anthropic mit Claude Cowork, OpenAI oder Perplexity bieten Tools an, die auch lokal laufen, aber eben kontinuierlich mit den KI-Modellen der Anbieter in der Cloud kommunizieren. OpenAI hat Codex mit einer Funktion namens „Background Computer Use“ ausgestattet — die KI klickt, tippt, steuert Apps parallel zur eigenen Arbeit, plant sich Aufgaben über Tage oder Wochen selbst.

    Oder aber Claude Cowork von Anthropic, das in der Lage ist, meinen Mac komplett selbständig zu bedienen. Wir sprechen mit dem Computer oder geben per Tastatur unsere Anweisungen ein, die KI arbeitet diese ab und steuert meinen Rechner. Ich sage nicht mehr nur einfach „Claude, schreib mir einen Text“ — sondern „Claude, geh in meine Ablage, sortiere den Quartalsreport, bau daraus die Präsentation für Donnerstag, und schick sie vorab an das Team“. Dies hat eine ganz andere Qualität.

    Was heute noch holprig funktioniert, wird laut vieler Prognosen in zwei Jahren Standard sein. Damit einher geht, dass ich potenziell den letzten privaten digitalen Rückzugswinkel, die Kontrolle über meinen Computer und die darauf befindlichen Daten verlieren könnte. Wer den Sprach-Layer auf meinem Rechner kontrolliert, könnte alles sehen, was dort passiert und gespeichert ist. Jede Datei. Jede Mail. Jedes offene Fenster. Das macht die aktuelle Debatte um „Agentic AI“ und wie viele Rechte ich der KI gebe so zentral. Wieder einmal stellt sich die Frage, wie viel Bequemlichkeit man will und wie viel man von seiner Privatsphäre bereit ist, dafür abzugeben.

    Das bequeme, ach so indiskrete Helferlein?

    Natürlich ist das auch komfortabel, aber der Preis bei Siri und Alexa hieß: „Amazon owns my Echo; I’m just feeding it.“ Das trojanische Pferd steht nicht mehr nur im Wohnzimmer, es läuft demnächst ständig im Hintergrund auf unseren Notebooks, Smartphones und iPads mit und sieht alle unsere Daten. Und wieder einmal sind es fast ausschließlich US-amerikanische Konzerne, Google, OpenAI, Microsoft oder Anthropic, die davon profitieren. Das kleine gallische Dorf, Mistral aus Frankreich, versucht sich zu behaupten, hat es aber schwer. Und ob der neue deutsch-kanadische Zusammenschluss, besser die Übernahme von Aleph Alpha durch Cohere, mehr Souveränität für europäische Nutzer bedeutet, bleibt abzuwarten.

    Sprache wird sich als neue Benutzeroberfläche durchsetzen und das ergibt absolut Sinn. Doch in der Kombination mit den Large Language Models und KI-Agenten entstehen neue Risiken, deren man sich bewusst sein sollte. Meine Befürchtung ist, dass sich viele Privatanwender darüber keine Gedanken machen werden und ihre Daten (Bank, Kreditkarte, Pass, Steuer, Sozialversicherung oder Gesundheitsdaten) freiwillig zur Verfügung stellen werden — weil es die Kombination von Sprache und KI so einfach macht, lästige Arbeiten durch die KI-Agenten erledigen zu lassen.

    Für uns in Europa heißt das konkret: Wenn Sprache die Universalsprache zur Steuerung unserer Rechner wird — und die Modelle dahinter allesamt in Kalifornien, Seattle oder New York stehen und sich gleichzeitig in unsere Betriebssysteme einnisten — dann wird es eng mit unserer digitalen Souveränität. Noch sehe ich keine europäische Alternative. Vielmehr nistet sich bald die Google-KI Gemini auf meinem iPhone ein, sodass mich Siri trotz meines hessischen Slangs endlich versteht. Aber keine Sorge: Es wird ja alles ganz privat in den Apple-Rechenzentren gespeichert.

    #allgemein #Anthropic #Apple #chatgpt #Claude #Datenschutz #DigitaleSouveränität #gemini #Google #KI #KIAgenten #LLM #MistralAI #OpenAI #Siri #Sprachassistenten #Wirtschaft
  3. Zeitenwende: Natürliche Sprache wird zur neuen Bedienoberfläche

    Ende 2011 habe ich hier im Blog über Siri und KI-Systeme für Unternehmen geschrieben: Nach Tastatur, Maus und Touchscreen wird Sprache das nächste natürliche Interface sein — für den Computer, fürs iPhone, fürs SmartHome. „Alles nur eine Frage der Zeit.“ Das war vor fünfzehn Jahren. Lange Zeit sah es nicht danach aus. Siri blieb der Wetterfrosch, Alexa der Einkaufsknopf, der Google Assistant der Timer-Steller. Die entsprechenden Geräte und smarten Lautsprecher habe ich 2018 als trojanisches Pferd in unseren Wohnzimmern beschrieben, weil sie viel zu wenig konnten und gleichzeitig viel zu viel abhörten. Diese Gefahr besteht übrigens noch immer.

    Aber jetzt scheint der Moment gekommen, in dem das lange angekündigte Versprechen plötzlich wahr werden könnte. Wir tippen oder sprechen in natürlichen Sätzen mit unseren Geräten. Genauer: Large Language Models auf unseren Devices verstehen uns — endlich. Jörg Schieb bringt es in seinem Kommentar zu Claude Design auf den Punkt: „Wir erleben gerade, wie Textbeschreibung zur neuen Universalsprache für Produktion wird. Erst Code (Claude Code), dann Dokumente (Claude.ai), jetzt Design (Claude Design). Der Trend ist eindeutig: Du beschreibst, KI baut.“ Das ist ein bahnbrechender Paradigmenwechsel.

    Vom Kommando zum Dialog — warum Siri den Durchbruch verpasst hat

    Der Unterschied zu den Sprachassistenten der 2010er Jahre ist technisch, aber seine Folgen sind kulturell. Siri, Alexa und der Google Assistant waren Kommandoparser: Sie bildeten natürliche Sprache auf ein enges Set vordefinierter Funktionen ab. Sagte man etwas Unerwartetes, hieß es „Das habe ich leider nicht verstanden“.

    Large Language Models, große Sprachmodelle wie die von Claude, ChatGPT, Gemini oder Le Chat sind keine solchen Parser mehr. Sie sind laut aktuellem Überblick zur Mensch-Maschine-Interaktion ein Reasoning-Layer, der unvollständige, kontextuelle Sätze versteht und auf Absicht reagiert, nicht auf Schlüsselwörter. Erst durch diese Fähigkeit wird Sprache tatsächlich zur neuen Benutzerschnittstelle. Ein Klick sagt dem Computer „öffne das“. Ein Satz an ein Sprachmodell dagegen „buche mir die Reise per Bahn nach Berlin inklusive Hotel in meiner Kategorie zwischen dem 17. und 20. Mai“.

    Andrej Karpathy, eine der einflussreichsten Stimmen der KI-Szene, zieht die Parallele zur Einführung der grafischen Benutzeroberfläche in den 1980ern. Damals ersetzten die Icons von Windows die Kommandozeile. Heute ersetzt die Beschreibung das Icon. Wer in Zukunft produktiv arbeiten will, beschreibt — und die Maschine baut oder führt Dinge autonom aus.

    Im privaten Alltag: Sprache macht aus dem Smartphone einen Mitarbeiter

    Auch privat wird sich grundlegend ändern, wie wir unser Smartphone oder die Geräte im Smart Home bedienen und nutzen. Das ewig nicht eingelöste Versprechen, das Apple 2011 mit Siri gegeben hat — dein Telefon versteht dich und hilft dir — wird jetzt eingelöst, nur von anderen Anbietern und in einer anderen Dimension.

    Statt auf Programmsymbole zu klicken oder zu „touchen“, sprechen wir künftig mit unserem Smartphone. Genauer: Wir sprechen mit den dort installierten Large Language Models wie ChatGPT in ganzen Sätzen und sagen, was wir wollen. Zurück bekommen wir nicht eine Ergebnisliste mit Links, sondern stattdessen das Ergebnis. Einen Reiseplan. Eine gegengelesene E-Mail. Vielleicht künftig die Einkaufsliste basierend auf dem Foto meines leeren Kühlschranks. Eine Präsentation für die Jahreshauptversammlung meines Vereins über den neuen Grill. Eine E-Mail, mit der ich meine Freunde zu meiner Geburtstagsfeier einlade — genau in meinem Ton, da ich dem System meine alten Texte und E-Mails zum Lesen gegeben habe.

    Das ist keine Zukunftsmusik mehr. Früher musste ich wissen, welche App ich öffne, welchen Button ich drücke, wo ich den Befehl im Menü finde. Künftig reicht die Beschreibung dessen, was ich erreichen will. Welches Programm im Hintergrund benutzt wird, das erledigt die Künstliche Intelligenz. Das ist — nach Tastatur, Maus, Touch — tatsächlich die nächste Stufe der Bedienung, die ich 2011 vorhergesagt habe. Mit fünfzehn Jahren Verspätung und von anderen Anbietern erfüllt, als ich damals vermutete.

    Der Preis der Bequemlichkeit: Hirn einschalten, Kontrolle behalten

    In natürlicher Sprache formulierte Sätze, egal ob getippt oder gesprochen, sind also das neue Interface. Das ist ungemein komfortabel. Ich beschreibe in meinen eigenen Worten, was ich brauche, und bekomme ein Ergebnis. Oft verblüffend gut. Manchmal beeindruckend. Und nicht selten einfach falsch.

    Wenn ich heute in Google suche, bekomme ich nicht mehr nur Links, sondern eine Zusammenfassung in natürlicher Sprache. Ingrid Brodnig hat das gerade einmal für die Google-KI-Übersichten vorgerechnet: Selbst wenn neun von zehn Antworten stimmen — bei über fünf Billionen Google-Suchanfragen pro Jahr bedeutet die verbleibende Fehlerquote zig Millionen falscher Antworten pro Stunde. Und eine EBU-Studie der öffentlich-rechtlichen Rundfunkanstalten fand sogar in 45 Prozent der geprüften KI-Antworten mindestens einen erheblichen Fehler. Besonders gemein: Die Modelle formulieren gerade dann am selbstbewusstesten, wenn sie sich irren — also falsche Aussagen treffen.

    Je bequemer es wird, desto größer die Versuchung, Kontrolle abzugeben, weil es dann ja so einfach ist. Dabei geht es nicht nur darum, Fakten und Quellen zu prüfen, auf deren Basis uns die KI antwortet. Es geht auch wieder einmal um unsere eigenen Daten. Wer einer KI einmal Zugriff auf E-Mails, Kalender, Dateien, Browser-Verlauf gibt, damit der KI-Agent „alles einfacher macht“, öffnet ein Tor, das sich schwer wieder schließen lässt. Und je weniger Mühe uns die Antwort kostet, desto weniger prüfen wir sie. Gerade bei vermeintlich trivialen Fragen — wann ist X gestorben, wie heißt das Gericht, wo liegt der Ort — scannen wir die Antwort nur noch.

    Genau deshalb bleibt das eigene Hirn unersetzlich. Das eigene Misstrauen. Die eigene Kontrolle. Sprache als Interface ist ein Produktivitätsgeschenk — aber nur, wenn ich die Fähigkeit behalte, zu prüfen und zu widersprechen. Dem Modell. Dem Ergebnis. Und manchmal auch der Bequemlichkeit, mit der es mir serviert wird.

    Im Unternehmen: Beschreibung ersetzt Bedienung — und das bricht Hierarchien auf

    Auch im Beruf wird der Effekt deutlich zu spüren sein. Industrie-Prognosen rechnen damit, dass natürliche Sprache bis 2026 zur Standard-Schnittstelle für Unternehmensdaten-Workloads wird. Wer eine Auswertung, eine Präsentation, einen Prototyp braucht, öffnet kein Tool mehr. Er oder sie beschreibt, was gebraucht wird. Code, Dokumente, Designs, Analysen — alles entsteht aus dem gleichen Input: Sprache.

    Die Folgen sind handfest. Die Grenze zwischen Anwendern und System-Designerin oder -Designer löst sich auf. Wer früher auf die IT-Abteilung warten musste, lässt sich heute das Dashboard von Claude bauen. Wer früher ein Agenturbriefing schreiben musste, kann sich heute von der KI ein Mockup in zwanzig Minuten erstellen lassen.

    Das klingt komfortabel — aber es trifft unweigerlich den Mittelbau vieler Wissensberufe: Leute, die Geld damit verdient haben, Templates umzufärben, PowerPoints zu schubsen, Standardcode zu schreiben, Standardtexte zu redigieren. Dieser Mittelbau wackelt. Warten wir mal ab, ob sich das Versprechen bewahrheitet, mit der neuen KI-Arbeitsweise in zwei Jahren das Dreifache bei gleicher Teamgröße zu schaffen.

    Der nächste Schritt: Die KI übernimmt den Rechner

    Und weil die Entwicklung gerade erst richtig Fahrt aufnimmt, folgt die nächste Stufe auf dem Fuß. Sprache bleibt nicht im Chat-Fenster. Sie wandert in den Rechner selbst. Was der Business Punk in den letzten Tagen als „KI-Krieg ums Desktop-Monopol“ beschreibt, ist der konsequente nächste Schritt: Google liefert uns jetzt mit Gemma 4 eine KI, die autonom auf unserem Rechner läuft — erst einmal ohne Verbindung zu den „großen“ Large Language Models von Google. Diese lokal auf meinem Mac laufende KI kann wohl alles, was man so privat braucht — und ist kostenlos. Das Prinzip ist alt: Wir füttern Kundinnen und Kunden an und verdienen dann an allem drum herum.

    Doch natürlich gibt es gute Gründe dafür, ein Large Language Model lokal laufen zu lassen. Das ist einmal der Datenschutz, denn viele Daten wandern einfach nicht in die Cloud der großen Tech Bros. Mit der lokalen KI ist man unabhängiger und es kostet weniger als die Abos von Gemini oder anderen Tools. Last but not least verbraucht man keine Energie in Rechenzentren, da alles lokal auf dem Rechner läuft.

    Die KI Gemma 4 von Google läuft auf unserem Rechner daheim. Andere Anbieter wie Anthropic mit Claude Cowork, OpenAI oder Perplexity bieten Tools an, die auch lokal laufen, aber eben kontinuierlich mit den KI-Modellen der Anbieter in der Cloud kommunizieren. OpenAI hat Codex mit einer Funktion namens „Background Computer Use“ ausgestattet — die KI klickt, tippt, steuert Apps parallel zur eigenen Arbeit, plant sich Aufgaben über Tage oder Wochen selbst.

    Oder aber Claude Cowork von Anthropic, das in der Lage ist, meinen Mac komplett selbständig zu bedienen. Wir sprechen mit dem Computer oder geben per Tastatur unsere Anweisungen ein, die KI arbeitet diese ab und steuert meinen Rechner. Ich sage nicht mehr nur einfach „Claude, schreib mir einen Text“ — sondern „Claude, geh in meine Ablage, sortiere den Quartalsreport, bau daraus die Präsentation für Donnerstag, und schick sie vorab an das Team“. Dies hat eine ganz andere Qualität.

    Was heute noch holprig funktioniert, wird laut vieler Prognosen in zwei Jahren Standard sein. Damit einher geht, dass ich potenziell den letzten privaten digitalen Rückzugswinkel, die Kontrolle über meinen Computer und die darauf befindlichen Daten verlieren könnte. Wer den Sprach-Layer auf meinem Rechner kontrolliert, könnte alles sehen, was dort passiert und gespeichert ist. Jede Datei. Jede Mail. Jedes offene Fenster. Das macht die aktuelle Debatte um „Agentic AI“ und wie viele Rechte ich der KI gebe so zentral. Wieder einmal stellt sich die Frage, wie viel Bequemlichkeit man will und wie viel man von seiner Privatsphäre bereit ist, dafür abzugeben.

    Das bequeme, ach so indiskrete Helferlein?

    Natürlich ist das auch komfortabel, aber der Preis bei Siri und Alexa hieß: „Amazon owns my Echo; I’m just feeding it.“ Das trojanische Pferd steht nicht mehr nur im Wohnzimmer, es läuft demnächst ständig im Hintergrund auf unseren Notebooks, Smartphones und iPads mit und sieht alle unsere Daten. Und wieder einmal sind es fast ausschließlich US-amerikanische Konzerne, Google, OpenAI, Microsoft oder Anthropic, die davon profitieren. Das kleine gallische Dorf, Mistral aus Frankreich, versucht sich zu behaupten, hat es aber schwer. Und ob der neue deutsch-kanadische Zusammenschluss, besser die Übernahme von Aleph Alpha durch Cohere, mehr Souveränität für europäische Nutzer bedeutet, bleibt abzuwarten.

    Sprache wird sich als neue Benutzeroberfläche durchsetzen und das ergibt absolut Sinn. Doch in der Kombination mit den Large Language Models und KI-Agenten entstehen neue Risiken, deren man sich bewusst sein sollte. Meine Befürchtung ist, dass sich viele Privatanwender darüber keine Gedanken machen werden und ihre Daten (Bank, Kreditkarte, Pass, Steuer, Sozialversicherung oder Gesundheitsdaten) freiwillig zur Verfügung stellen werden — weil es die Kombination von Sprache und KI so einfach macht, lästige Arbeiten durch die KI-Agenten erledigen zu lassen.

    Für uns in Europa heißt das konkret: Wenn Sprache die Universalsprache zur Steuerung unserer Rechner wird — und die Modelle dahinter allesamt in Kalifornien, Seattle oder New York stehen und sich gleichzeitig in unsere Betriebssysteme einnisten — dann wird es eng mit unserer digitalen Souveränität. Noch sehe ich keine europäische Alternative. Vielmehr nistet sich bald die Google-KI Gemini auf meinem iPhone ein, sodass mich Siri trotz meines hessischen Slangs endlich versteht. Aber keine Sorge: Es wird ja alles ganz privat in den Apple-Rechenzentren gespeichert.

    #allgemein #Anthropic #Apple #chatgpt #Claude #Datenschutz #DigitaleSouveränität #gemini #Google #KI #KIAgenten #LLM #MistralAI #OpenAI #Siri #Sprachassistenten #Wirtschaft
  4. Claude Mythos, und drei Monate, die Anthropic in die erste Reihe katapultiert haben #9vor9

    Ein KI-Modell findet automatisch Sicherheitslücken in Software, die seit 27 Jahren im Einsatz ist – Lücken, die kein menschlicher Programmierer je entdeckt hatte, vollkommen ohne menschliche Interaktion. Als der Code von Claude Mythos, dem neuen Frontier-Modell* von Anthropic, Anfang April ins Netz gelangte, war das keine Randmeldung. Claude Mythos ist genau das: ein System, das Fähigkeiten demonstriert, die bislang als ausschließlich menschlich galten. Anlass genug für Lars und mich, in Folge 206 von #9vor9 darüber zu sprechen – auch wenn wir keine Programmierer sind.

    https://youtu.be/qIqYCmLQLlc

    https://9vor9.podigee.io/206-anthropic-claude-mythos-ai

    Die Aufregung ist und war groß. Der US-Finanzminister und die führenden US-Banken, EZB, die BaFin und der deutsche Bankenverband berieten in Dringlichkeitssitzungen über systemische Cyberrisiken durch die neue KI-Generation. Anthropic hat mit Project Glasswing reagiert und das Modell einem exklusiven Konsortium aus rund 40 Partnern – darunter Apple, Microsoft, Google, JPMorganChase und die Linux Foundation – zur Verfügung gestellt, damit die „guten Akteure“ einen Vorsprung beim Schließen der Lücken bekommen. Das BSI hat Kontakt zu Anthropic aufgenommen: BSI-Präsidentin Claudia Plattner erklärte, man nehme die Ankündigungen „sehr ernst“ – die Entwicklung werfe Fragen der nationalen und europäischen Sicherheit und Souveränität auf.

    Echter Alarm oder PR-Kalkül kurz vor dem Börsengang?

    Dieser Tage stand dann plötzlich eine andere Frage im Raum, die Lars und ich nicht ignorieren wollten: Ist das alles womöglich ein sorgfältig inszenierter PR-Gag? Anthropic steht kurz vor dem Börsengang, mit einer Bewertung von bis zu 800 Milliarden Dollar. Die Dramatik rund um Claude Mythos – der Leak, die Dringlichkeitssitzungen, die exklusive Partnerliste – kommt zu einem verdächtig günstigen Zeitpunkt. Lars hatte die Frage gestellt, aber auch die Antwort recherchiert: Sicherheitsexperten, die daraufhin befragt wurden, sind überwiegend der Meinung, dass die Bedrohung real ist und so ernst genommen werden muss, wie sie dargestellt wird. Das schließt PR-Kalkül nicht aus. Beides kann gleichzeitig wahr sein. Und ein gutes Timing für Schlagzeilen kurz vor einem Börsengang ist in dieser Branche kein Zufall.

    Von QuitGPT bis Claude Mythos: Die Ereignisse hinter dem Anthropic-Hype

    Januar 2026 – Das Nutzerwachstum explodiert. Die täglich aktiven Nutzer verdreifachen sich in kürzester Zeit. Gleichzeitig wird bekannt, dass Anthropic Eingaben standardmäßig zum Modelltraining verwendet – wer das nicht will, muss aktiv widersprechen.

    20. Februar – Anthropic veröffentlicht Claude Code Security als Research Preview. Das Tool findet Sicherheitslücken, die herkömmliche Werkzeuge übersehen. Die Ankündigung schickt Cybersecurity-Aktien wie CrowdStrike und Okta auf Talfahrt.

    23. Februar – Ein schwarzer Tag für IBM: Nach der Vorstellung von Claude-Werkzeugen zur Modernisierung von COBOL-Systemen bricht der Kurs um über 13 Prozent ein. Der Markt sieht das Einsparpotenzial gegenüber teuren Beraterheerscharen.

    26. Februar – Der Pentagon-Clash: CEO Dario Amodei lehnt einen Millionenvertrag für militärische Massenüberwachung und autonome Waffen ab. Das Pentagon setzt Anthropic daraufhin als „Risiko für die nationale Lieferkette“ auf eine Blacklist. OpenAI übernimmt den Vertrag.

    Anfang März – Die QuitGPT-Bewegung erreicht ihren Höhepunkt: Über vier Millionen Nutzer kündigen bei OpenAI, nachdem dieses den Militärvertrag übernimmt. Claude stürzt ChatGPT vom Thron und wird die Nummer 1 im US App Store.

    23. März – Computer Use: Claude kann nun aktiv Mauszeiger und Tastatur eines Macs steuern, um komplexe Aufgaben autonom zu erledigen.

    26. März – Anthropic führt neue Usage Limits ein. In den europäischen Stoßzeiten zwischen 14 und 20 Uhr wird das Sitzungslimit deutlich schneller verbraucht.

    31. März 2026 – Anthropic veröffentlichte versehentlich den kompletten Quellcode von Claude Code – dem Agentic-Tool – über das npm-Paketregister. Rund 500.000 Zeilen Code in 1.900 Dateien.

    7. April – Claude Mythos wird vorgestellt. Das Frontier-Modell findet autonom eine 27 Jahre alte Lücke im OpenBSD-Kernel und erreicht bei der Exploit-Generierung für Firefox eine Erfolgsquote von 72,4 Prozent.

    April (zeitgleich) – Start von Project Glasswing: Anthropic beschränkt den Zugang zu Claude Mythos auf rund 40 Partner, um Missbrauch zu begrenzen und den guten Akteuren einen Vorsprung zu verschaffen.

    15. April – Berichte über eine potenzielle 800-Milliarden-Dollar-Bewertung kursieren. Anthropics jährliche Umsatz-Run-Rate überschreitet mit 30 Milliarden Dollar erstmals die von OpenAI.

    16. April – EZB, BaFin und der deutsche Bankenverband beraten in Dringlichkeitssitzungen über die systemischen Cyberrisiken der neuen KI-Generation.

    Oktober 2026 (geplant) – Vorbereitungen für den Börsengang konkretisieren sich.

    Exploits, Zero-Days, C und C++: Warum jahrzehntealter Code zur globalen Schwachstelle wird

    Wer mit den Begriffen nicht täglich umgeht, braucht hier kurz einen Anker. Ein Exploit ist ein Angriffswerkzeug: Code, der eine Sicherheitslücke gezielt ausnutzt, um in ein System einzudringen, Daten zu stehlen oder Kontrolle zu übernehmen. Zero-Days sind Lücken, die dem Hersteller noch nicht bekannt sind – und für die es deshalb noch keinen Patch gibt: null Tage Reaktionszeit, null Gegenwehr. N-Days hingegen sind Lücken, die zwar bereits bekannt und theoretisch gepatcht wurden, aber in der Praxis noch in ungezählten ungepatchten Systemen schlummern.

    Warum stecken diese Lücken überhaupt in Software, die seit Jahrzehnten im Einsatz ist? 80 Prozent der kritischsten Systeme – Betriebssysteme, Virtual Machine Monitore, Browser – basieren historisch auf speicherunsicheren Sprachen wie C und C++. Das ist das Eisbergproblem der digitalen Infrastruktur: Oben sehen wir moderne Oberflächen und sauber designte Apps, darunter schlummern Millionen von Codezeilen aus einer anderen Ära, eingebettet in schiere Komplexität, nie vollständig auf Sicherheitslücken geprüft. Kein Mensch kann diesen Eisberg alleine durchtauchen. Claude Mythos tut es automatisch – und das ist sowohl die gute als auch die beunruhigende Nachricht.

    Die Zeitleiste und dieser technische Hintergrund zeigen zweierlei: Anthropic ist in bemerkenswert kurzer Zeit von einem KI-Unternehmen, das Lars und ich kaum auf dem Radar hatten, zum Taktgeber einer ganzen Branche geworden. Und die Ereignisse sind kein zufälliges Rauschen – sie folgen einer Logik, die man sowohl bewundern als auch skeptisch beäugen kann.

    Lars hat im Gespräch die entscheidende Vergleichsfrage gestellt: Was wäre eigentlich passiert, wenn Grok von Elon Musk oder OpenAI Claude Mythos in den Händen gehalten hätten? Seine Antwort war knapp und trocken – die würden das dann wahrscheinlich einfach online stellen und dann mal sehen, was passiert.

    Der Pentagon-Clash macht den Unterschied sichtbar: CEO Dario Amodei lehnte einen Millionenvertrag für militärische Massenüberwachung und autonome Waffen ab. Das Pentagon setzte Anthropic daraufhin als „Risiko für die nationale Lieferkette“ auf eine Blacklist. OpenAI übernahm den Vertrag. Das sagt mehr als jedes Leitbild.

    Wer hat Anthropic gegründet – und warum haben sie OpenAI verlassen?

    Um zu verstehen, warum Anthropic so anders klingt als die Konkurrenz, lohnt ein Blick auf die Gründungsgeschichte. Dario Amodei verließ OpenAI im Dezember 2020 gemeinsam mit seiner Schwester Daniela und einer Handvoll weiterer Mitarbeiter – nicht wegen schlechter Bezahlung oder fehlender Perspektive, sondern aus echtem Dissens. Dario lehnte das Großinvestment von Microsoft in OpenAI ab und wollte KI-Sicherheit konsequenter in den Mittelpunkt stellen. Gemeinsam zogen sie mindestens neun weitere OpenAI-Mitarbeiter mit, die ihre Vision teilten. Das ist die Gründungserzählung, auf der Anthropics Anspruch basiert. Ob sie trägt, wenn Amazon, Google, Microsoft und Nvidia auf der Investorenliste stehen und ein Börsengang vor der Tür steht – das ist die eigentliche Frage.

    Lars hat bei #9vor9 auch das Gründungsdokument von Anthropic zitiert: „Development of superhuman machine intelligence is probably the greatest threat to the continued existence of humanity.“ Und sofort die Folgefrage, die sitzt: Wenn Menschen, die so etwas sagen, vollkommen unreguliert arbeiten dürfen – ist das nicht genau das Problem? In den USA ist KI-Regulierung unter der aktuellen Administration kein ernstes Thema. Es gibt keine Leitplanken, keine Aufsicht mit echten Zähnen. Lars hat das klar ausgesprochen: „Ich möchte mich nicht auf das ethische Gewissen einzelner Tech Bros verlassen müssen.“ Ich auch nicht.

    Autonome KI und meine Daten: Kreditkarte, Pass, Gesundheitsakte

    Ich nutze Claude seit Wochen intensiv und habe meine ausführlichen Erfahrungen – von Claude Cowork über DSGVO-Realität bis zur Investorenstruktur – in einem separaten Blogbeitrag beschrieben. Mein Fazit dort war: beeindruckendes Werkzeug. Das gilt nach wie vor. Die autonomen Agenten auf dem Mac habe ich bewusst nur mit harmlosen Aufgaben erprobt – weiter werde ich auch wahrscheinlich nicht gehen, weil das dann schon ein bisschen zu spooky ist. Und dieses Unbehagen teilen Lars und ich ausdrücklich.

    Denn reden wir konkret darüber, was heute technisch möglich ist: Ein autonomer KI-Agent kann Reisen buchen – und braucht dafür meine Kreditkartendaten. Er kann meine Steuererklärung vorbereiten – und braucht dafür meine Bankdaten, meine Spesenabrechnungen, meine Lohnzettel. Er kann meinen Pass scannen und verarbeiten, inklusive der biometrischen Daten, die darin stecken. Er kann meine Gesundheitsdaten lesen, um Versicherungen zu vergleichen oder Arzttermine zu buchen.

    Das ist kein Science-Fiction. Das ist heute möglich. Die Frage ist nicht, ob die Technik das kann. Die Frage ist: Was passiert mit diesen Daten? An wen fließen sie weiter? Wer hat am Ende die Kontrolle – ich, oder ein System, das autonom handelt und dessen Entscheidungswege ich nicht vollständig nachvollziehen kann? Systeme, die autonom handeln, können eben auch autonom Schaden anrichten. Lars und ich sind keine Maschinenstürmer. Aber wir sind auch keine unkritischen Enthusiasten. Und das sollte man auch nicht sein.

    Am Ende unseres Gesprächs hat Lars den Punkt gesetzt: „Es ist halt offensichtlich ein sehr kritischer Zeitpunkt gerade, was KI, Wirkung von KI, KI-Entwicklung angeht. Muss man jetzt auch nicht drumrum reden.“ Nein, muss man nicht. Was man aber festhalten muss: Anthropic ist kein Heilsversprechen. Amazon, Google, Microsoft und Nvidia sitzen wie erwähnt auf der Investorenliste, der Börsengang steht an.

    Ist Anthropic wirklich die ethische KI-Alternative – oder Angst-Marketing vor dem Börsengang?

    Die Kernfrage stellt sich weiter: Ist Anthropic die erwachsene, ethische Alternative? Oder nutzt das Unternehmen Angst-Marketing so geschickt, wie OpenAI einst Hype-Marketing betrieben hat? Die Antwort kennen wir noch nicht. Was wir kennen, sind historische Beispiele. Google hatte einmal „Don’t be evil“ als Leitspruch. Es war mehr als ein Slogan – es war ein Versprechen, das lange geglaubt wurde. Bis es leise verschwand. Beobachten wir kritisch, ob Anthropic einen anderen Weg geht.

    * Frontier-Modelle sind die jeweils leistungsfähigsten KI-Systeme an der vordersten Entwicklungsfront – Modelle, die neue Maßstäbe setzen, bevor die Welt weiß, wozu sie fähig sind.

    Anthropic_Disruption_(2)Herunterladen #9vor9 #allgemein #Amazon #Anthropic #books #chatgpt #Claude #CyberSecurity #DSGVO #ElonMusk #EU #Google #KI #KIAgenten #Microsoft #Trump #USA #Wirtschaft
  5. #Steady #Klimacrew

    #VibeCoding mit KI-Programmierhilfen in Visual Studio Code ausprobiert.

    Ich habe zwei KI-Assistenzen für die direkte Integration in VSCode getestet, ob sie meine Erwartungen erfüllen. Welche Lösung wirklich hilft, die Arbeit effizienter zu gestalten, zeigt sich erst beim Praxistest. Der Einsatz lohnt sich, doch nicht jedes Tool spielte so mit, wie ich es mir gewünscht hatte.

    tino-eberl.de/vibe-coding/visu

    #VisualStudioCode #GitHubCopilot #PythonCoding #KIAgenten #Programmieren

  6. OpenAI hat vor Monaten Jony Ive für das „next big thing“ geholt. Jetzt kommt Peter Steinberger, Kopf hinter OpenClaw, ebenfalls an Bord – mit der Vision eines KI-Agenten für alle. Design trifft Autonomie. Das klingt nach neuer Geräteklasse. Entscheidend wird sein, ob Sicherheit und Kontrolle mitgedacht werden – oder erst später.
    #9vor9 #OpenClaw #NextBigThing #KIAgenten
    OpenClaw: Wenn KI-Agenten die Kontrolle übernehmen stefanpfeiffer.blog/2026/02/23

  7. OpenAI hat vor Monaten Jony Ive für das „next big thing“ geholt. Jetzt kommt Peter Steinberger, Kopf hinter OpenClaw, ebenfalls an Bord – mit der Vision eines KI-Agenten für alle. Design trifft Autonomie. Das klingt nach neuer Geräteklasse. Entscheidend wird sein, ob Sicherheit und Kontrolle mitgedacht werden – oder erst später.
    #9vor9 #OpenClaw #NextBigThing #KIAgenten
    OpenClaw: Wenn KI-Agenten die Kontrolle übernehmen stefanpfeiffer.blog/2026/02/23

  8. Können „Dummies“ No-Code- & KI-Agenten betreiben?
    Ja, absolut. Und das ist sogar explizit so gewollt. Denn moderne No-Code- und Agent-Systeme sind klickbar statt programmierbar, voll mit Templates, Tutorials und Best Practices und so gebaut, dass man keine Ahnung von IT-Sicherheit, Betriebssystemen oder Netzwerken braucht.
    Das Problem: Wo früher Fachwissen nötig war, genügt heute Selbstüberschätzung und Naivität, um großen Schaden anzurichten.

    #NoCode #KIAgenten #ITSicherheit #Cybersicherheit #Automatisierung #DigitaleKompetenz #KI #AI #CyberSecurity

  9. @heiseonline
    Es ist hoffentlich klar, dass nur diejenigen #Unternehmen von den #KI-Agenten besucht werden, die der betreibenden #Plattform entsprechend viel Geld dafür bezahlen. Alle anderen werden wohl nicht besucht und pleite gehen. Das fördert #Monopole.
    Wir sehen schon jetzt, wie #googles Suchmaschinen-KI dafür sorgt, dass #Websites und kleine #Firmen verschwinden, weil sie nicht mehr erwähnt werden.
    Wir wissen, dass Meta&Co nur die Beiträge in den #Algorithmus einpflegen, für die auch reichlich bezahlt wird.

    Die #Wirtschaft wird sich nun also ganz durch den finanziell Stärkeren charaktierisieren. Wer gute Qualität liefern will aber solche Plattformen nicht finanzieren kann, wird untergehen. Es ist der Tod des #freien #Handels im #Internet

    #unplugbigtech #kiAgenten

  10. KI-Agenten im AWS Marketplace: Wachstum weit über Erwartungen
    Der AWS Marketplace verzeichnet bei KI-Agenten ein deutlich schnelleres Wachstum als ursprünglich geplant. Innerhalb weniger Monate stieg das Angebot auf mehr als das 40‑fache des internen Startziels.

    Von 50 geplanten zu über 2.100
    apfeltalk.de/magazin/news/ki-a
    #News #AWS #AWSMarketplace #Cloud #KIAgenten #LokaleWhrungen #Preise #reInvent #Unternehmen

  11. #Signal droht mit #Rückzug aus #Europa, falls die #EU die #Chatkontrolle einführt, die die #EndezuEnde-#Verschlüsselung untergraben. Die EU diskutiert ein Gesetz zur Bekämpfung von Kinderpornografie, das #Hintertüren in Messengern fordert. Signal-Chefin #MeredithWhittaker lehnt dies ab und warnt außerdem vor den Gefahren von #KIAgenten, die Zugriff auf #sensibleDaten benötigen. heise.de/news/Chefin-der-Signa #Berlin #Tech #Technews

  12. Von der #SuperApp zur #SuperAssistenz
    Dass Musk und Zuckerberg schon lange von der Super-App à la WeChat träumen, ist nur zu bekannt. Super-Apps sind für sie ein zu verlockendes Geschäftsmodell mit der Möglichkeit, neue Abhängigkeiten zu schaffen. Doch die wirklich feuchten Träume bekommen sie, wenn sie von KI-Agenten, von der neuen umfassenden Super-Assistenz träumen, „die nicht nur bedient, sondern vorausdenkt, verwaltet – und entscheidet.“ #KI #KIAgenten
    stefanpfeiffer.blog/2025/05/20

  13. Am Puls der KI-Forschung: Tägliche Updates zu AI-Agenten 2025

    Die rasante Entwicklung von KI-Agenten wird unseren Alltag verändern.

    Um stets auf dem neuesten Stand zu bleiben, bietet der Artikel "AI-Agents – 2025 Science Papers Daily" auf KINEWS24 einen unschätzbaren Mehrwert.

    Verpasse keine wichtigen Entwicklungen und bleibe informiert!

    #KI #AI #ArtificialIntelligence #KIAgenten #TechnologieTrends

    kinews24.de/ai-agents-2025-sci