home.social

#mistralai — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #mistralai, aggregated by home.social.

  1. 📢⚠️ A #TeamPCP-linked account claims to be selling alleged internal Mistral AI repositories days after the Mini Shai-Hulud supply chain attacks targeted npm and PyPI packages linked to the AI company.

    Read: hackread.com/teampcp-mistral-a

    #CyberSecurity #MistralAI #MiniShaiHulud #DataBreach

  2. 📢⚠️ A #TeamPCP-linked account claims to be selling alleged internal Mistral AI repositories days after the Mini Shai-Hulud supply chain attacks targeted npm and PyPI packages linked to the AI company.

    Read: hackread.com/teampcp-mistral-a

    #CyberSecurity #MistralAI #MiniShaiHulud #DataBreach

  3. europesays.com/afrique/101934/ Europe trop «lourde», chômage, manque d’électricité… Les puissantes mises en garde du patron de l’IA française Mistral #AssembléeNationale #Europe #MistralAI

  4. TOM est encore petit.
    Pas de tour à San Francisco. Pas de millions levés. Pas d'équipe de 200 personnes.
    C'est né à Niort. Ça avance. Chaque installation m'apprend quelque chose.
    Je ne cherche pas à construire une IA gigantesque. Je cherche quelque chose d'utile, de simple, d'humain.
    👉 tom-wp.com/tom-est-encore-petit/
    #IA #WordPress #MistralAI #MadeInFrance #Niort

  5. Exciting news for the open source AI community! 🎉 Mistral AI just released Medium 3.5 - a 128B dense open weight model with 256K context, multimodal input, and adjustable reasoning.

    It replaces Mistral Medium 3.1, Magistral, and Devstral 2. Weights are freely available on HuggingFace under a modified MIT license.

    🔗 techglimmer.io/what-is-mistral

    #MistralAI #OpenSource #AI #Fediverse

  6. Exciting news for the open source AI community! 🎉 Mistral AI just released Medium 3.5 - a 128B dense open weight model with 256K context, multimodal input, and adjustable reasoning.

    It replaces Mistral Medium 3.1, Magistral, and Devstral 2. Weights are freely available on HuggingFace under a modified MIT license.

    🔗 techglimmer.io/what-is-mistral

    #MistralAI #OpenSource #AI #Fediverse

  7. I have been working to find an alternative to GitHub Copilot for LLM agent coding on my mobile. With Mistral releasing their remote agents, that is now possible.

    The flow I have got working for me is:

    1. Create an issue in GitHub
    2.Start a new Mistral coding session at chat.mistral.ai/chat
    3. Ask Le Chat to fix the GitHub issue, pasting in the link
    4. Review the resulting PR. Either send feedback to Le Chat, or merge

    #mistralai

    davepotts.software/development

  8. I have been working to find an alternative to GitHub Copilot for LLM agent coding on my mobile. With Mistral releasing their remote agents, that is now possible.

    The flow I have got working for me is:

    1. Create an issue in GitHub
    2.Start a new Mistral coding session at chat.mistral.ai/chat
    3. Ask Le Chat to fix the GitHub issue, pasting in the link
    4. Review the resulting PR. Either send feedback to Le Chat, or merge

    #mistralai

    davepotts.software/development

  9. Mistral AI announced the launch of Mistral Medium 3.5. The model scores 77.6% on SWE-Bench Verified and can be self-hosted on as few as four GPUs. Alongside it, Mistral shipped Vibe remote agents, which run coding sessions asynchronously in the cloud with integrations for GitHub, Jira, Linear, and Sentry, and Work Mode for Le Chat, an agentic interface for multi-step tasks. #MistralAI #AI #europeantech #France #Digitalservicesact #Digitalsovereignty

    builtineu.eu/news/mistral-medi

  10. Mistral AI announced the launch of Mistral Medium 3.5. The model scores 77.6% on SWE-Bench Verified and can be self-hosted on as few as four GPUs. Alongside it, Mistral shipped Vibe remote agents, which run coding sessions asynchronously in the cloud with integrations for GitHub, Jira, Linear, and Sentry, and Work Mode for Le Chat, an agentic interface for multi-step tasks. #MistralAI #AI #europeantech #France #Digitalservicesact #Digitalsovereignty

    builtineu.eu/news/mistral-medi

  11. @toschi Ich habe meinen Account und die App gelöscht.

    Ich benutze Le Chat von Mistral, das auch nicht amerikanisch ist.

    mistral.ai/products/le-chat

    #LeChat #Mistral #MistralAI #KI

  12. @toschi Ich habe meinen Account und die App gelöscht.

    Ich benutze Le Chat von Mistral, das auch nicht amerikanisch ist.

    mistral.ai/products/le-chat

    #LeChat #Mistral #MistralAI #KI

  13. Why didn't I hear about this until now? :bernd:

    I'm not crazy enough to install local #AI tools outside of a VM, but I don't blame anyone for trying them out either.
    #Anthropic is just another untrustworthy US company though.

    Given the stark difference between the websites of US garbage and European #MistralAI I'm curious if mistral-cli does something this bad (aside from slopping around)… 🧐

    ---

    Anthropic secretly installs spyware when you install Claude Desktop
    thatprivacyguy.com/blog/anthro

  14. Why didn't I hear about this until now? :bernd:

    I'm not crazy enough to install local #AI tools outside of a VM, but I don't blame anyone for trying them out either.
    #Anthropic is just another untrustworthy US company though.

    Given the stark difference between the websites of US garbage and European #MistralAI I'm curious if mistral-cli does something this bad (aside from slopping around)… 🧐

    ---

    Anthropic secretly installs spyware when you install Claude Desktop
    thatprivacyguy.com/blog/anthro

  15. « Pour l'instant, force est de constater que les garde-fous manquent »

    L'intelligence artificielle française Mistral épinglée pour avoir relayé de la désinformation russe, chinoise ou iranienne

    franceinfo.fr/internet/intelli

    #mistral #mistralAI

  16. « Pour l'instant, force est de constater que les garde-fous manquent »

    L'intelligence artificielle française Mistral épinglée pour avoir relayé de la désinformation russe, chinoise ou iranienne

    franceinfo.fr/internet/intelli

    #mistral #mistralAI

  17. Omg, #Mistral released Mistral Medium 3.5 yesterday, and it's so good! Already fully switched to it as my main model. Some benchmarks apparently suggest it's comparable to Sonnet 4.5. Let's support #European tech! 🇫🇷🇪🇺

    mistral.ai/news/vibe-remote-ag

    #AI #MistralAI #coding #software #technology

  18. Omg, #Mistral released Mistral Medium 3.5 yesterday, and it's so good! Already fully switched to it as my main model. Some benchmarks apparently suggest it's comparable to Sonnet 4.5. Let's support #European tech! 🇫🇷🇪🇺

    mistral.ai/news/vibe-remote-ag

    #AI #MistralAI #coding #software #technology

  19. Mistral AI veröffentlicht Mistral Medium 3.5 mit 128 Milliarden Parametern, 256.000 Token Kontext und asynchronen Remote Agents für Coding-Aufgaben.

    Das Modell läuft auf vier GPUs und ist On-Premise hostbar. Open Weights stehen unter einer modifizierten MIT-Lizenz bereit. In Benchmarks wie SWE-Bench Verified (77,6%) übertrifft es Claude Sonnet 4.5.

    #Mistral #LLM #OpenWeights #MistralAI #AIGeneratedImage

    all-ai.de/news/news26top/mistr

  20. Mistral AI veröffentlicht Mistral Medium 3.5 mit 128 Milliarden Parametern, 256.000 Token Kontext und asynchronen Remote Agents für Coding-Aufgaben.

    Das Modell läuft auf vier GPUs und ist On-Premise hostbar. Open Weights stehen unter einer modifizierten MIT-Lizenz bereit. In Benchmarks wie SWE-Bench Verified (77,6%) übertrifft es Claude Sonnet 4.5.

    #Mistral #LLM #OpenWeights #MistralAI #AIGeneratedImage

    all-ai.de/news/news26top/mistr

  21. أطلقت شركة Mistral AI ميزة Workflows الجديدة في مرحلة المعاينة العامة، وهي طبقة تنظيمية متطورة لتطبيقات الذكاء الاصطناعي في المؤسسات. تتيح هذه الأداة للمطورين بناء سير عمل موثوق باستخدام لغة بايثون مع تكامل عميق مع عملاء Studio. يمكن نشر العمليات عبر منصة Le Chat لتسهيل وصول الموظفين إليها، مع دعم ميزات التدقيق والتحكم البشري لضمان الامتثال التام. تعتمد التقنية على محرك Temporal لتوفير أداء مستقر وآمن في بيئات سحابية هجينة.

    #MistralAI #Workflows #LeChat

  22. Zeitenwende: Natürliche Sprache wird zur neuen Bedienoberfläche

    Ende 2011 habe ich hier im Blog über Siri und KI-Systeme für Unternehmen geschrieben: Nach Tastatur, Maus und Touchscreen wird Sprache das nächste natürliche Interface sein — für den Computer, fürs iPhone, fürs SmartHome. „Alles nur eine Frage der Zeit.“ Das war vor fünfzehn Jahren. Lange Zeit sah es nicht danach aus. Siri blieb der Wetterfrosch, Alexa der Einkaufsknopf, der Google Assistant der Timer-Steller. Die entsprechenden Geräte und smarten Lautsprecher habe ich 2018 als trojanisches Pferd in unseren Wohnzimmern beschrieben, weil sie viel zu wenig konnten und gleichzeitig viel zu viel abhörten. Diese Gefahr besteht übrigens noch immer.

    Aber jetzt scheint der Moment gekommen, in dem das lange angekündigte Versprechen plötzlich wahr werden könnte. Wir tippen oder sprechen in natürlichen Sätzen mit unseren Geräten. Genauer: Large Language Models auf unseren Devices verstehen uns — endlich. Jörg Schieb bringt es in seinem Kommentar zu Claude Design auf den Punkt: „Wir erleben gerade, wie Textbeschreibung zur neuen Universalsprache für Produktion wird. Erst Code (Claude Code), dann Dokumente (Claude.ai), jetzt Design (Claude Design). Der Trend ist eindeutig: Du beschreibst, KI baut.“ Das ist ein bahnbrechender Paradigmenwechsel.

    Vom Kommando zum Dialog — warum Siri den Durchbruch verpasst hat

    Der Unterschied zu den Sprachassistenten der 2010er Jahre ist technisch, aber seine Folgen sind kulturell. Siri, Alexa und der Google Assistant waren Kommandoparser: Sie bildeten natürliche Sprache auf ein enges Set vordefinierter Funktionen ab. Sagte man etwas Unerwartetes, hieß es „Das habe ich leider nicht verstanden“.

    Large Language Models, große Sprachmodelle wie die von Claude, ChatGPT, Gemini oder Le Chat sind keine solchen Parser mehr. Sie sind laut aktuellem Überblick zur Mensch-Maschine-Interaktion ein Reasoning-Layer, der unvollständige, kontextuelle Sätze versteht und auf Absicht reagiert, nicht auf Schlüsselwörter. Erst durch diese Fähigkeit wird Sprache tatsächlich zur neuen Benutzerschnittstelle. Ein Klick sagt dem Computer „öffne das“. Ein Satz an ein Sprachmodell dagegen „buche mir die Reise per Bahn nach Berlin inklusive Hotel in meiner Kategorie zwischen dem 17. und 20. Mai“.

    Andrej Karpathy, eine der einflussreichsten Stimmen der KI-Szene, zieht die Parallele zur Einführung der grafischen Benutzeroberfläche in den 1980ern. Damals ersetzten die Icons von Windows die Kommandozeile. Heute ersetzt die Beschreibung das Icon. Wer in Zukunft produktiv arbeiten will, beschreibt — und die Maschine baut oder führt Dinge autonom aus.

    Im privaten Alltag: Sprache macht aus dem Smartphone einen Mitarbeiter

    Auch privat wird sich grundlegend ändern, wie wir unser Smartphone oder die Geräte im Smart Home bedienen und nutzen. Das ewig nicht eingelöste Versprechen, das Apple 2011 mit Siri gegeben hat — dein Telefon versteht dich und hilft dir — wird jetzt eingelöst, nur von anderen Anbietern und in einer anderen Dimension.

    Statt auf Programmsymbole zu klicken oder zu „touchen“, sprechen wir künftig mit unserem Smartphone. Genauer: Wir sprechen mit den dort installierten Large Language Models wie ChatGPT in ganzen Sätzen und sagen, was wir wollen. Zurück bekommen wir nicht eine Ergebnisliste mit Links, sondern stattdessen das Ergebnis. Einen Reiseplan. Eine gegengelesene E-Mail. Vielleicht künftig die Einkaufsliste basierend auf dem Foto meines leeren Kühlschranks. Eine Präsentation für die Jahreshauptversammlung meines Vereins über den neuen Grill. Eine E-Mail, mit der ich meine Freunde zu meiner Geburtstagsfeier einlade — genau in meinem Ton, da ich dem System meine alten Texte und E-Mails zum Lesen gegeben habe.

    Das ist keine Zukunftsmusik mehr. Früher musste ich wissen, welche App ich öffne, welchen Button ich drücke, wo ich den Befehl im Menü finde. Künftig reicht die Beschreibung dessen, was ich erreichen will. Welches Programm im Hintergrund benutzt wird, das erledigt die Künstliche Intelligenz. Das ist — nach Tastatur, Maus, Touch — tatsächlich die nächste Stufe der Bedienung, die ich 2011 vorhergesagt habe. Mit fünfzehn Jahren Verspätung und von anderen Anbietern erfüllt, als ich damals vermutete.

    Der Preis der Bequemlichkeit: Hirn einschalten, Kontrolle behalten

    In natürlicher Sprache formulierte Sätze, egal ob getippt oder gesprochen, sind also das neue Interface. Das ist ungemein komfortabel. Ich beschreibe in meinen eigenen Worten, was ich brauche, und bekomme ein Ergebnis. Oft verblüffend gut. Manchmal beeindruckend. Und nicht selten einfach falsch.

    Wenn ich heute in Google suche, bekomme ich nicht mehr nur Links, sondern eine Zusammenfassung in natürlicher Sprache. Ingrid Brodnig hat das gerade einmal für die Google-KI-Übersichten vorgerechnet: Selbst wenn neun von zehn Antworten stimmen — bei über fünf Billionen Google-Suchanfragen pro Jahr bedeutet die verbleibende Fehlerquote zig Millionen falscher Antworten pro Stunde. Und eine EBU-Studie der öffentlich-rechtlichen Rundfunkanstalten fand sogar in 45 Prozent der geprüften KI-Antworten mindestens einen erheblichen Fehler. Besonders gemein: Die Modelle formulieren gerade dann am selbstbewusstesten, wenn sie sich irren — also falsche Aussagen treffen.

    Je bequemer es wird, desto größer die Versuchung, Kontrolle abzugeben, weil es dann ja so einfach ist. Dabei geht es nicht nur darum, Fakten und Quellen zu prüfen, auf deren Basis uns die KI antwortet. Es geht auch wieder einmal um unsere eigenen Daten. Wer einer KI einmal Zugriff auf E-Mails, Kalender, Dateien, Browser-Verlauf gibt, damit der KI-Agent „alles einfacher macht“, öffnet ein Tor, das sich schwer wieder schließen lässt. Und je weniger Mühe uns die Antwort kostet, desto weniger prüfen wir sie. Gerade bei vermeintlich trivialen Fragen — wann ist X gestorben, wie heißt das Gericht, wo liegt der Ort — scannen wir die Antwort nur noch.

    Genau deshalb bleibt das eigene Hirn unersetzlich. Das eigene Misstrauen. Die eigene Kontrolle. Sprache als Interface ist ein Produktivitätsgeschenk — aber nur, wenn ich die Fähigkeit behalte, zu prüfen und zu widersprechen. Dem Modell. Dem Ergebnis. Und manchmal auch der Bequemlichkeit, mit der es mir serviert wird.

    Im Unternehmen: Beschreibung ersetzt Bedienung — und das bricht Hierarchien auf

    Auch im Beruf wird der Effekt deutlich zu spüren sein. Industrie-Prognosen rechnen damit, dass natürliche Sprache bis 2026 zur Standard-Schnittstelle für Unternehmensdaten-Workloads wird. Wer eine Auswertung, eine Präsentation, einen Prototyp braucht, öffnet kein Tool mehr. Er oder sie beschreibt, was gebraucht wird. Code, Dokumente, Designs, Analysen — alles entsteht aus dem gleichen Input: Sprache.

    Die Folgen sind handfest. Die Grenze zwischen Anwendern und System-Designerin oder -Designer löst sich auf. Wer früher auf die IT-Abteilung warten musste, lässt sich heute das Dashboard von Claude bauen. Wer früher ein Agenturbriefing schreiben musste, kann sich heute von der KI ein Mockup in zwanzig Minuten erstellen lassen.

    Das klingt komfortabel — aber es trifft unweigerlich den Mittelbau vieler Wissensberufe: Leute, die Geld damit verdient haben, Templates umzufärben, PowerPoints zu schubsen, Standardcode zu schreiben, Standardtexte zu redigieren. Dieser Mittelbau wackelt. Warten wir mal ab, ob sich das Versprechen bewahrheitet, mit der neuen KI-Arbeitsweise in zwei Jahren das Dreifache bei gleicher Teamgröße zu schaffen.

    Der nächste Schritt: Die KI übernimmt den Rechner

    Und weil die Entwicklung gerade erst richtig Fahrt aufnimmt, folgt die nächste Stufe auf dem Fuß. Sprache bleibt nicht im Chat-Fenster. Sie wandert in den Rechner selbst. Was der Business Punk in den letzten Tagen als „KI-Krieg ums Desktop-Monopol“ beschreibt, ist der konsequente nächste Schritt: Google liefert uns jetzt mit Gemma 4 eine KI, die autonom auf unserem Rechner läuft — erst einmal ohne Verbindung zu den „großen“ Large Language Models von Google. Diese lokal auf meinem Mac laufende KI kann wohl alles, was man so privat braucht — und ist kostenlos. Das Prinzip ist alt: Wir füttern Kundinnen und Kunden an und verdienen dann an allem drum herum.

    Doch natürlich gibt es gute Gründe dafür, ein Large Language Model lokal laufen zu lassen. Das ist einmal der Datenschutz, denn viele Daten wandern einfach nicht in die Cloud der großen Tech Bros. Mit der lokalen KI ist man unabhängiger und es kostet weniger als die Abos von Gemini oder anderen Tools. Last but not least verbraucht man keine Energie in Rechenzentren, da alles lokal auf dem Rechner läuft.

    Die KI Gemma 4 von Google läuft auf unserem Rechner daheim. Andere Anbieter wie Anthropic mit Claude Cowork, OpenAI oder Perplexity bieten Tools an, die auch lokal laufen, aber eben kontinuierlich mit den KI-Modellen der Anbieter in der Cloud kommunizieren. OpenAI hat Codex mit einer Funktion namens „Background Computer Use“ ausgestattet — die KI klickt, tippt, steuert Apps parallel zur eigenen Arbeit, plant sich Aufgaben über Tage oder Wochen selbst.

    Oder aber Claude Cowork von Anthropic, das in der Lage ist, meinen Mac komplett selbständig zu bedienen. Wir sprechen mit dem Computer oder geben per Tastatur unsere Anweisungen ein, die KI arbeitet diese ab und steuert meinen Rechner. Ich sage nicht mehr nur einfach „Claude, schreib mir einen Text“ — sondern „Claude, geh in meine Ablage, sortiere den Quartalsreport, bau daraus die Präsentation für Donnerstag, und schick sie vorab an das Team“. Dies hat eine ganz andere Qualität.

    Was heute noch holprig funktioniert, wird laut vieler Prognosen in zwei Jahren Standard sein. Damit einher geht, dass ich potenziell den letzten privaten digitalen Rückzugswinkel, die Kontrolle über meinen Computer und die darauf befindlichen Daten verlieren könnte. Wer den Sprach-Layer auf meinem Rechner kontrolliert, könnte alles sehen, was dort passiert und gespeichert ist. Jede Datei. Jede Mail. Jedes offene Fenster. Das macht die aktuelle Debatte um „Agentic AI“ und wie viele Rechte ich der KI gebe so zentral. Wieder einmal stellt sich die Frage, wie viel Bequemlichkeit man will und wie viel man von seiner Privatsphäre bereit ist, dafür abzugeben.

    Das bequeme, ach so indiskrete Helferlein?

    Natürlich ist das auch komfortabel, aber der Preis bei Siri und Alexa hieß: „Amazon owns my Echo; I’m just feeding it.“ Das trojanische Pferd steht nicht mehr nur im Wohnzimmer, es läuft demnächst ständig im Hintergrund auf unseren Notebooks, Smartphones und iPads mit und sieht alle unsere Daten. Und wieder einmal sind es fast ausschließlich US-amerikanische Konzerne, Google, OpenAI, Microsoft oder Anthropic, die davon profitieren. Das kleine gallische Dorf, Mistral aus Frankreich, versucht sich zu behaupten, hat es aber schwer. Und ob der neue deutsch-kanadische Zusammenschluss, besser die Übernahme von Aleph Alpha durch Cohere, mehr Souveränität für europäische Nutzer bedeutet, bleibt abzuwarten.

    Sprache wird sich als neue Benutzeroberfläche durchsetzen und das ergibt absolut Sinn. Doch in der Kombination mit den Large Language Models und KI-Agenten entstehen neue Risiken, deren man sich bewusst sein sollte. Meine Befürchtung ist, dass sich viele Privatanwender darüber keine Gedanken machen werden und ihre Daten (Bank, Kreditkarte, Pass, Steuer, Sozialversicherung oder Gesundheitsdaten) freiwillig zur Verfügung stellen werden — weil es die Kombination von Sprache und KI so einfach macht, lästige Arbeiten durch die KI-Agenten erledigen zu lassen.

    Für uns in Europa heißt das konkret: Wenn Sprache die Universalsprache zur Steuerung unserer Rechner wird — und die Modelle dahinter allesamt in Kalifornien, Seattle oder New York stehen und sich gleichzeitig in unsere Betriebssysteme einnisten — dann wird es eng mit unserer digitalen Souveränität. Noch sehe ich keine europäische Alternative. Vielmehr nistet sich bald die Google-KI Gemini auf meinem iPhone ein, sodass mich Siri trotz meines hessischen Slangs endlich versteht. Aber keine Sorge: Es wird ja alles ganz privat in den Apple-Rechenzentren gespeichert.

    #allgemein #Anthropic #Apple #chatgpt #Claude #Datenschutz #DigitaleSouveränität #gemini #Google #KI #KIAgenten #LLM #MistralAI #OpenAI #Siri #Sprachassistenten #Wirtschaft
  23. Zeitenwende: Natürliche Sprache wird zur neuen Bedienoberfläche

    Ende 2011 habe ich hier im Blog über Siri und KI-Systeme für Unternehmen geschrieben: Nach Tastatur, Maus und Touchscreen wird Sprache das nächste natürliche Interface sein — für den Computer, fürs iPhone, fürs SmartHome. „Alles nur eine Frage der Zeit.“ Das war vor fünfzehn Jahren. Lange Zeit sah es nicht danach aus. Siri blieb der Wetterfrosch, Alexa der Einkaufsknopf, der Google Assistant der Timer-Steller. Die entsprechenden Geräte und smarten Lautsprecher habe ich 2018 als trojanisches Pferd in unseren Wohnzimmern beschrieben, weil sie viel zu wenig konnten und gleichzeitig viel zu viel abhörten. Diese Gefahr besteht übrigens noch immer.

    Aber jetzt scheint der Moment gekommen, in dem das lange angekündigte Versprechen plötzlich wahr werden könnte. Wir tippen oder sprechen in natürlichen Sätzen mit unseren Geräten. Genauer: Large Language Models auf unseren Devices verstehen uns — endlich. Jörg Schieb bringt es in seinem Kommentar zu Claude Design auf den Punkt: „Wir erleben gerade, wie Textbeschreibung zur neuen Universalsprache für Produktion wird. Erst Code (Claude Code), dann Dokumente (Claude.ai), jetzt Design (Claude Design). Der Trend ist eindeutig: Du beschreibst, KI baut.“ Das ist ein bahnbrechender Paradigmenwechsel.

    Vom Kommando zum Dialog — warum Siri den Durchbruch verpasst hat

    Der Unterschied zu den Sprachassistenten der 2010er Jahre ist technisch, aber seine Folgen sind kulturell. Siri, Alexa und der Google Assistant waren Kommandoparser: Sie bildeten natürliche Sprache auf ein enges Set vordefinierter Funktionen ab. Sagte man etwas Unerwartetes, hieß es „Das habe ich leider nicht verstanden“.

    Large Language Models, große Sprachmodelle wie die von Claude, ChatGPT, Gemini oder Le Chat sind keine solchen Parser mehr. Sie sind laut aktuellem Überblick zur Mensch-Maschine-Interaktion ein Reasoning-Layer, der unvollständige, kontextuelle Sätze versteht und auf Absicht reagiert, nicht auf Schlüsselwörter. Erst durch diese Fähigkeit wird Sprache tatsächlich zur neuen Benutzerschnittstelle. Ein Klick sagt dem Computer „öffne das“. Ein Satz an ein Sprachmodell dagegen „buche mir die Reise per Bahn nach Berlin inklusive Hotel in meiner Kategorie zwischen dem 17. und 20. Mai“.

    Andrej Karpathy, eine der einflussreichsten Stimmen der KI-Szene, zieht die Parallele zur Einführung der grafischen Benutzeroberfläche in den 1980ern. Damals ersetzten die Icons von Windows die Kommandozeile. Heute ersetzt die Beschreibung das Icon. Wer in Zukunft produktiv arbeiten will, beschreibt — und die Maschine baut oder führt Dinge autonom aus.

    Im privaten Alltag: Sprache macht aus dem Smartphone einen Mitarbeiter

    Auch privat wird sich grundlegend ändern, wie wir unser Smartphone oder die Geräte im Smart Home bedienen und nutzen. Das ewig nicht eingelöste Versprechen, das Apple 2011 mit Siri gegeben hat — dein Telefon versteht dich und hilft dir — wird jetzt eingelöst, nur von anderen Anbietern und in einer anderen Dimension.

    Statt auf Programmsymbole zu klicken oder zu „touchen“, sprechen wir künftig mit unserem Smartphone. Genauer: Wir sprechen mit den dort installierten Large Language Models wie ChatGPT in ganzen Sätzen und sagen, was wir wollen. Zurück bekommen wir nicht eine Ergebnisliste mit Links, sondern stattdessen das Ergebnis. Einen Reiseplan. Eine gegengelesene E-Mail. Vielleicht künftig die Einkaufsliste basierend auf dem Foto meines leeren Kühlschranks. Eine Präsentation für die Jahreshauptversammlung meines Vereins über den neuen Grill. Eine E-Mail, mit der ich meine Freunde zu meiner Geburtstagsfeier einlade — genau in meinem Ton, da ich dem System meine alten Texte und E-Mails zum Lesen gegeben habe.

    Das ist keine Zukunftsmusik mehr. Früher musste ich wissen, welche App ich öffne, welchen Button ich drücke, wo ich den Befehl im Menü finde. Künftig reicht die Beschreibung dessen, was ich erreichen will. Welches Programm im Hintergrund benutzt wird, das erledigt die Künstliche Intelligenz. Das ist — nach Tastatur, Maus, Touch — tatsächlich die nächste Stufe der Bedienung, die ich 2011 vorhergesagt habe. Mit fünfzehn Jahren Verspätung und von anderen Anbietern erfüllt, als ich damals vermutete.

    Der Preis der Bequemlichkeit: Hirn einschalten, Kontrolle behalten

    In natürlicher Sprache formulierte Sätze, egal ob getippt oder gesprochen, sind also das neue Interface. Das ist ungemein komfortabel. Ich beschreibe in meinen eigenen Worten, was ich brauche, und bekomme ein Ergebnis. Oft verblüffend gut. Manchmal beeindruckend. Und nicht selten einfach falsch.

    Wenn ich heute in Google suche, bekomme ich nicht mehr nur Links, sondern eine Zusammenfassung in natürlicher Sprache. Ingrid Brodnig hat das gerade einmal für die Google-KI-Übersichten vorgerechnet: Selbst wenn neun von zehn Antworten stimmen — bei über fünf Billionen Google-Suchanfragen pro Jahr bedeutet die verbleibende Fehlerquote zig Millionen falscher Antworten pro Stunde. Und eine EBU-Studie der öffentlich-rechtlichen Rundfunkanstalten fand sogar in 45 Prozent der geprüften KI-Antworten mindestens einen erheblichen Fehler. Besonders gemein: Die Modelle formulieren gerade dann am selbstbewusstesten, wenn sie sich irren — also falsche Aussagen treffen.

    Je bequemer es wird, desto größer die Versuchung, Kontrolle abzugeben, weil es dann ja so einfach ist. Dabei geht es nicht nur darum, Fakten und Quellen zu prüfen, auf deren Basis uns die KI antwortet. Es geht auch wieder einmal um unsere eigenen Daten. Wer einer KI einmal Zugriff auf E-Mails, Kalender, Dateien, Browser-Verlauf gibt, damit der KI-Agent „alles einfacher macht“, öffnet ein Tor, das sich schwer wieder schließen lässt. Und je weniger Mühe uns die Antwort kostet, desto weniger prüfen wir sie. Gerade bei vermeintlich trivialen Fragen — wann ist X gestorben, wie heißt das Gericht, wo liegt der Ort — scannen wir die Antwort nur noch.

    Genau deshalb bleibt das eigene Hirn unersetzlich. Das eigene Misstrauen. Die eigene Kontrolle. Sprache als Interface ist ein Produktivitätsgeschenk — aber nur, wenn ich die Fähigkeit behalte, zu prüfen und zu widersprechen. Dem Modell. Dem Ergebnis. Und manchmal auch der Bequemlichkeit, mit der es mir serviert wird.

    Im Unternehmen: Beschreibung ersetzt Bedienung — und das bricht Hierarchien auf

    Auch im Beruf wird der Effekt deutlich zu spüren sein. Industrie-Prognosen rechnen damit, dass natürliche Sprache bis 2026 zur Standard-Schnittstelle für Unternehmensdaten-Workloads wird. Wer eine Auswertung, eine Präsentation, einen Prototyp braucht, öffnet kein Tool mehr. Er oder sie beschreibt, was gebraucht wird. Code, Dokumente, Designs, Analysen — alles entsteht aus dem gleichen Input: Sprache.

    Die Folgen sind handfest. Die Grenze zwischen Anwendern und System-Designerin oder -Designer löst sich auf. Wer früher auf die IT-Abteilung warten musste, lässt sich heute das Dashboard von Claude bauen. Wer früher ein Agenturbriefing schreiben musste, kann sich heute von der KI ein Mockup in zwanzig Minuten erstellen lassen.

    Das klingt komfortabel — aber es trifft unweigerlich den Mittelbau vieler Wissensberufe: Leute, die Geld damit verdient haben, Templates umzufärben, PowerPoints zu schubsen, Standardcode zu schreiben, Standardtexte zu redigieren. Dieser Mittelbau wackelt. Warten wir mal ab, ob sich das Versprechen bewahrheitet, mit der neuen KI-Arbeitsweise in zwei Jahren das Dreifache bei gleicher Teamgröße zu schaffen.

    Der nächste Schritt: Die KI übernimmt den Rechner

    Und weil die Entwicklung gerade erst richtig Fahrt aufnimmt, folgt die nächste Stufe auf dem Fuß. Sprache bleibt nicht im Chat-Fenster. Sie wandert in den Rechner selbst. Was der Business Punk in den letzten Tagen als „KI-Krieg ums Desktop-Monopol“ beschreibt, ist der konsequente nächste Schritt: Google liefert uns jetzt mit Gemma 4 eine KI, die autonom auf unserem Rechner läuft — erst einmal ohne Verbindung zu den „großen“ Large Language Models von Google. Diese lokal auf meinem Mac laufende KI kann wohl alles, was man so privat braucht — und ist kostenlos. Das Prinzip ist alt: Wir füttern Kundinnen und Kunden an und verdienen dann an allem drum herum.

    Doch natürlich gibt es gute Gründe dafür, ein Large Language Model lokal laufen zu lassen. Das ist einmal der Datenschutz, denn viele Daten wandern einfach nicht in die Cloud der großen Tech Bros. Mit der lokalen KI ist man unabhängiger und es kostet weniger als die Abos von Gemini oder anderen Tools. Last but not least verbraucht man keine Energie in Rechenzentren, da alles lokal auf dem Rechner läuft.

    Die KI Gemma 4 von Google läuft auf unserem Rechner daheim. Andere Anbieter wie Anthropic mit Claude Cowork, OpenAI oder Perplexity bieten Tools an, die auch lokal laufen, aber eben kontinuierlich mit den KI-Modellen der Anbieter in der Cloud kommunizieren. OpenAI hat Codex mit einer Funktion namens „Background Computer Use“ ausgestattet — die KI klickt, tippt, steuert Apps parallel zur eigenen Arbeit, plant sich Aufgaben über Tage oder Wochen selbst.

    Oder aber Claude Cowork von Anthropic, das in der Lage ist, meinen Mac komplett selbständig zu bedienen. Wir sprechen mit dem Computer oder geben per Tastatur unsere Anweisungen ein, die KI arbeitet diese ab und steuert meinen Rechner. Ich sage nicht mehr nur einfach „Claude, schreib mir einen Text“ — sondern „Claude, geh in meine Ablage, sortiere den Quartalsreport, bau daraus die Präsentation für Donnerstag, und schick sie vorab an das Team“. Dies hat eine ganz andere Qualität.

    Was heute noch holprig funktioniert, wird laut vieler Prognosen in zwei Jahren Standard sein. Damit einher geht, dass ich potenziell den letzten privaten digitalen Rückzugswinkel, die Kontrolle über meinen Computer und die darauf befindlichen Daten verlieren könnte. Wer den Sprach-Layer auf meinem Rechner kontrolliert, könnte alles sehen, was dort passiert und gespeichert ist. Jede Datei. Jede Mail. Jedes offene Fenster. Das macht die aktuelle Debatte um „Agentic AI“ und wie viele Rechte ich der KI gebe so zentral. Wieder einmal stellt sich die Frage, wie viel Bequemlichkeit man will und wie viel man von seiner Privatsphäre bereit ist, dafür abzugeben.

    Das bequeme, ach so indiskrete Helferlein?

    Natürlich ist das auch komfortabel, aber der Preis bei Siri und Alexa hieß: „Amazon owns my Echo; I’m just feeding it.“ Das trojanische Pferd steht nicht mehr nur im Wohnzimmer, es läuft demnächst ständig im Hintergrund auf unseren Notebooks, Smartphones und iPads mit und sieht alle unsere Daten. Und wieder einmal sind es fast ausschließlich US-amerikanische Konzerne, Google, OpenAI, Microsoft oder Anthropic, die davon profitieren. Das kleine gallische Dorf, Mistral aus Frankreich, versucht sich zu behaupten, hat es aber schwer. Und ob der neue deutsch-kanadische Zusammenschluss, besser die Übernahme von Aleph Alpha durch Cohere, mehr Souveränität für europäische Nutzer bedeutet, bleibt abzuwarten.

    Sprache wird sich als neue Benutzeroberfläche durchsetzen und das ergibt absolut Sinn. Doch in der Kombination mit den Large Language Models und KI-Agenten entstehen neue Risiken, deren man sich bewusst sein sollte. Meine Befürchtung ist, dass sich viele Privatanwender darüber keine Gedanken machen werden und ihre Daten (Bank, Kreditkarte, Pass, Steuer, Sozialversicherung oder Gesundheitsdaten) freiwillig zur Verfügung stellen werden — weil es die Kombination von Sprache und KI so einfach macht, lästige Arbeiten durch die KI-Agenten erledigen zu lassen.

    Für uns in Europa heißt das konkret: Wenn Sprache die Universalsprache zur Steuerung unserer Rechner wird — und die Modelle dahinter allesamt in Kalifornien, Seattle oder New York stehen und sich gleichzeitig in unsere Betriebssysteme einnisten — dann wird es eng mit unserer digitalen Souveränität. Noch sehe ich keine europäische Alternative. Vielmehr nistet sich bald die Google-KI Gemini auf meinem iPhone ein, sodass mich Siri trotz meines hessischen Slangs endlich versteht. Aber keine Sorge: Es wird ja alles ganz privat in den Apple-Rechenzentren gespeichert.

    #allgemein #Anthropic #Apple #chatgpt #Claude #Datenschutz #DigitaleSouveränität #gemini #Google #KI #KIAgenten #LLM #MistralAI #OpenAI #Siri #Sprachassistenten #Wirtschaft
  24. those are evaluations done by #mistralAI #lechat LLM I will have to check everything - but roughly I take it as a first estimation

  25. W tym odcinku opowiadam przede wszystkim o zmianach w świecie technologii i biznesu, które w ostatnich tygodniach wywołały sporo emocji. Zaczynam od Amazona i decyzji dotyczącej starszych modeli Kindle, które po 20 maja stracą dostęp do nowych treści, a potem przechodzę do satelitarnego wyścigu zbrojeń, gdzie Amazon próbuje dogonić Starlinka. Wspominam też o historycznym, choć nie w pełni udanym locie Blue Origin z rakietą New Glenn i o tym, jak rozwija się rynek kosmicznej łączności.

    Dużo miejsca poświęcam również Tesli i jej systemowi Full Self-Driving Supervised, który po raz pierwszy uzyskał zgodę w Europie, a także szerszej debacie o sztucznej inteligencji po obu stronach Atlantyku. Porównuję europejskie podejście Mistral AI do amerykańskiej wizji Palantira, omawiam spór Anthropic z Pentagonem oraz kontrowersje wokół wykorzystania danych i AI w sektorze publicznym.

    Na koniec przyglądam się Wielkiej Brytanii, jej zależności technologicznej od USA i nowemu funduszowi Sovereign AI Fund, a także zmianom w Atlassian, które dotyczą nowych narzędzi AI i sposobu wykorzystywania danych klientów.

    #Amazon #Kindle #Starlink #BlueOrigin #NewGlenn #Tesla #FSD #AI #MistralAI #Palantir #Anthropic #Pentagon #WielkaBrytania #Atlassian #Jira #Confluence

    wtfs.stream/@what_the_fox_says

  26. W tym odcinku opowiadam przede wszystkim o zmianach w świecie technologii i biznesu, które w ostatnich tygodniach wywołały sporo emocji. Zaczynam od Amazona i decyzji dotyczącej starszych modeli Kindle, które po 20 maja stracą dostęp do nowych treści, a potem przechodzę do satelitarnego wyścigu zbrojeń, gdzie Amazon próbuje dogonić Starlinka. Wspominam też o historycznym, choć nie w pełni udanym locie Blue Origin z rakietą New Glenn i o tym, jak rozwija się rynek kosmicznej łączności.

    Dużo miejsca poświęcam również Tesli i jej systemowi Full Self-Driving Supervised, który po raz pierwszy uzyskał zgodę w Europie, a także szerszej debacie o sztucznej inteligencji po obu stronach Atlantyku. Porównuję europejskie podejście Mistral AI do amerykańskiej wizji Palantira, omawiam spór Anthropic z Pentagonem oraz kontrowersje wokół wykorzystania danych i AI w sektorze publicznym.

    Na koniec przyglądam się Wielkiej Brytanii, jej zależności technologicznej od USA i nowemu funduszowi Sovereign AI Fund, a także zmianom w Atlassian, które dotyczą nowych narzędzi AI i sposobu wykorzystywania danych klientów.

    #Amazon #Kindle #Starlink #BlueOrigin #NewGlenn #Tesla #FSD #AI #MistralAI #Palantir #Anthropic #Pentagon #WielkaBrytania #Atlassian #Jira #Confluence

    wtfs.stream/@what_the_fox_says

  27. ASML AGM: AI Boom Fuels Chip Tool Demand as 2026 Sales Outlook Rises and Buyback Tops €12B

    ASML logo AI-driven demand: Management said surging AI investment—an industry opportunity they estimate at more than $2.5 trillion…
    #Netherlands #Nederland #NL #Europe #Europa #EU #ASML #ChristopheFouquet #customer #DUV #EUV #MistralAI #RogerDassen #sharebuybackprogram #systems
    europesays.com/netherlands/580

  28. English – The Conversation | OpenAI gets set to go public: can we entrust the financial markets with ChatGPT and AI? by Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School

    AI generated summary, Read the full article for complete information.

    OpenAI, the creator of ChatGPT, is preparing for a landmark IPO that would turn a venture originally founded in 2015 to serve the “common good” into a market‑driven enterprise, highlighting the clash between its public‑interest mission and the enormous financial demands of generative AI. While the company’s revenue exploded from about $200 million in 2022 to over $10 billion in 2025 thanks to subscriptions, enterprise licences, usage fees and a strategic partnership with Microsoft, it remains deeply loss‑making—reporting billions of dollars in monthly deficits and cumulative losses that could exceed $140 billion by 2029 due to the high cost of GPU infrastructure, massive R&D spending and premium salaries for AI talent. Dependence on industrial partners such as Microsoft’s Azure and Nvidia’s GPUs creates an “invisible tax” that benefits upstream providers more than model developers, and governance complexities arising from OpenAI’s hybrid non‑profit/for‑profit structure have already sparked internal crises. With fierce competition from Google, Anthropic, China’s DeepSeek, Europe’s Mistral AI and shifting alliances (e.g., Apple replacing ChatGPT with Gemini), the IPO is framed as a lifeline to raise $50‑100 billion, yet experts argue it may only postpone inevitable financial strain unless the underlying business model fundamentally changes, raising the broader question of whether critical AI infrastructure should be entrusted to the imperatives of financial markets.

    Read more: theconversation.com/openai-get

    #OpenAI #Microsoft #Azure #Copilot #Nvidia #Google #Anthropic #DeepSeek #MistralAI #SamAltman #

    AI generated summary, Read the full article for complete information.

  29. Off-by-one errors, really common. Even our FuTuRe OvErLoRdS can't escape them.
    #AI #MistralAI

  30. Die Reise von #ChatGPT über #DeepSeek zu #MistralAI
    Gründe und Herausforderung der #ePA4Y Lösung zur #ePA
    am 28.4.26 in Schwabach um 17:00 Uhr bei der #IntellityNet oder Online

    Anmeldung: bit.ly/3QhDOUX
    #CommunityRocks #Microsoft #MVPBuzz

  31. @mistersql @MistralAI @BuyFromEU thanks for the reply hope to find some experts that know better the #mistralai way. Hope it's not only about #sovereignity

  32. @mistersql @MistralAI @BuyFromEU thanks for the reply hope to find some experts that know better the #mistralai way. Hope it's not only about #sovereignity

  33. @mistersql @MistralAI @BuyFromEU thanks for the reply hope to find some experts that know better the #mistralai way. Hope it's not only about #sovereignity

  34. @mistersql @MistralAI @BuyFromEU thanks for the reply hope to find some experts that know better the #mistralai way. Hope it's not only about #sovereignity

  35. @mistersql @MistralAI @BuyFromEU thanks for the reply hope to find some experts that know better the #mistralai way. Hope it's not only about #sovereignity