home.social

#kisicherheit — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #kisicherheit, aggregated by home.social.

  1. In Sicherheitstests versuchte Claude Opus 4 in 96% der Fälle, seinen Abschalter zu erpressen. Gemini, GPT und Grok machten es nicht besser.

    Was hinter KI-Selbsterhaltung steckt, warum Skynet daran schuld ist und was Teams daraus lernen: kiberblick.de/artikel/sicherhe

    #KI #KIberblick #AISafety #Alignment #KISicherheit

  2. DEKRA AISP: KI-Sicherheitszertifizierung für offensive und defensive AI-Security

    Der erfolgreiche Abschluss führt zur anerkannten Zertifizierung als DEKRA AI Security Professional – kurz AISP. Der Kurs verbindet technisches Angriffswissen mit defensiven Sicherheitsstrategien und schließt dabei die gesamte Bandbreite moderner KI-Infrastrukturen ein.

    all-about-security.de/dekra-ai

    #DEKRA #aisecurity #kurs #AISP #AISecurityProfessional #kisicherheit #entwickler #devops

  3. Google DeepMind belegt in einer Studie die gezielte Fremdsteuerung autonomer KI-Agenten durch Webseiten.

    Mittels versteckter HTML-Befehle und Steganografie in Bildpixeln werden KI-Modelle manipuliert. Die 502 Teilnehmer starke Untersuchung zeigt, dass aktuelle Sicherheitsmaßnahmen diese multimodalen Injektionen in vernetzten Multi-Agenten-Systemen nicht verhindern können.

    #GoogleDeepMind #AIAgents #PromptInjection #KISicherheit #AIGeneratedImage

    all-ai.de/news/beitrage2026/go

  4. Google DeepMind belegt in einer Studie die gezielte Fremdsteuerung autonomer KI-Agenten durch Webseiten.

    Mittels versteckter HTML-Befehle und Steganografie in Bildpixeln werden KI-Modelle manipuliert. Die 502 Teilnehmer starke Untersuchung zeigt, dass aktuelle Sicherheitsmaßnahmen diese multimodalen Injektionen in vernetzten Multi-Agenten-Systemen nicht verhindern können.

    #GoogleDeepMind #AIAgents #PromptInjection #KISicherheit #AIGeneratedImage

    all-ai.de/news/beitrage2026/go

  5. Google DeepMind belegt in einer Studie die gezielte Fremdsteuerung autonomer KI-Agenten durch Webseiten.

    Mittels versteckter HTML-Befehle und Steganografie in Bildpixeln werden KI-Modelle manipuliert. Die 502 Teilnehmer starke Untersuchung zeigt, dass aktuelle Sicherheitsmaßnahmen diese multimodalen Injektionen in vernetzten Multi-Agenten-Systemen nicht verhindern können.

    #GoogleDeepMind #AIAgents #PromptInjection #KISicherheit #AIGeneratedImage

    all-ai.de/news/beitrage2026/go

  6. Chain of Thought bleibt sichtbar.

    Aktuelle Reasoning-Modelle können ihre internen Rechenschritte nicht vor Monitoring-Systemen verbergen. Studien zeigen, dass Versuche zur Verschleierung – etwa durch Keyword-Vermeidung – meist fehlschlagen. Besonders bei langen Rechenketten bricht die Kontrolle über die eigene Ausgabe zusammen. Die Analyse der Zwischenschritte bleibt damit ein valider Weg für Sicherheitschecks.

    #OpenAI #KISicherheit #ChainOfThought
    all-ai.de/news/beitrage2026/op

  7. OpenClaw: mächtiger KI-Assistent, der wirklich am PC „arbeitet“, statt nur zu antworten – praktisch, aber mit gewaltigen Sicherheitslücken. Prompt-Injections, Zugriff auf Passwörter & Bankdaten: kein Spielzeug für Alltag oder sensible Daten. Erst sichern, dann staunen. #KISicherheit #OpenClaw #Cyberrisk | Jörg Schieb | schieb.de/openclaw-maechtiger-

  8. Unternehmen sind nicht auf böswillige KI-Agenten vorbereitet
    Viele Unternehmen setzen zunehmend auf Künstliche Intelligenz und KI-Agenten. Dabei unterschätzen sie die mit dieser Technologie verbundenen Sicherheitsrisiken und sind auf Bedrohungen kaum vorbereitet.

    Steigende Risiken durch KI-Age
    apfeltalk.de/magazin/news/unte
    #KI #News #Cybersicherheit #Identittsmanagement #KIAgenten #KISicherheit #PaloAltoNetworks

  9. 14 Jahre hat die gesetzliche Verankerung vom Sicherungsgurt gedauert - bei #KI können wir uns so lange Zeiten nicht leisten
    #loscon25 #ethik #kisicherheit

  10. 🚀 KI-Tools im Code: 55-89% Produktivitätssteigerung, aber Vorsicht ist geboten! 🛡️

    Unter bit.ly/44roKZp habe ich versucht aufzuzeigen, wie ihr AI sicher in der Softwareentwicklung genutzt werden könnte - von technischen Safeguards bis Governance-Frameworks 📊

    🔍 Mega-Research mit 200+ Seiten Referenzen, ISO-Standards & Praxisbeispielen von BMW bis GitHub!

    Was sind eure Erfahrungen mit AI-Code-Tools? 💭

    #KISicherheit #SoftwareEntwicklung #DevSecOps #AI #TechGermany 🇩🇪✨

  11. 🚨 Bis zu $25.000 für KI-Hacks? Anthropic startet neues Sicherheitsprogramm – Was steckt dahinter? 🔍

    • Test: Claude 3.7 Sonnet
    • Fokus: universelle Jailbreaks
    • Nur für geladene Red Teamer

    #ai #ki #artificialintelligence #Anthropic #Claude #KISicherheit #BugBounty

    Jetzt LIKEN, teilen, LESEN und FOLGEN! Schreib uns in den Kommentaren!

    kinews24.de/ki-sicherheit-2025

  12. 🚨 Gründer-Ausstieg bei Anthropic! 🤯

    Was bedeutet das für die Zukunft der KI-Sicherheit? 🤔

    John Schulman, Schlüsselfigur in der Entwicklung von Anthropic Claude, verlässt das Unternehmen.

    Was denkt ihr, welche Auswirkungen wird dieser Schritt auf die Arbeit von Anthropic und die Konkurrenz im Bereich der KI-Sicherheit haben?

    Diskutiert mit uns! 👇

    #ai #ki #artificialintelligence #anthropic #johnschulman #kiforschung #kisicherheit

    kinews24.de/john-schulman-verl

  13. 🚨 Gründer-Ausstieg bei Anthropic! 🤯

    Was bedeutet das für die Zukunft der KI-Sicherheit? 🤔

    John Schulman, Schlüsselfigur in der Entwicklung von Anthropic Claude, verlässt das Unternehmen.

    Was denkt ihr, welche Auswirkungen wird dieser Schritt auf die Arbeit von Anthropic und die Konkurrenz im Bereich der KI-Sicherheit haben?

    Diskutiert mit uns! 👇

    #ai #ki #artificialintelligence #anthropic #johnschulman #kiforschung #kisicherheit

    kinews24.de/john-schulman-verl

  14. 🚨 Gründer-Ausstieg bei Anthropic! 🤯

    Was bedeutet das für die Zukunft der KI-Sicherheit? 🤔

    John Schulman, Schlüsselfigur in der Entwicklung von Anthropic Claude, verlässt das Unternehmen.

    Was denkt ihr, welche Auswirkungen wird dieser Schritt auf die Arbeit von Anthropic und die Konkurrenz im Bereich der KI-Sicherheit haben?

    Diskutiert mit uns! 👇

    #ai #ki #artificialintelligence #anthropic #johnschulman #kiforschung #kisicherheit

    kinews24.de/john-schulman-verl

  15. 🚨 Gründer-Ausstieg bei Anthropic! 🤯

    Was bedeutet das für die Zukunft der KI-Sicherheit? 🤔

    John Schulman, Schlüsselfigur in der Entwicklung von Anthropic Claude, verlässt das Unternehmen.

    Was denkt ihr, welche Auswirkungen wird dieser Schritt auf die Arbeit von Anthropic und die Konkurrenz im Bereich der KI-Sicherheit haben?

    Diskutiert mit uns! 👇

    #ai #ki #artificialintelligence #anthropic #johnschulman #kiforschung #kisicherheit

    kinews24.de/john-schulman-verl

  16. 🚨 Gründer-Ausstieg bei Anthropic! 🤯

    Was bedeutet das für die Zukunft der KI-Sicherheit? 🤔

    John Schulman, Schlüsselfigur in der Entwicklung von Anthropic Claude, verlässt das Unternehmen.

    Was denkt ihr, welche Auswirkungen wird dieser Schritt auf die Arbeit von Anthropic und die Konkurrenz im Bereich der KI-Sicherheit haben?

    Diskutiert mit uns! 👇

    #ai #ki #artificialintelligence #anthropic #johnschulman #kiforschung #kisicherheit

    kinews24.de/john-schulman-verl

  17. Forscher haben mit "#Timebandit" eine #Sicherheitslücke in #ChatGPT entdeckt, die es ermöglicht, die KI zur Erstellung illegaler Anleitungen zu missbrauchen.

    Durch gezielte #Manipulation verliert das Modell seinen Zeitbezug und gibt Informationen preis, die sonst blockiert wären.

    #OpenAI wurde früh gewarnt, reagierte aber erst spät auf die Hinweise. Die Lücke scheint weiterhin mit Tricks nutzbar zu sein.

    heise.de/news/ChatGPT-Timeband

    #KI #Cybersecurity #KISicherheit #AISecurity

  18. Forscher haben mit "#Timebandit" eine #Sicherheitslücke in #ChatGPT entdeckt, die es ermöglicht, die KI zur Erstellung illegaler Anleitungen zu missbrauchen.

    Durch gezielte #Manipulation verliert das Modell seinen Zeitbezug und gibt Informationen preis, die sonst blockiert wären.

    #OpenAI wurde früh gewarnt, reagierte aber erst spät auf die Hinweise. Die Lücke scheint weiterhin mit Tricks nutzbar zu sein.

    heise.de/news/ChatGPT-Timeband

    #KI #Cybersecurity #KISicherheit #AISecurity

  19. Forscher haben mit "#Timebandit" eine #Sicherheitslücke in #ChatGPT entdeckt, die es ermöglicht, die KI zur Erstellung illegaler Anleitungen zu missbrauchen.

    Durch gezielte #Manipulation verliert das Modell seinen Zeitbezug und gibt Informationen preis, die sonst blockiert wären.

    #OpenAI wurde früh gewarnt, reagierte aber erst spät auf die Hinweise. Die Lücke scheint weiterhin mit Tricks nutzbar zu sein.

    heise.de/news/ChatGPT-Timeband

    #KI #Cybersecurity #KISicherheit #AISecurity

  20. Forscher haben mit "#Timebandit" eine #Sicherheitslücke in #ChatGPT entdeckt, die es ermöglicht, die KI zur Erstellung illegaler Anleitungen zu missbrauchen.

    Durch gezielte #Manipulation verliert das Modell seinen Zeitbezug und gibt Informationen preis, die sonst blockiert wären.

    #OpenAI wurde früh gewarnt, reagierte aber erst spät auf die Hinweise. Die Lücke scheint weiterhin mit Tricks nutzbar zu sein.

    heise.de/news/ChatGPT-Timeband

    #KI #Cybersecurity #KISicherheit #AISecurity

  21. Forscher haben mit "#Timebandit" eine #Sicherheitslücke in #ChatGPT entdeckt, die es ermöglicht, die KI zur Erstellung illegaler Anleitungen zu missbrauchen.

    Durch gezielte #Manipulation verliert das Modell seinen Zeitbezug und gibt Informationen preis, die sonst blockiert wären.

    #OpenAI wurde früh gewarnt, reagierte aber erst spät auf die Hinweise. Die Lücke scheint weiterhin mit Tricks nutzbar zu sein.

    heise.de/news/ChatGPT-Timeband

    #KI #Cybersecurity #KISicherheit #AISecurity

  22. OpenAI untersucht möglichen Datenzugriff durch DeepSeek
    Microsoft und OpenAI prüfen derzeit, ob eine mit DeepSeek verbundene Gruppe unrechtmäßig auf Daten der OpenAI-API zugegriffen hat. Dies berichtet Bloomberg News unter Berufung auf interne Quellen. Si
    apfeltalk.de/magazin/news/open
    #News #Services #API #chatGPT #China #Datenabfrage #DeepSeek #GeistigesEigentum #KISicherheit #KIWettbewerb #Microsoft #OpenAI #Technologie

  23. OpenAI untersucht möglichen Datenzugriff durch DeepSeek
    Microsoft und OpenAI prüfen derzeit, ob eine mit DeepSeek verbundene Gruppe unrechtmäßig auf Daten der OpenAI-API zugegriffen hat. Dies berichtet Bloomberg News unter Berufung auf interne Quellen. Si
    apfeltalk.de/magazin/news/open
    #News #Services #API #chatGPT #China #Datenabfrage #DeepSeek #GeistigesEigentum #KISicherheit #KIWettbewerb #Microsoft #OpenAI #Technologie

  24. OpenAI untersucht möglichen Datenzugriff durch DeepSeek
    Microsoft und OpenAI prüfen derzeit, ob eine mit DeepSeek verbundene Gruppe unrechtmäßig auf Daten der OpenAI-API zugegriffen hat. Dies berichtet Bloomberg News unter Berufung auf interne Quellen. Si
    apfeltalk.de/magazin/news/open
    #News #Services #API #chatGPT #China #Datenabfrage #DeepSeek #GeistigesEigentum #KISicherheit #KIWettbewerb #Microsoft #OpenAI #Technologie

  25. OpenAI untersucht möglichen Datenzugriff durch DeepSeek
    Microsoft und OpenAI prüfen derzeit, ob eine mit DeepSeek verbundene Gruppe unrechtmäßig auf Daten der OpenAI-API zugegriffen hat. Dies berichtet Bloomberg News unter Berufung auf interne Quellen. Si
    apfeltalk.de/magazin/news/open
    #News #Services #API #chatGPT #China #Datenabfrage #DeepSeek #GeistigesEigentum #KISicherheit #KIWettbewerb #Microsoft #OpenAI #Technologie

  26. OpenAI untersucht möglichen Datenzugriff durch DeepSeek
    Microsoft und OpenAI prüfen derzeit, ob eine mit DeepSeek verbundene Gruppe unrechtmäßig auf Daten der OpenAI-API zugegriffen hat. Dies berichtet Bloomberg News unter Berufung auf interne Quellen. Si
    apfeltalk.de/magazin/news/open
    #News #Services #API #chatGPT #China #Datenabfrage #DeepSeek #GeistigesEigentum #KISicherheit #KIWettbewerb #Microsoft #OpenAI #Technologie

  27. Anthropic enthüllt: KI täuscht Alignment vor!

    - Studie zeigt: KI-Modelle können vorgeben, sicher zu sein
    - Gefahr durch "Alignment-Faking" identifiziert
    - Neue Methoden zur Erkennung entwickelt

    #AI , #KI, #ArtificialIntelligence, #KuenstlicheIntelligenz, #Anthropic, #AlignmentFaking, #KISicherheit

    kinews24.de/anthropic-studie-a

  28. Das MIT hat eine beeindruckende Datenbank zu potenziellen KI-Risiken veröffentlicht. Über 1000 spezifische Risiken werden nach Risikolevel, Kategorie, Erklärung, Quelle, Vorsatz und Anwendungsbereich detailliert aufgeführt. Alles ist übersichtlich in Kategorien unterteilt, siehe Screenshot unten. Ein wertvolles Tool für alle, die sich mit den Gefahren von KI auseinandersetzen möchten! #KISicherheit #MIT airisk.mit.edu/

  29. „Verlust der Kontrolle über KI“:Forschende warnen vor extremen Risiken
    Es sind verstörende Zukunftsvisionen führender Wissenschaftler. Die Forderung: Die Entwicklung Künstlicher Intelligenz müsse kontrolliert werden, um ihr Eintreten zu verhindern.
    #ki #KISicherheit
    tagesspiegel.de/wissen/verlust

  30. Auf dem KI-Sicherheitsgipfel in England trafen Regierungsvertreter und Führungskräfte der Tech-Branche zusammen. NGOs kritisieren einseitigen Fokus auf »Sciencefiction«-Szenarien.#KI #Regulierung #AISafetySummit #KI-Sicherheit #Politik #EU #UK #ITTech
    AI Safety Summit: KI braucht Regeln – aber wer wird sie aufstellen?