home.social

#shadow-ai — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #shadow-ai, aggregated by home.social.

fetched live
  1. DATE: May 7, 2026 at 05:13PM
    SOURCE: HEALTHCARE INFO SECURITY

    Direct article link at end of text block below.

    The #Privacy Risks of Embedded, #ShadowAI in #Healthcare t.co/hZE1uWwdTW #AI

    Here are any URLs found in the article text:

    t.co/hZE1uWwdTW

    Articles can be found by scrolling down the page at healthcareinfosecurity.com/ under the title "Latest"

    -------------------------------------------------

    Private, vetted email list for mental health professionals: clinicians-exchange.org

    Healthcare security & privacy posts not related to IT or infosec are at @HIPAABot . Even so, they mix in some infosec with the legal & regulatory information.

    -------------------------------------------------

    #security #healthcare #doctors #itsecurity #hacking #doxxing #psychotherapy #securitynews #psychotherapist #mentalhealth #psychiatry #hospital #socialwork #datasecurity #webbeacons #cookies #HIPAA #privacy #datanalytics #healthcaresecurity #healthitsecurity #patientrecords @infosec #telehealth #netneutrality #socialengineering

  2. 78% of your employees are bringing their own AI to work.

    A sales hire pastes a confidential transcript into ChatGPT to save time. Your IP is now training a public model.

    60% admit they'll bypass an #AI ban to hit productivity targets. Banning doesn't stop #ShadowAI, it just moves it to personal devices where you have zero control.

    This is an access problem, not a compliance problem.

    amazee.ai/blog/solving-the-sha

  3. You can’t protect what you can’t see. 🔍 AI adoption is growing, but your security doesn't have to suffer. Cloudflare’s Max Imbiel shares how to gain visibility using your existing SASE & DNS data.
    Read more via Dark Reading: darkreading.com/cyberattacks-d #ShadowAI #CloudflareOne

  4. #Hollywood #assistants are increasingly using #AI tools, both officially sanctioned and #shadowAI, to manage larger workloads and shrinking headcounts. While AI is being used for tasks like composing emails and generating script coverage, concerns exist about its limitations in capturing the nuances of storytelling and its potential impact on job security. hollywoodreporter.com/movies/m #tech #media #news

  5. El Caballo de Troya en tu Navegador: Los Riesgos de la IA Generativa en la Empresa

    Por: Ariel Corgatelli

    El dilema de la productividad: ¿A qué costo estamos ahorrando tiempo? La fuga de datos a través de chatbots se ha convertido en el nuevo dolor de cabeza para los departamentos de ciberseguridad.

    El avance de la Inteligencia Artificial generativa ha sido meteórico. Herramientas como ChatGPT, Claude o Gemini se han vuelto compañeros inseparables de miles de empleados que buscan optimizar tareas tediosas. Sin embargo, en esta carrera por la eficiencia, se está abriendo una brecha de seguridad silenciosa pero letal: la exposición de datos corporativos sensibles.

    https://www.instagram.com/reel/DWwfk4GoASs/

    1. El algoritmo nunca olvida

    El concepto fundamental que muchos usuarios ignoran es que los chatbots no son herramientas de procesamiento estático, sino modelos en constante aprendizaje. La mayoría de las versiones gratuitas de estas plataformas utilizan los «prompts» (las instrucciones o textos que ingresamos) para re-entrenar sus algoritmos.

    Cuando un empleado sube un código fuente para buscar un error, o un acta de directorio para que la IA redacte un resumen, esa información deja de pertenecer a la empresa. Pasa a formar parte del vasto conjunto de datos del modelo y, en teoría, podría aparecer filtrada o influenciar respuestas generadas para otros usuarios en el futuro.

    2. El peligro del «Shadow AI»

    Así como hace años hablábamos del Shadow IT (el uso de software no autorizado por el departamento de sistemas), hoy nos enfrentamos al Shadow AI.

    El riesgo es doble:

    • Pérdida de Propiedad Intelectual: Algoritmos, estrategias de marketing antes de ser lanzadas o procesos industriales únicos.
    • Cumplimiento Legal (Compliance): Subir datos de clientes o empleados a servidores de terceros puede violar leyes de protección de datos personales (como la GDPR o normativas locales), exponiendo a la empresa a multas millonarias.

    3. El factor humano y el «atajo» peligroso

    El eslabón más débil sigue siendo el usuario. Muchos empleados, bajo la presión de la inmediatez, trabajan documentos importantes con IA sin saber los daños que pueden generar. No hay mala intención, hay falta de formación en cultura de ciberseguridad. Una planilla de Excel con sueldos o una base de datos de clientes subida a una IA «para que la ordene» es, técnicamente, una filtración de datos autoinfligida.

    Guía de Buenas Prácticas: ¿Cómo usar la IA sin comprometer a la empresa?

    Para aprovechar los beneficios de la IA sin convertirla en un riesgo, es fundamental seguir estos pilares:

    • Anonimización: Antes de interactuar con una IA, se deben eliminar nombres reales, direcciones IP, correos electrónicos y cifras financieras exactas. Usar «Empresa X» o «Monto Y» protege el contexto sin sacrificar el resultado.
    • Uso de Versiones Enterprise: Las empresas deben invertir en licencias corporativas que garantizan que los datos no se utilicen para entrenar modelos públicos y que cumplen con estándares de privacidad específicos.
    • Políticas de Uso Claro: No se trata de prohibir, sino de regular. Crear una guía interna que especifique qué tipo de información puede tocar la IA y cuál debe permanecer estrictamente en servidores locales.
    • Revisión de Configuraciones: Verificar siempre en los ajustes de la herramienta si existe la opción de «Desactivar historial y entrenamiento».

    Conclusión

    La Inteligencia Artificial es una herramienta de transformación increíble, pero en ciberseguridad, la confianza ciega no es una opción. Como siempre decimos, la seguridad de la información comienza con la conciencia del usuario.

    #arielmcorg #chatgpt #ciberseguridad #IA #infosertec #PORTADA #RADIOGEEK #SeguridadInformatica #ShadowAI #tecnologia
  6. Join us tomorrow @ 12:30 PM CT as Recon’s very own threat hunting aficionado, Watson Brown, dives into Detecting AI in the tuMoltuous Shadows!

    Don’t get left in the dark with the AI - secure your spot here: thursdef.com

    #ThursDef #ThreatHunting #ShadowAI #InfoSec #CyberSecurity

  7. ICYMI: As new AI tools enter workplaces, privacy risks don’t always come from where people expect.

    We analyzed 3 emerging AI tools and explained the real governance questions businesses should be asking before adoption.

    medium.com/@biytelum/3-emergin

    #DataPrivacy #AIgovernance #EnterpriseSecurity #ShadowAI

  8. A bit nostalgic to read this piece about law firms in my old stomping grounds (#Hawaii) and their cautious approach to #AI. 100% agree that firms need to have an acceptable use policy, otherwise their associates are going to use it without oversight. #ShadowAI

    bizjournals.com/pacific/news/2

  9. Bonjour ! Ravi de rejoindre le Fediverse. 🐘

    Souveraineté numérique & IA responsable Théoricien et praticien pour les administrations et entreprises.

    ✍️ Auteur essayiste de la trilogie “Shadow AI” et bientôt d'un ouvrage sur la "Souveraineté Numérique Européenne". 🇪🇺

    🎤 Conférencier (BE, EU), j'interviens sur l'autonomie stratégique et la confiance numérique. Au plaisir d'échanger !

    #Introduction #SouverainetéNumérique #ShadowAI #IA #Wallonie #Belgique #DigitalSovereignty #IAResponsable

  10. docker.com/blog/ai-insider-thr - We all want #AI to make our lives easier and more productive. But is AI the new insider #security threat? #ShadowIT was bad. What about #ShadowAI?

  11. CW: CW Shadow AI

    Ich möchte mal dieses vom Anbieter selbst #ShadowAI genannte Tool verlinken, das mir neulich im #Streaming-Bereich aufgefallen ist, als es jemanden empfohlen wurde, der fragte, ob es okay ist, handschriftliche Notizen zu seinen Zuschauern zu machen. Es sammelt und analysiert Chatnachrichten, erstellt Nutzerprofile, und schlägt Smalltalk vor, auf dessen Basis noch mehr Daten für die Profile gesammelt werden können. Ekelhafter gehts aus meiner Sicht kaum noch. yakkrgrowth.com/

  12. Shadow AI isn't a policy failure—it's a demand signal. IBM data shows organizations with high unauthorized AI usage pay $670K more per breach, yet 48% of employees still input company data into banned tools. The companies winning aren't building higher walls; they're channeling usage into governed systems.

    #ShadowAI #EnterpriseRisk #DataGovernance

    implicator.ai/the-670-000-blin

  13. Let's talk about the #ShadowAI problem. 😓

    When your staff uses public LLMs for work, your whole organization is at risk. As a platform provider, we believe the solution is security-by-enablement.

    Our new guide explains why providing internal, Private AI tools is the only way to enforce compliance and data sovereignty.

    🚫 Prohibition fails.

    ✅ Private enablement wins.

    Read the full guide on eliminating Shadow AI:
    👀 amazee.ai/blog/solving-the-sha