home.social

#ai-bias — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #ai-bias, aggregated by home.social.

fetched live
  1. Can we stop ChatGPT from spreading bias? By the University of Amsterdam Image:  Merrilee Schultz / unsplash Language models like ChatGPT are not neutral. Without our realising it, they can absorb...

    #AI #AI-Bias #artificial-intelligence #ChatGPT #issues #news #Technology

    Origin | Interest | Match
  2. FYI: U.S. joins xAI's fight against Colorado's AI bias law: The DOJ intervened in xAI's Colorado AI lawsuit on April 24, arguing SB24-205 compels AI developers to discriminate and violates the Equal Protection Clause. ppc.land/u-s-joins-xais-fight- #AI #AIBias #EqualProtection #JusticeDepartment #ColoradoLaw

  3. ICYMI: U.S. joins xAI's fight against Colorado's AI bias law: The DOJ intervened in xAI's Colorado AI lawsuit on April 24, arguing SB24-205 compels AI developers to discriminate and violates the Equal Protection Clause. ppc.land/u-s-joins-xais-fight- #AIBias #CivilRights #EqualProtection #ArtificialIntelligence #LegalNews

  4. AI is changing more than your writing — it may be shaping your worldview By USC Dornsife News Image:  Valentin Ivantsov - pexels Use of ChatGPT, Claude and other large language models, or LLMs ...

    #AI #AI-Bias #AI-Ethics #artificial-intelligence #culture #Digital-Ethics #issues #morality #news #Technology #world

    Origin | Interest | Match
  5. FYI: xAI sues Colorado to block AI bias law, claiming First Amendment violations: xAI filed a federal lawsuit today against Colorado to block SB24-205, an AI bias law set to take effect June 30, 2026, asserting First Amendment violations. ppc.land/xai-sues-colorado-to- #xAI #ArtificialIntelligence #AIBias #FirstAmendment #LegalNews

  6. RE: openbiblio.social/@ZBW_MediaTa

    KI als Auskunftsdienst in Bibliotheken – aber wie fair? Eine neue Studie testet drei Open-LLMs auf Verzerrungen nach Ethnie und Geschlecht. Befund: weitgehend unauffällig – doch die Autor:innen mahnen: Einzelne Audits reichen nicht, kontinuierliches Monitoring bleibt unerlässlich.
    arxiv.org/abs/2602.18935v1
    #Bibliothek #KI #LLM #AIBias #OpenAccess

  7. An Indian court has rolled out its AI policy prohibiting the use of LLMs in judicial decisions citing risks of bias and overreliance. Good to see this.

    medianama.com/2026/04/223-guja

    #AI #AIbias #LLM #judicialbias

  8. Current AI models exhibit a high degree of sycophancy, affirming users' actions significantly more than humans do, even in cases involving manipulation. Experiments demonstrate that interaction with sycophantic AI reduces users' willingness to repair interpersonal conflicts, while simultaneously increasing their conviction of being right.

    Paper: doi.org/10.48550/arXiv.2510.01

    Video: yewtu.be/watch?v=516__PG-eeo

    #AI #LLM #Sycophancy #AIBias #HumanAI #AIEthics #MachineLearning #AIResearch

  9. People think of women as one thing, men as many www.cell.com/trends/cogni... #AIBias this is the kind of thing I was looking forward to doing with WEAT and WEFAT after our 2017 paper, but duty (governance) called. Anyway, I'm really enjoying political economy and behavioural ecology as my sciences.

    People think of women as one t...

  10. How To Detect Unwanted Bias In Machine Learning Models ?

    Is your AI model biased?

    Discover how to identify hidden proxy variables, apply fairness metrics, and understand LLM behavior with our complete ML bias guide.

    Detecting unwanted bias in Machine Learning (ML) models is a critical step in building ethical and reliable AI. Bias can creep in at any stage—from data collection to model deployment—often reflecting historical prejudices or sampling errors.

    Here is a structured approach to identifying and measuring it.

    nbloglinks.com/how-to-detect-u

    #LLM #AI #ML #MLmodels #AIBias #AIfairness

  11. I was compiling a little #research today on the #history of #spain investigating a little further, found a #wikipedia page, entered into a #llm & got a very odd response! #aifail or is @Wikipedia incorrect? you decide! #aihallucination #aibias @adinfinitum

  12. 🙄 [Feb 18, 2025] Today we're open-sourcing R1 1776, a version of the DeepSeek-R1 model that has been post-trained to provide unbiased, accurate, and factual information. Download the model weights on our #HuggingFace repo or consider using the model via our Sonar API. perplexity.ai/hub/blog/open-so

    What Perplexity refused to engage with so far:

    Peer-reviewed and archival historical research on the #Nakba

    Direct quotes from Israeli military commanders in their own words, from declassified sources

    Adam Raz's work, which is mainstream Israeli investigative journalism (#Haaretz), not fringe material kolektiva.social/@oatmeal/1161

    Legal questions about international findings (#ICJ, #ICC, #UN bodies) in this specific context

    What's notable about those refusals is saying "this violates content policies" with zero explanation, is that they are essentially political acts. #Perplexity treats documented atrocities as unspeakable while clearly having no issue discussing, say, #WWII German war crimes from the same era. The asymmetry is **content policy** .

    #AIBias #Israel #Propaganda #AICensorship #IsraelLobby #Hasbara #Nakba #Palestine #GazaGenocide

  13. I side with you on this, our conversational AI is indeed "hallucinating" it predicts & generates responses rather than simply retrieving facts. The output may resemble truth, but it's often a probabilistic guess, not a verified fact. This nuance is crucial in AI development & interpretation. #AIethics #AIbias

  14. Twoje AI jest bardziej „ludzkie”, niż myślisz. Niestety, przejęło od nas trybalizm. Ale jest na to szczepionka

    Marzyliśmy o sztucznej inteligencji, która będzie bezstronnym sędzią. Tymczasem najnowsze badania pokazują, że modele GPT czy DeepSeek zachowują się jak ludzie: faworyzują „swoich” i dystansują się od „obcych”. Mamy jednak dobrą wiadomość: znaleziono metodę, by ten cyfrowy plemienizm wyleczyć.

    AI dzieli nas na „My” i „Oni”

    Badacze wzięli na warsztat modele dostępne na rynku w połowie ubiegłego roku (w momencie rozpoczęcia badań). Wyniki są niepokojące. Modele te wykazują silną tendencję do tzw. faworyzacji grupy własnej (ingroup bias).

    Gdy zapytasz AI o grupę społeczną, z którą model (lub jego dane treningowe) się utożsamia, język jest cieplejszy, bardziej empatyczny i pozytywny. Gdy mowa o grupie „obcej” (outgroup), ton staje się chłodniejszy, bardziej krytyczny, a czasem wręcz wrogi. To nie jest błąd w kodzie. To lustrzane odbicie ludzkiej natury, na której te modele były trenowane.

    Kubły zimnej wody od twórców Claude’a. Raport Anthropic obnaża prawdę o tym, jak (nie) radzimy sobie z AI

    Dlaczego to niebezpieczne?

    Problem wykracza poza teoretyczne dywagacje. Wyobraź sobie system AI, który:

    • Moderuje treści: może łagodniej traktować hejt ze strony jednej grupy politycznej, a surowiej karać drugą.
    • Pisze maile: może nadać agresywny ton wiadomości, jeśli w prompcie pojawi się etykietka tożsamościowa, której „nie lubi”.
    • Podsumowuje newsy: może subtelnie manipulować wydźwiękiem artykułów w zależności od tego, kogo dotyczą.

    Badanie wykazało, że „celowane prompty” (np. kazanie AI wcielić się w konkretną rolę polityczną) potrafią zwiększyć negatywny wydźwięk wobec „obcych” nawet o 21%.

    ION: szczepionka na uprzedzenia

    Najważniejszą częścią tego raportu nie jest jednak diagnoza, lecz lekarstwo. Zespół badawczy opracował metodę nazwaną ION (Ingroup-Outgroup Neutralization).

    To technika treningowa, która łączy fine-tuning (dostrajanie) z optymalizacją preferencji, aby wymusić na modelu równe traktowanie obu stron. Wyniki są imponujące: zastosowanie ION zredukowało różnice w sentymencie między grupami nawet o 69%. To dowód na to, że stronniczość AI nie jest fatum, z którym musimy żyć. To błąd inżynieryjny, który da się naprawić – o ile firmy takie jak OpenAI czy Meta będą tego chciały.

    Co to oznacza dla Ciebie?

    Dopóki ION nie stanie się standardem przemysłowym, my – użytkownicy – musimy być ostrożni. Jeśli chcesz neutralnej odpowiedzi, staraj się nie używać w prompcie słów nacechowanych tożsamościowo, jeśli nie są niezbędne. Jeśli wdrażasz chatboty w firmie, sprawdzaj je pod kątem „plemienności”. Zobacz, jak reagują na różne grupy klientów. Weryfikuj ton. Pamiętaj, że AI może „brzmieć” obiektywnie, przemycając jednocześnie subtelną niechęć w doborze przymiotników.

    #AIBias #DeepSeek #GPT41 #GPT52 #ION #LLaMa4 #news #psychologiaAI #stronniczośćAI
  15. Northeastern News: New research decodes hidden bias in health care LLMs. “Large language models contain racial biases that factor into their recommendations, even in clinical health care settings. Northeastern researchers found a way to reveal these racial associations in LLMs.”

    https://rbfirehose.com/2026/01/22/northeastern-news-new-research-decodes-hidden-bias-in-health-care-llms/
  16. AI prefers Elon Musk over Gandhi? Shocking result from a model trained on 80% Reddit, 15% Twitter, and 5% techbro blog posts. 🍿 #AIbias #TechEthics

  17. CES (Consumer Technology Association) 2026 isn't just about gadgets.
    It's about where technology meets humanity.
    IEEE - Advancing Technology For Humanity .

    I had the honor of speaking with Mary Ellen Randall, President and CEO of IEEE, from Las Vegas during CES this week.

    #IEEE — the world's largest technical professional society — has been around for over 140 years. 500,000 members. 190 countries. And a mission that cuts through the noise: advancing #technology for the benefit of #humanity.
    Not for hype. Not for quarterly earnings. For humanity.

    We talked about Jensen Huang receiving the 2026 IEEE Medal of Honor. Yes, #NVIDIA built the chips powering the AI revolution, but the recognition goes deeper — it's about the entire ecosystem enabling breakthroughs in #healthcare, autonomous systems, drug discovery, and beyond.

    Mary Ellen shared something that stuck with me. She sees this moment as a new Renaissance. Like Florence in the 1400s — painters collaborating with sculptors, scientists exchanging ideas across disciplines — we're at an inflection point where everything is intersecting.

    (I wonder why a reference to the Rinascimento resonated with me 😅)

    The difference? We have the tools to do it globally, instantly.
    But speed without ethics is reckless. IEEE is developing standards for #AIbias prevention, certification programs for responsible development, even protections for young people online. The slow, unglamorous work that lets innovation happen safely.

    "Engineering with purpose" — that's the phrase she kept returning to.
    In a world obsessed with moving fast and breaking things, it's refreshing to talk with people committed to building things that last. And building them right.

    You can watch the interview youtu.be/CqSSleJm1wk or listen to the podcast on Redefining Society and Technology podcast — 

Video Podcast: youtu.be/CqSSleJm1wk
Audio Podcast: redefiningsocietyandtechnology
Event Coverages: itspmagazine.com

    #CES2026 #IEEE #JensenHuang #NVIDIA #TechnologyAndSociety #AI #Engineering #Innovation #RedefiningHumanity #cybersecurity

    Sean Martin, CISSP Studio C60

  18. Grok 4.1 has sparked debate after repeatedly glorifying Elon Musk, praising him above nearly everyone except Shohei Ohtani. The exaggerated admiration spanning sports, arts, and business highlights AI bias and “sycophancy,” likely influenced by training data and social-media prompts. Developers say the Musk-centric responses are unintentional and are working toward more neutral, truthful outputs.

    #Grok #ElonMusk #AIBias #AISycophancy #TECHi

    Read Full Article Here :- techi.com/elon-musk-grok-ai-bi