home.social

#explainable_ai — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #explainable_ai, aggregated by home.social.

  1. Cобрать агента для XAI и никогда больше не быть онлайн

    Привет, друзья! Я, похоже, наконец пережила кризис пришествия агентов в нашу жизнь. Мне всегда безумно нравился процесс решения задач — этакий личный, удивительный мир, даже когда ты уже знаешь правило Лопиталя/Modus ponens/выберите то, которое заставило вас смеяться больше всего при изучении. А теперь, чтобы не выпасть из жизни, задачи просто приходится решать с кем-то . И этот кто-то LLM-Agent. По жизни я — XAI Researcher, так что эта статья, среди прочих, будет практическим туториалам для решения задачи "собрать агента для интепретируемости ML моделей и больше никогда не смотреть в экран, думая о коэффициентах логистической регрессии". Или всё-таки подумать придётся? Весь код туториала лежит здесь: github.com/SadSabrina/XAI-open

    habr.com/ru/articles/1033184/

    #llmагент #llmмодели #llm #explainable_ai #agents #agent_loop

  2. Когда AI ставит диагноз: где проходит граница отвественности врача и алгоритма

    Искусственный интеллект всё активнее входит в медицину и цифровые сервисы. Он помогает диагностировать заболевания, персонализировать интерфейсы, анализировать поведение пользователей и даже формировать рекомендации по лечению.

    habr.com/ru/articles/1007242/

    #AI_в_медицине #UX_медицинских_интерфейсов #медицинские_алгоритмы #explainable_AI #MedTech_UX #телемедицина_UX #этика_AI #интерфейсы_медицинских_систем #дизайн_медицинских_сервисов #доверие_к_алгоритмам

  3. SAE: введение, пояснение и код

    Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак. Но что делать, если у нас не задача классификации, а задача next token prediction? Да и признаки не соответствуют "собакам" и "кошкам", а охватывают все богатство естественного языка... Ответ сообщества сейчас такой — давайте использовать SAE. Как? Разбираем основы в статье.

    habr.com/ru/articles/983474/

    #Sparse_Autoencoders #explainable_ai

  4. SAE: введение, пояснение и код

    Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак. Но что делать, если у нас не задача классификации, а задача next token prediction? Да и признаки не соответствуют "собакам" и "кошкам", а охватывают все богатство естественного языка... Ответ сообщества сейчас такой — давайте использовать SAE. Как? Разбираем основы в статье.

    habr.com/ru/articles/983474/

    #Sparse_Autoencoders #explainable_ai

  5. SAE: введение, пояснение и код

    Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак. Но что делать, если у нас не задача классификации, а задача next token prediction? Да и признаки не соответствуют "собакам" и "кошкам", а охватывают все богатство естественного языка... Ответ сообщества сейчас такой — давайте использовать SAE. Как? Разбираем основы в статье.

    habr.com/ru/articles/983474/

    #Sparse_Autoencoders #explainable_ai

  6. SAE: введение, пояснение и код

    Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак. Но что делать, если у нас не задача классификации, а задача next token prediction? Да и признаки не соответствуют "собакам" и "кошкам", а охватывают все богатство естественного языка... Ответ сообщества сейчас такой — давайте использовать SAE. Как? Разбираем основы в статье.

    habr.com/ru/articles/983474/

    #Sparse_Autoencoders #explainable_ai

  7. Управление ИИ (AI Governance) в 2025: пять главных вызовов и пути их преодоления

    По данным глобальных отчетов, уже 30% всех корпоративных решений в 2025 году принимаются с участием искусственного интеллекта (ИИ). Инструменты ИИ активно внедряются во все сферы: они используются для оптимизации операционных и бизнес-процессов, как самостоятельные или вспомогательные продукты, а все чаще – и как системы, принимающие решения. Однако в этой гонке за эффективностью вопросы управления рисками и этические предохранители нередко отходят на второй план. Между тем, именно сфера регулирования и этики ИИ является ключевым инструментом, позволяющим компаниям обеспечить безопасное использование AI-технологий как с технической точки зрения, так и в контексте соответствия требованиям контролирующих органов. Регуляторные и этические фреймворки, закрепленные на уровне законодательства и лучших отраслевых практик, в действительности определяют ландшафт внедрения новых технологий. С какими вызовами AI Governance сталкивается IT-индустрия сегодня? В этой статье мы разберем 5 ключевых проблем регулирования ИИ, алгоритмической предвзятости, безопасности нейросетей, их экологического следа и глобальной стандартизации AI. Это авторская статья создана специально для сайта habr.com будет полезна IT-специалистам, разработчикам, менеджерам проектов, юристам, а также всем, кто интересуется будущим искусственного интеллекта, его регулированием и этическими аспектами применения технологий.

    habr.com/ru/articles/920386/

    #ai_governance #Ethical_AI #AI_Ethics #explainable_ai #EU_AI_Act

  8. Объяснимый ИИ в ML и DL

    Объяснимый ИИ — очень важный аспект в ML и DL. Он заключается в том, чтобы интерпретировать модель так, чтобы можно было около прозрачно объяснить ее решения. Потому что это довольно частая необходимость как у конечного заказчика, ведь для них это просто «черный ящик», так и у разработчиков непосредственно (например, для отладки модели). На русском языке таких статей не так много (для тех, кто знает английский проблем с этим нет, на нем таких статей много, например, Kaggle), поэтому я решил, что статья покажется актуальной, и сегодня я попробую рассказать про это и показать на конкретном примере, как его можно реализовать.

    habr.com/ru/articles/913772/

    #ML #DL #Python #Explainable_AI #SHAP

  9. Практическая устойчивость значений Шепли в интерпретации моделей ИИ

    Привет, Хабр! В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации как на практике, так и в исследованиях. На практике этого не делается — применяется аппроксимация. Отсюда возникают вопросы, ответы на которые мы рассмотрим с вами в этой статье :)

    habr.com/ru/articles/853794/

    #explainable_ai #shap #shapley_values