home.social

#машинное_обучение_python — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #машинное_обучение_python, aggregated by home.social.

  1. Множественная регрессия: Расширяем горизонты прогнозирования

    Хотите научиться предсказывать продажи, цены на недвижимость или спрос на товары, учитывая сразу несколько факторов? Вам поможет множественная регрессия. В этой статье вы узнаете: - Математическую основу множественной линейной регрессии – от уравнения гиперплоскости до метода наименьших квадратов; - Разбор полного кода на Python с использованием scikit-learn на реальном датасете Advertising (200 наблюдений); - Как интерпретировать коэффициенты модели; - Сравнение с простой линейной регрессией – насколько лучше работает множественная модель; - Расширение до полиномиальной регрессии, когда линейности недостаточно.

    habr.com/ru/articles/1015102/

    #python #python_для_начинающих #аналитика #анализ_данных #аналитика_данных #регрессия #множественная_регрессия #карьера_в_it #машинное_обучение_python #sklearn

  2. Библиотека OutboxML от Страхового Дома ВСК

    Хабр, привет! Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей машинного обучения с открытым исходным кодом. Первый вопрос, который может задать себе читатель, знакомый с темой современного машинного обучения: «Почему бы не взять одну из десятков (если не сотен) открытых AutoML-библиотек?» Ответ прост: мы не стремились создать ещё один «стандартный» проект AutoML. Наша цель — сфокусироваться на вещах, которые редко встречаются в готовых решениях:

    habr.com/ru/companies/vsk_insu

    #automl #машинное_обучение #машинное_обучение_python #data_science #mlops #mlflow #fastapi #grafana #открытый_код #ml

  3. Reformer на TRAX?

    Что такое Reformer и почему он круче Transformer’a (GPT-4...)? Давайте предварительно начнем с того, что же такой Reformer и почему благодаря ему мы можем рассчитывать на расширение контекстов вплоть до десятков тысяч слов. В классической архитектуре Transformer механизм внимания работает со сложностью, которая масштабируется квадратично с увеличением длины последовательности. Это происходит потому, что каждый токен в последовательности должен вычислять оценки внимания со всеми другими токенами, что приводит к плотной матрице внимания, размер которой растет с квадратом длины последовательности – мрак для вычислительных способностей наших TPU и GPU.

    habr.com/ru/articles/818521/

    #TRAX #JAX #tensorflow #трансформер #как_написать_реформер #нейронка #машинное_обучение #машинное_обучение_python #LLM

  4. Создаем чат-бота на Python: Полное руководство

    В этом полном руководстве от DataTech Community мы шаг за шагом рассмотрим процесс создания чат-бота на Python. Откройте для себя мощь NLTK и TensorFlow в обработке естественного языка и машинном обучении, чтобы создать интеллектуального помощника, способного общаться и отвечать на вопросы пользователей. Научитесь подготавливать данные, строить и обучать модель нейронной сети, а затем интегрировать ее в логику чат-бота для создания эффективного и интеллектуального виртуального помощника.

    habr.com/ru/articles/792148/

    #Чатбот_Python #NLTK_Python #Разработка_чатбота #TensorFlow_обучение #Создание_AI_чатбота #Машинное_обучение_Python #NLP_обработка_текста #Примеры_кода_чатбота #Обучение_нейронных_сетей #Искусственный_интеллект_чатбот