#машинное_обучение_python — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #машинное_обучение_python, aggregated by home.social.
-
Множественная регрессия: Расширяем горизонты прогнозирования
Хотите научиться предсказывать продажи, цены на недвижимость или спрос на товары, учитывая сразу несколько факторов? Вам поможет множественная регрессия. В этой статье вы узнаете: - Математическую основу множественной линейной регрессии – от уравнения гиперплоскости до метода наименьших квадратов; - Разбор полного кода на Python с использованием scikit-learn на реальном датасете Advertising (200 наблюдений); - Как интерпретировать коэффициенты модели; - Сравнение с простой линейной регрессией – насколько лучше работает множественная модель; - Расширение до полиномиальной регрессии, когда линейности недостаточно.
https://habr.com/ru/articles/1015102/
#python #python_для_начинающих #аналитика #анализ_данных #аналитика_данных #регрессия #множественная_регрессия #карьера_в_it #машинное_обучение_python #sklearn
-
Библиотека OutboxML от Страхового Дома ВСК
Хабр, привет! Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей машинного обучения с открытым исходным кодом. Первый вопрос, который может задать себе читатель, знакомый с темой современного машинного обучения: «Почему бы не взять одну из десятков (если не сотен) открытых AutoML-библиотек?» Ответ прост: мы не стремились создать ещё один «стандартный» проект AutoML. Наша цель — сфокусироваться на вещах, которые редко встречаются в готовых решениях:
https://habr.com/ru/companies/vsk_insurance/articles/942110/
#automl #машинное_обучение #машинное_обучение_python #data_science #mlops #mlflow #fastapi #grafana #открытый_код #ml
-
Reformer на TRAX?
Что такое Reformer и почему он круче Transformer’a (GPT-4...)? Давайте предварительно начнем с того, что же такой Reformer и почему благодаря ему мы можем рассчитывать на расширение контекстов вплоть до десятков тысяч слов. В классической архитектуре Transformer механизм внимания работает со сложностью, которая масштабируется квадратично с увеличением длины последовательности. Это происходит потому, что каждый токен в последовательности должен вычислять оценки внимания со всеми другими токенами, что приводит к плотной матрице внимания, размер которой растет с квадратом длины последовательности – мрак для вычислительных способностей наших TPU и GPU.
https://habr.com/ru/articles/818521/
#TRAX #JAX #tensorflow #трансформер #как_написать_реформер #нейронка #машинное_обучение #машинное_обучение_python #LLM
-
Создаем чат-бота на Python: Полное руководство
В этом полном руководстве от DataTech Community мы шаг за шагом рассмотрим процесс создания чат-бота на Python. Откройте для себя мощь NLTK и TensorFlow в обработке естественного языка и машинном обучении, чтобы создать интеллектуального помощника, способного общаться и отвечать на вопросы пользователей. Научитесь подготавливать данные, строить и обучать модель нейронной сети, а затем интегрировать ее в логику чат-бота для создания эффективного и интеллектуального виртуального помощника.
https://habr.com/ru/articles/792148/
#Чатбот_Python #NLTK_Python #Разработка_чатбота #TensorFlow_обучение #Создание_AI_чатбота #Машинное_обучение_Python #NLP_обработка_текста #Примеры_кода_чатбота #Обучение_нейронных_сетей #Искусственный_интеллект_чатбот