home.social

#knn — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #knn, aggregated by home.social.

  1. Как написать собственные классы классификации для маленьких

    В прошлый раз я уже рассказывала о том, как в ходе обучения в "Школе 21" создавала класс линейной регресии , на этот раз будем рассматривать реализацию LogisticRegression, GaussianNB, KNN. Как и в прошлый раз, минимум теории, максимум практики.

    habr.com/ru/articles/966764/

    #LogisticRegression #GaussianNB #KNN #школа_21

  2. Сравниваем быстродействие новой функциональности ClickHouse по поиску ближайших векторов с другими решениями

    Всем привет! Меня зовут Диана Бутько, я студентка 3 курса, изучаю информационные системы и программирование. В InfoWatch я пришла на практику, и одной из моих задач стал сравнительный анализ различных методов поиска похожих векторов. Это один из ключевых аспектов машинного обучения и анализа данных, используемых в рекомендательных системах, кластеризации, семантическом поиске и других областях. Но чем больше объем данных, тем важнее становится выбор инструментов: полный перебор векторов требует больших вычислительных ресурсов, а в других алгоритмах порой необходимо балансировать между точностью и скоростью поиска. В этой статье я сравниваю пять методов поиска похожих векторов: — полный перебор по евклидову расстоянию с реализацией в Python; — FAISS с индексами IndexFlatL2 (полный перебор, евклидово расстояние) и IndexIVFFlat (сегментирование по ячейкам, евклидово расстояние); — векторный поиск в ClickHouse с индексом HNSW и метриками расстояния L2Distance (евклидово расстояние) и cosineDistance (косинусное сходство).

    habr.com/ru/companies/infowatc

    #clickhouse #knn #faiss #hnsw

  3. This series of videos on machine learning algorithms (Lab a through Lab d, so far) by Courage Kamusoko are the best explanations I've seen yet. How the models actually work, their strengths and weaknesses, what you are actually solving for when you tune the hyperparameters, and examples in Python. youtube.com/@couragekamusoko56
    #SVM #KNN #DecisionTree #RandomForest

  4. This series of videos on machine learning algorithms (Lab a through Lab d, so far) by Courage Kamusoko are the best explanations I've seen yet. How the models actually work, their strengths and weaknesses, what you are actually solving for when you tune the hyperparameters, and examples in Python. youtube.com/@couragekamusoko56
    #SVM #KNN #DecisionTree #RandomForest

  5. This series of videos on machine learning algorithms (Lab a through Lab d, so far) by Courage Kamusoko are the best explanations I've seen yet. How the models actually work, their strengths and weaknesses, what you are actually solving for when you tune the hyperparameters, and examples in Python. youtube.com/@couragekamusoko56
    #SVM #KNN #DecisionTree #RandomForest

  6. This series of videos on machine learning algorithms (Lab a through Lab d, so far) by Courage Kamusoko are the best explanations I've seen yet. How the models actually work, their strengths and weaknesses, what you are actually solving for when you tune the hyperparameters, and examples in Python. youtube.com/@couragekamusoko56
    #SVM #KNN #DecisionTree #RandomForest

  7. Нейронные оптимизаторы запросов в реляционных БД (Часть 2): На пути к продуктивизации

    Нельзя просто взять и заменить нейросетями миллионы человеко-часов, вложенных в разработку классических оптимизаторов запросов реляционных СУБД. Надёжность, гибкость и скорость — ключевые характеристики экспертных систем, которые нарабатывались и отлаживались десятилетиями. В прошлой статье рассказали о пионерах в области нейросетевых оптимизаторов, которые создали плацдарм для развития подобных ML-систем и их последующего вывода на уровень коммерческих продуктов. В этой же — затронем относительно стабильные подходы, не требующие гигантских вычислительных кластеров и удовлетворяющие большую часть потребностей бизнеса. Серебряной пули, конечно, не существует, но с каждым из этих методов можно прийти к оптимальному решению для конкретной задачи.

    habr.com/ru/companies/postgres

    #оптимизация #Bao #AQO #нейросети #оптимизация_запросов #машинное_обучение #обучение_с_подкреплением #многорукие_бандиты #knn #reinforcementlearning

  8. Теоретические основы всех популярных алгоритмов машинного обучения и их реализация с нуля на Python

    В данной статье в виде ссылок представлены все популярные алгоритмы классического машинного обучения с их подробным теоретическим описанием и немного упрощённой реализацией с нуля на Python, отражающей основную идею. Помимо этого, в конце каждой темы указаны дополнительные источники для более глубокого ознакомления, а суммарное время прочтения статей ниже составляет более трёх часов !

    habr.com/ru/articles/804605/

    #алгоритмы_машинного_обучения #регрессионный_анализ #lda #наивный_байесовский_классификатор #svm #knn #дерево_решений #ансамбли #pca #кластеризация