home.social

#mixtral — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #mixtral, aggregated by home.social.

  1. Kann man gedruckte Ortsfamilienbücher mit KI auswerten?

    Dass Ortsfamilienbücher exzellente Forschungsgrundlagen für die Geschichts-, Wirtschafts- und Sozialwissenschaften liefern, haben Georg Fertig, Robert Stelter und Christian Boose hier im Blog des Vereins für Computergenealogie (CompGen) beschrieben. Kann man auch gedruckte Ortsfamilienbücher (OFB) mit künstlicher Intelligenz (KI) oder anderen Methoden auswerten? Dieser Frage gehen Robert Stelter und Rafael Biehler in ihrer kürzlich veröffentlichten Arbeit nach.

    Vergleich von drei […]

    compgen.de/2025/06/kann-man-ge

  2. 🎯 #OpenSource Language Model Platform Launch

    🔧 Leverages #vLLM technology with custom #GPU scheduler for running various #LLM models
    🤖 Supports major models: #Llama3 (405B/70B/8B), #Qwen2 72B, #Mixtral, #Gemma2, #Jamba15, #Phi3

    glhf.chat/

  3. New Cloud Platform for Large Language Model Deployment 🚀

    🔧 Run any #opensource #LLM supported by #vLLM on autoscaling #GPU clusters, supporting models up to 640GB VRAM

    🤖 Compatible with major models: #Llama3 405B/70B/8B, #Qwen2 72B, #Mixtral 8x22B, #Gemma2 27B, #Phi3, and more

    💻 Features include:
    - #OpenAI compatible #API
    - Custom-built #GPU scheduler
    - Support for full-weight and 4-bit AWQ repos
    - Multi-tenant architecture for cost efficiency

    🆓 Currently free during beta phase, promising competitive pricing post-launch

    glhf.chat/landing/home

  4. >#Mistral #AI is blowing through the AI scene just like its namesake, aiming to be #Europe’s flagship #LLM provider, especially with its cutting-edge #Mixtral 8×22B model, which is allegedly on par with #ChatGPT.

    #GenerativeArtificialIntelligence #GenAI #MachineLearning #ML

    theservitor.com/wind-of-change

  5. Anyone happen to know the correct prompt format for 8x7b? I'm not having luck with the [INST] style in llama.cpp.

  6. dataplatform.cloud.ibm.com/doc

    The mpt-7b-instruct2 model is deprecated.
    Replaced by mixtral-8x7b-instruct-v01-q

    Supported natural languages: English, French, German, Italian, Spanish

    It only uses 13 billion active parameters for inferencing, which reduces costs and latency.

    #MistralAI #LLMs #GenerativeAI #IBM #watsonx #mixtral #mixtral8xb #SDLC #SoftwareDevelopmentLifeCycle #RAG #RetrievalAugmentedGeneration

  7. 🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico). 

    ⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.

    🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.

    #AI #GenAI #GenerativeAI

  8. 🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico). 

    ⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.

    🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.

    #AI #GenAI #GenerativeAI

  9. 🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico). 

    ⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.

    🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.

    #AI #GenAI #GenerativeAI

  10. 🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico). 

    ⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.

    🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.

    #AI #GenAI #GenerativeAI

  11. 🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico). 

    ⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.

    🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.

    #AI #GenAI #GenerativeAI

  12. Going through my #neovim config for below toot reminded me what a messed up mix of #vimscript and #lua it is. So I finally took the plunge and converted it to proper lua.

    Turns out, #LLMs are pretty good at this. #Mixtral converted every vimscript snippet I threw at it to a correct lua statement!

    indieweb.social/@data0/1118186

  13. Solar mixes two base-model copies
    to create a larger one
    Then train it a bit more and beat other open models out there.
    How? and my thoughts 🧵

    (no author with a handle?!)
    arxiv.org/abs/2312.15166
    #scientivism #LLM #LLMS #pretraining #MIXTRAL #SOLAR #machinelearning #ml #NLP

  14. Как запустить Mixtral на своём компьютере

    Всякий раз, когда выходит новая хорошая ИИ модель, Хабр наполняется вопросами "Как нам её попробовать" и неправильными ответами, будто нужно платить за какие-то сервисы или иметь железа на сто лямов. Поэтому я вновь напишу инструкцию, как запустить новейший mixtral-8x7 на обычных средних компьютерах.

    habr.com/ru/articles/781702/

    #LLM #Mixtral #KoboldCPP #GGUF #18+