#mixtral — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #mixtral, aggregated by home.social.
-
Kann man gedruckte Ortsfamilienbücher mit KI auswerten?
Dass Ortsfamilienbücher exzellente Forschungsgrundlagen für die Geschichts-, Wirtschafts- und Sozialwissenschaften liefern, haben Georg Fertig, Robert Stelter und Christian Boose hier im Blog des Vereins für Computergenealogie (CompGen) beschrieben. Kann man auch gedruckte Ortsfamilienbücher (OFB) mit künstlicher Intelligenz (KI) oder anderen Methoden auswerten? Dieser Frage gehen Robert Stelter und Rafael Biehler in ihrer kürzlich veröffentlichten Arbeit nach.
Vergleich von drei […]
https://www.compgen.de/2025/06/kann-man-gedruckte-ortsfamilienbuecher-mit-ki-auswerten/
-
New Cloud Platform for Large Language Model Deployment 🚀
🔧 Run any #opensource #LLM supported by #vLLM on autoscaling #GPU clusters, supporting models up to 640GB VRAM
🤖 Compatible with major models: #Llama3 405B/70B/8B, #Qwen2 72B, #Mixtral 8x22B, #Gemma2 27B, #Phi3, and more
💻 Features include:
- #OpenAI compatible #API
- Custom-built #GPU scheduler
- Support for full-weight and 4-bit AWQ repos
- Multi-tenant architecture for cost efficiency🆓 Currently free during beta phase, promising competitive pricing post-launch
-
>#Mistral #AI is blowing through the AI scene just like its namesake, aiming to be #Europe’s flagship #LLM provider, especially with its cutting-edge #Mixtral 8×22B model, which is allegedly on par with #ChatGPT.
#GenerativeArtificialIntelligence #GenAI #MachineLearning #ML
-
Words are flowing out like endless rain: Recapping a busy week of LLM news - Enlarge / An image of a boy amazed by flying letters. (credit: Getty Im... - https://arstechnica.com/?p=2016005 #largelanguagemodels #machinelearning #claude3sonnet #simonwillison #chatbotarena #googlegemini #mixtral8x22b #claude3opus #gpt-4-turbo #anthropic #gemini1.5 #whirlwind #chatgpt #chatgtp #claude3 #mistral #mixtral #biz #gemini #openai #gpt-4 #recap #meta #ai
-
Anyone happen to know the correct prompt format for #mixtral 8x7b? I'm not having luck with the [INST] style in llama.cpp. #llm #llama_cpp #MistralAI #mistral
-
The mpt-7b-instruct2 model is deprecated.
Replaced by mixtral-8x7b-instruct-v01-qSupported natural languages: English, French, German, Italian, Spanish
It only uses 13 billion active parameters for inferencing, which reduces costs and latency.
#MistralAI #LLMs #GenerativeAI #IBM #watsonx #mixtral #mixtral8xb #SDLC #SoftwareDevelopmentLifeCycle #RAG #RetrievalAugmentedGeneration
-
#ParzivAI v0.2: die nächste Runde finetuning läuft. Wir sehen uns in 9 Stunden wieder... 🤖⚔️
#Mittelhochdeutsch #Linguistik #Deutsch #Chatbot #AI #DH #LernenmitKI #FediLz #eduBW #Germanistik #Mittelalter #Mixtral #DigitalHumanities #AIinEducation #Computerlinguistik
-
🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico).
⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.
🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.
-
🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico).
⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.
🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.
-
🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico).
⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.
🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.
-
🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico).
⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.
🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.
-
🧠 Un confronto tra output di diversi #LLM: #GPT4, GPT-3.5, #Gemini Plus, #Claude2, #Llama2 70b, #Mixtral 8x7b (input identico).
⚙️ Il task è molto semplice: l'analisi di una recensione. Le risposte sono molto simili: le sfumature nell'estrazione dei topic derivano da diverse letture del contesto, ma hanno tutti senso.
🦾 Per operazioni semplici e ricorrenti, i modelli open source eseguiti localmente o su istanze private possono essere una risposta di valore.
-
Going through my #neovim config for below toot reminded me what a messed up mix of #vimscript and #lua it is. So I finally took the plunge and converted it to proper lua.
Turns out, #LLMs are pretty good at this. #Mixtral converted every vimscript snippet I threw at it to a correct lua statement!
-
Solar mixes two base-model copies
to create a larger one
Then train it a bit more and beat other open models out there.
How? and my thoughts 🧵(no author with a handle?!)
https://arxiv.org/abs/2312.15166
#scientivism #LLM #LLMS #pretraining #MIXTRAL #SOLAR #machinelearning #ml #NLP -
Как запустить Mixtral на своём компьютере
Всякий раз, когда выходит новая хорошая ИИ модель, Хабр наполняется вопросами "Как нам её попробовать" и неправильными ответами, будто нужно платить за какие-то сервисы или иметь железа на сто лямов. Поэтому я вновь напишу инструкцию, как запустить новейший mixtral-8x7 на обычных средних компьютерах.
https://habr.com/ru/articles/781702/
#LLM #Mixtral #KoboldCPP #GGUF #18+