home.social

#gptoss — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #gptoss, aggregated by home.social.

  1. New week, more slides: Run LLMs Locally

    Now with LFM 2 and new slides for using Transformers.js with WebGPU for Privacy Filter, Function Calling and Embeddings, running completely in your browser.

    codeberg.org/thbley/talks/raw/

    #ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4 #nemotron #webgpu

  2. TUTORIAL - Passo a passo: IA local no Linux com LM Studio

    Neste vídeo, você vai aprender como rodar inteligência artificial localmente no seu Linux usando o LM Studio.

    Se você quer mais controle, mais privacidade e rodar IA direto no seu computador, esse guia é pra você.

    Link: youtu.be/M7jR2BIuGyQ

    #debian #debian13 #lmstudio #ialocal #ibmgranite #gptoss #googlegemma #qwen #rx550 #linux

  3. TUTORIAL - Passo a passo: IA local no Linux com LM Studio

    Neste vídeo, você vai aprender como rodar inteligência artificial localmente no seu Linux usando o LM Studio.

    Se você quer mais controle, mais privacidade e rodar IA direto no seu computador, esse guia é pra você.

    Link: youtu.be/M7jR2BIuGyQ

    #debian #debian13 #lmstudio #ialocal #ibmgranite #gptoss #googlegemma #qwen #rx550 #linux

  4. New week, new slides: Run LLMs Locally

    Now including Nemotron 3 Nano Omni from Nvidia, Llama.cpp built-in tools and new slides about using Transformers.js with WebGPU for Image Recognition and OCR.

    codeberg.org/thbley/talks/raw/

    #ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4 #nemotron #webgpu

  5. New week, new update for the slides of my talk "Run LLMs Locally":

    Now including Gemma4 and Qwen3-Omni with Vision and Audio support and new slides describing Llama.cpp server parameters.

    codeberg.org/thbley/talks/raw/

    #ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4

  6. Облачные модели Ollama в задачах code review — честное сравнение на примерах

    AI всё чаще используется в разработке: генерация кода, автодополнение, агентные IDE. Но возникает логичный вопрос - можно ли доверить LLM полноценный code review? В этой статье я решил проверить это на практике. Я сравнил несколько моделей, доступных через Ollama Cloud - Qwen 3.5, GPT-OSS и DeepSeek v3.1 - и дал им проанализировать реальные Pull Request из легаси-проекта на Python. Спойлер: некоторые модели показали неожиданно хороший результат.

    habr.com/ru/articles/1010048/

    #code_review #ollama #llm #ai_code_review #pull_request #github #open_source #deepseek #qwen #gptoss

  7. Облачные модели Ollama в задачах code review — честное сравнение на примерах

    AI всё чаще используется в разработке: генерация кода, автодополнение, агентные IDE. Но возникает логичный вопрос - можно ли доверить LLM полноценный code review? В этой статье я решил проверить это на практике. Я сравнил несколько моделей, доступных через Ollama Cloud - Qwen 3.5, GPT-OSS и DeepSeek v3.1 - и дал им проанализировать реальные Pull Request из легаси-проекта на Python. Спойлер: некоторые модели показали неожиданно хороший результат.

    habr.com/ru/articles/1010048/

    #code_review #ollama #llm #ai_code_review #pull_request #github #open_source #deepseek #qwen #gptoss

  8. Облачные модели Ollama в задачах code review — честное сравнение на примерах

    AI всё чаще используется в разработке: генерация кода, автодополнение, агентные IDE. Но возникает логичный вопрос - можно ли доверить LLM полноценный code review? В этой статье я решил проверить это на практике. Я сравнил несколько моделей, доступных через Ollama Cloud - Qwen 3.5, GPT-OSS и DeepSeek v3.1 - и дал им проанализировать реальные Pull Request из легаси-проекта на Python. Спойлер: некоторые модели показали неожиданно хороший результат.

    habr.com/ru/articles/1010048/

    #code_review #ollama #llm #ai_code_review #pull_request #github #open_source #deepseek #qwen #gptoss

  9. Облачные модели Ollama в задачах code review — честное сравнение на примерах

    AI всё чаще используется в разработке: генерация кода, автодополнение, агентные IDE. Но возникает логичный вопрос - можно ли доверить LLM полноценный code review? В этой статье я решил проверить это на практике. Я сравнил несколько моделей, доступных через Ollama Cloud - Qwen 3.5, GPT-OSS и DeepSeek v3.1 - и дал им проанализировать реальные Pull Request из легаси-проекта на Python. Спойлер: некоторые модели показали неожиданно хороший результат.

    habr.com/ru/articles/1010048/

    #code_review #ollama #llm #ai_code_review #pull_request #github #open_source #deepseek #qwen #gptoss

  10. DES-Projekt Hochschulschriften: XXX. Jahrgang in der Erfassung mit noch mehr KI-Unterstützung

    Über das seit Dezember 2021 laufende DES-Projekt „Hochschulschriften“ des Vereins für Computergenealogie in Zusammenarbeit mit dem Max-Planck-Institut für Innovation und Wettbewerb in München berichtet der CompGen-Blog regelmäßig. Mit dem neuen Jahrgang für 1914 wurde die Vorbereitung der Einträge mit Hilfe von Großen Sprachmodellen weiter verbessert. Seit der letzten Meldung wurden die Jahrgänge 1912 und 1913 abgeschlossen. Die Datenbank umfasst nun knapp 84.000 vollständig […]

    compgen.de/2026/01/des-projekt

  11. RepE — как активационная инъекция влияет на энтропию, деградацию и качество ответов LLM?

    Современные большие языковые модели достигли впечатляющих результатов в генерации текста, однако они до сих пор остаются жуткой стохастикой. На мой взгляд проблема текущего ИИ заключается не в синтетических обучающих данных или архитектурных ограничениях, а в отсутствии внутренней верификации . Для LLM галлюцинация и факт онтологически равноценны: и то, и другое — лишь вероятностная последовательность токенов, максимизирующая правдоподобие. Стандартные методы донастройки, такие как RLHF, часто еще сильнее ухудшают ситуацию: они учат модель казаться правильной и вежливой, создавая маску дружелюбного ассистента, но не меняют глубинные механизмы принятия решений. В результате мы получаем модели, которые полноценно врут даже там, где их знаний возможно хватило бы для правильного ответа на вопрос. Данная работа посвящена изучению методов Representation Engineering (RepE) — подхода, который позволяет проникать в активационные слои нейросетей и слегка усиливать отдельные вектора. В отличии от классического промпт инженеринга мы не задаем роль, а правим внутреннюю генерацию ответа, можно сказать точечно правим "веса" хоть это в действительности и не так. Цель - проверка того, может ли выделение и активация специфических семантических векторов служить функциональным регулятором генерации - и как в целом это выделение влияет на модель. Возможно ли таким методом снизить энтропию или получить сравнительно лучшие ответы от модели.

    habr.com/ru/articles/981520/

    #ai #ml #repe #активации #gemma #gptoss #Owen #вектор #скрытый_слой #искусственный_интеллект

  12. livebench.ai là nền tảng mới chuyên đánh giá và so sánh các mô hình AI mã nguồn mở. Cộng đồng đang bàn luận sôi nổi về bảng xếp hạng này, đặc biệt là so sánh Qwen 3 Next với GPT-OSS. Bạn nghĩ sao về thứ tự các mô hình này?
    #AI #OpenSource #Livebench #LLM #Qwen #GPTOSS #Benchmark #TríTuệNhânTạo #MãNguồnMở #ĐánhGiáAI #MôHìnhNgônNgữ

    reddit.com/r/LocalLLaMA/commen

  13. [Перевод] Как открытые веса раскрыли секреты обучения GPT-5

    Команда AI for Devs перевела статью, показывающую, что открытые веса — это не только про прозрачность, но и про утечку тайн обучения. На примере модели GPT-oss автор показывает, как можно восстановить части обучающего пайплайна и даже выявить, что GPT-5 видела фразы с сайтов для взрослых.

    habr.com/ru/articles/955260/

    #OpenAI #GPT5 #GPToss #glitchtokens #trainingdata #membershipinference #tokenizer #embeddings #GitHub #adultcontent

  14. ✨ OpenAI & You.com: Neue KI-Ära 2025?

    ▶️ Open-Weight Modelle starten
    ▶️ Live-Websuche integriert
    ▶️ Effizient & faktenbasiert

    #ai #ki #artificialintelligence #openai #youcom #gptoss #opensourceai #tech2025

    ⚡ SAVE IT! SHARE IT! READ IT! 🚀

    kinews24.de/openai-gpt-oss-you