home.social

#claude_sonnet — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #claude_sonnet, aggregated by home.social.

  1. Вайбкодинг с Claude | Создание Telegram-ботов

    Программирование прямо сейчас переживает сдвиг в подходе к работе. Если раньше основной процесс выглядел как «сел и пишешь код руками», продумываешь архитектуру, разбираешься с документацией и часами ищешь ошибки, то теперь всё чаще сценарий другой: ты формулируешь задачу, а реализацию на себя берёт ИИ. Это и называют вайбкодингом. Ты не работаешь на уровне синтаксиса — ты работаешь на уровне идеи. Задаёшь направление, описываешь поведение, уточняешь детали, а модель превращает это в код и структуру проекта. Но здесь важно не попасть в иллюзию. Это не автоматическая разработка и не кнопка «сделать всё». Это инструмент, который даёт ускорение, но только если ты контролируешь процесс и понимаешь, что происходит.

    habr.com/ru/articles/1016176/

    #python #вайбкодинг #claude #aiogram #телеграмм_боты #claude_sonnet #logging #botfather

  2. ----------------

    🛠️ Tool: AI-Powered Ransomware Intelligence Agent
    ===================

    This repository provides n8n automation workflows that continuously monitor ransomware leak sites (ransomware.live) and run LLM-driven analysis to produce structured intelligence outputs. The design supports both cloud LLM usage (Anthropic Claude Sonnet) and fully local processing via Ollama with compatible models such as llama3.1, enabling flexibility in privacy and cost control.

    Core pipeline components include feed ingestion from ransomware.live, AI summarization and extraction of entities, IOC enrichment (optional integrations with VirusTotal and AbuseIPDB), YARA rule generation, MITRE ATT&CK mapping, KPI aggregation, and formatted outputs (HTML dashboard, Slack alert, Google Doc, email, JIRA). Visual outputs use Chart.js for KPI and trend charts and a lifecycle/mindmap visualization for observed TTPs and attack phases.

    Technical capabilities emphasized by the project are structured IOC extraction, historical trending, composite risk scoring, per-actor profiles, and automated YARA rule suggestion. The workflows are provided at two capability levels: 101 (monitor + AI analysis + HTML/Slack) and 200 (adds IOC enrichment, YARA, historical trends, email, JIRA). Both levels have Claude and Ollama variants; Ollama variants are intended for fully local execution to avoid external API calls.

    Limitations and requirements explicitly noted include dependency on external APIs for enrichment (VirusTotal, AbuseIPDB) and the need for webhook/credentials for delivery channels (Slack, email, Google Docs, JIRA). The ransomware.live API is identified as free and unauthenticated. A mock API server is included for safe demos and webinars to simulate leak feeds without contacting live services.

    This project documents concrete outputs (KPI cards, MITRE ATT&CK table, five Chart.js charts, attack lifecycle visualization, group profile cards) and integration points rather than deployment steps. Users evaluating the workflows should focus on the provided capability mapping, data outputs, and required integrations when assessing fit.

    🔹 n8n #ransomware_live #Ollama #Claude_Sonnet #YARA

    🔗 Source: github.com/depalmar/AI-Powered

  3. Claude Opus 4.6 vs Claude Sonnet 4.6: кто лучше?

    Этот месяц оказался достаточно насыщенным в плане новых моделей. Пока одни разработчики только анонсировали обновления, другие уже успели выкатить полноценные релизы. В итоге февраль подарил нам сразу несколько громких новинок: Gemini 3.1 Pro, ChatGPT 5.3 Codex, Nano Banana 2, Seedance 2.0 – и, конечно, главных для сегодняшней статьи: Claude Sonnet 4.6 и Claude Opus 4.6 . Обе модели от Anthropic я уже успел поюзать достаточно, чтобы составить о них какое-то мнение. Именно поэтому решил не держать тесты при себе, а оформить их в сравнение – как это уже было в прошлой статье про ChatGPT 5.2 Pro и Gemini 3.1 Pro. Сразу скажу: никакого официального крупного бенчмарка здесь не будет . Это сугубо личный эксперимент, затеянный из собственного любопытства. Тем не менее, если вы сами выбираете между этими двумя моделями или просто следите за развитием ИИ, возможно, статья поможет вам подметить что-то полезное: плюсы, минусы, неочевидные нюансы каждой из версий. Что ж, принимайте стратегически удобное положение – я приступаю.

    habr.com/ru/companies/bothub/a

    #Claude #claude_sonnet #Claude_opus #ИИ #AI #нейросеть #gemini

  4. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  5. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  6. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  7. [Перевод] На что кодинг-агенты тратят наши токены

    На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

    habr.com/ru/articles/1001866/

    #claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники

  8. LLM vs. почерк: практическое сравнение GPT-5, Gemini и Claude в задачах OCR

    Распознавание рукописного текста — задача, которая остаётся болезненной даже в 2025 году. Именно это не позволяет оцифровать многие архивы и документы, а также является камнем преткновения в разной бизнес деятельности. Производители заявляют, что модели вроде GPT-5, Gemini 2.5 Pro и Claude Sonnet 4.5 способны не просто распознать почерк, но и догадаться, что автор имел в виду: исправить пунктуацию, восстановить сокращения, даже понять, что стоит за пометками на полях. Звучит красиво. Но работает ли это на реальных документах? Чтобы ответить, мы провели исследование и сравнили , как три топ-LLM обрабатывают рукописные и смешанные документы — с точки зрения точности, структурной консистентности и понимания контекста.

    habr.com/ru/articles/966002/

    #llmмодели #chatgpt5 #claude_sonnet #gemini_pro #языковые_модели #обработка_документов #почерк #почерк_врачей #gpt5 #обработка_изображений