#contextengineering — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #contextengineering, aggregated by home.social.
-
The new 10x Engineer with AI
The idea of the “10x engineer” has always been a bit controversial. Some people see it as a myth. Some people see it as a harmful label that creates hero culture. Some people have worked with engineers who clearly create much more impact than others, and believe the idea is real. I sit somewhere in the middle. I don’t think a 10x engineer means someone who writes 10x more code than everyone else. That version of the idea was never useful to me. Writing more code is not the same as […]https://codeaholicguy.com/2026/05/13/the-new-10x-engineer-with-ai/
-
The new 10x Engineer with AI
The idea of the “10x engineer” has always been a bit controversial. Some people see it as a myth. Some people see it as a harmful label that creates hero culture. Some people have worked with engineers who clearly create much more impact than others, and believe the idea is real. I sit somewhere in the middle. I don’t think a 10x engineer means someone who writes 10x more code than everyone else. That version of the idea was never useful to me. Writing more code is not the same as […]https://codeaholicguy.com/2026/05/13/the-new-10x-engineer-with-ai/
-
The new 10x Engineer with AI
The idea of the “10x engineer” has always been a bit controversial. Some people see it as a myth. Some people see it as a harmful label that creates hero culture. Some people have worked with engineers who clearly create much more impact than others, and believe the idea is real. I sit somewhere in the middle. I don’t think a 10x engineer means someone who writes 10x more code than everyone else. That version of the idea was never useful to me. Writing more code is not the same as […]https://codeaholicguy.com/2026/05/13/the-new-10x-engineer-with-ai/
-
The new 10x Engineer with AI
The idea of the “10x engineer” has always been a bit controversial. Some people see it as a myth. Some people see it as a harmful label that creates hero culture. Some people have worked with engineers who clearly create much more impact than others, and believe the idea is real. I sit somewhere in the middle. I don’t think a 10x engineer means someone who writes 10x more code than everyone else. That version of the idea was never useful to me. Writing more code is not the same as […]https://codeaholicguy.com/2026/05/13/the-new-10x-engineer-with-ai/
-
The new 10x Engineer with AI
The idea of the “10x engineer” has always been a bit controversial. Some people see it as a myth. Some people see it as a harmful label that creates hero culture. Some people have worked with engineers who clearly create much more impact than others, and believe the idea is real. I sit somewhere in the middle. I don’t think a 10x engineer means someone who writes 10x more code than everyone else. That version of the idea was never useful to me. Writing more code is not the same as […]https://codeaholicguy.com/2026/05/13/the-new-10x-engineer-with-ai/
-
Короткий промпт ≠ дешёвый промпт: как оптимизация ломает prefix cache в LLM-агентах
32 tools в промпте - дешевле, чем 7. Да, да - если вы строите агентов, это не опечатка. Это следствие того, как работает prefix cache в агентском цикле, и почему локальная оптимизация одного запроса ломает кэш на всей траектории. Третья статья серии про prefix caching - теперь про этих ваших агентов.
https://habr.com/ru/companies/bitrix/articles/1033822/
#llmагент #prefix_caching #токены #aiагенты #ai #prompt_caching #promptengineering #contextengineering
-
Короткий промпт ≠ дешёвый промпт: как оптимизация ломает prefix cache в LLM-агентах
32 tools в промпте - дешевле, чем 7. Да, да - если вы строите агентов, это не опечатка. Это следствие того, как работает prefix cache в агентском цикле, и почему локальная оптимизация одного запроса ломает кэш на всей траектории. Третья статья серии про prefix caching - теперь про этих ваших агентов.
https://habr.com/ru/companies/bitrix/articles/1033822/
#llmагент #prefix_caching #токены #aiагенты #ai #prompt_caching #promptengineering #contextengineering
-
Короткий промпт ≠ дешёвый промпт: как оптимизация ломает prefix cache в LLM-агентах
32 tools в промпте - дешевле, чем 7. Да, да - если вы строите агентов, это не опечатка. Это следствие того, как работает prefix cache в агентском цикле, и почему локальная оптимизация одного запроса ломает кэш на всей траектории. Третья статья серии про prefix caching - теперь про этих ваших агентов.
https://habr.com/ru/companies/bitrix/articles/1033822/
#llmагент #prefix_caching #токены #aiагенты #ai #prompt_caching #promptengineering #contextengineering
-
Короткий промпт ≠ дешёвый промпт: как оптимизация ломает prefix cache в LLM-агентах
32 tools в промпте - дешевле, чем 7. Да, да - если вы строите агентов, это не опечатка. Это следствие того, как работает prefix cache в агентском цикле, и почему локальная оптимизация одного запроса ломает кэш на всей траектории. Третья статья серии про prefix caching - теперь про этих ваших агентов.
https://habr.com/ru/companies/bitrix/articles/1033822/
#llmагент #prefix_caching #токены #aiагенты #ai #prompt_caching #promptengineering #contextengineering
-
How context engineering works, a runnable reference
https://github.com/outcomeops/context-engineering
#HackerNews #contextengineering #runnable #reference #programming #github #technews
-
Разговоры ничего не стоят. Код тоже
В наше время известное изречение Линуса Торвальдса " Talk is cheap. Show me the code. " можно переиначить в виде " Code is cheap. Show me the spec. " Меня зовут Алекс Гусев и в этой публикации я постараюсь показать, почему я так считаю. У меня есть несколько статей на Хабре, объединённых общей темой - ADSM (Agent Driven Software Management). По сути, это моя попытка формализовать свой персональная опыт в Spec-Driven Development (SDD) в какое-то подобие методологии. Под катом я поделюсь результатами применения SDD-подхода (в его ADSM виде) к разработке простого приложения - помощника в создании плейлистов в Spotify. И покажу, что будет, если на базе одного и того же контекста (спецификации) сгенерировать код одним и тем же агентом (Codex, GPT-5.4) с разным уровнем reasoning'а (high, medium, low).
-
What’s the difference between #PromptEngineering and #ContextEngineering?
🔹 Prompt Engineering: Focuses on a stateless approach
🔹 Context Engineering: Enables AI systems to be statefulIn this #InfoQ #podcast, Adi Polak discusses why Context Engineering is key for LLM interactions & designing agentic systems.
🎧 Listen now: https://bit.ly/4casalZ
-
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.
https://habr.com/ru/companies/bitrix/articles/1016734/
#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents
-
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.
https://habr.com/ru/companies/bitrix/articles/1016732/
#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents
-
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.
https://habr.com/ru/companies/bitrix/articles/1016734/
#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents
-
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.
https://habr.com/ru/companies/bitrix/articles/1016732/
#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents
-
"With AI, the writer’s role moves to what I call context ownership. This is not a soft concept. A context owner is the person in your organization who governs what your AI tools know, how your content is structured, whether the output meets your quality and accuracy standards, and how your documentation systems connect to your product and engineering workflows.
In practice, context ownership looks like this:
A context owner defines and maintains the templates, standards, and structural rules that AI tools follow. Without these, AI produces content that is internally consistent within a single document but inconsistent across your documentation as a whole. Your customers notice, even if you don’t.
A context owner reviews and validates AI-generated drafts against product reality. AI tools do not know what your product actually does in edge cases. They do not know what changed in the last release that hasn’t been documented yet. They do not know that the API endpoint described in the engineering spec was modified during implementation. The context owner does.
A context owner manages the documentation pipeline. In a modern documentation operation, this means version control, docs-as-code workflows, API-driven publishing, and automated quality checks. These are technical systems that require technical management. AI can operate within these systems, but it cannot design, maintain, or troubleshoot them.
A context owner bridges engineering and customer-facing content. This is the function that has never been automated in any transition, and AI has not changed that. Someone has to understand what engineering built, determine what customers need to know about it, and make sure the documentation connects those two realities accurately.
(...)
This is not a diminished version of the writer’s role. It is a more senior, more technical role than “writer” has traditionally implied"
https://greenmtndocs.com/2026-03-25-ive-seen-this-before/
#AI #LLMs #TechnicalWriting #SoftwareDocumentation #ContextEngineering -
Погоди переезжать на дешёвую модель: считаем effective cost с учётом кэша
В сообществе часто пишут о том что KV-cache hit rate - один из главных приоритетов при оптимизации стоимости. Manus в той-самой статье про context engineering и своего агента, TikTok в кейсе про оптимизацию AI-агента для тестирования, AiSDR в статье про перестройку шаблонов генерации писем. Стало интересно стало: а как это считается у MaaS-провайдеров? Я знаком со скидкой за кэш токены, но никогда не садился детально разбирать экономику кэша у OpenAI, Anthropic, Gemini, DeepSeek - с цифрами, сценариями, сравнением. Сел считать. Первый же результат удивил: два запроса к одной и той же модели с одним и тем же объёмом токенов - разница в цене в 3 раза. Зависит только от того, попали ли токены в кэш. Про то как KV-кэш устроен внутри - уже хорошо написано на Хабре, ссылки в конце. Здесь только про деньги и токены: как считать реальную стоимость и почему прайс-лист для этого не подходит только прайс-лист.
https://habr.com/ru/companies/bitrix/articles/1008320/
#ai #нейросети #contextengineering #promptengineering #openai #anthropic #gemini #tokens #prefix_caching
-
Погоди переезжать на дешёвую модель: считаем effective cost с учётом кэша В сообществе часто пишут о том что KV-cache hi...
#ai #нейросети #context-engineering #prompt-engineering #openai #anthropic #gemini #tokens #prefix #caching
Origin | Interest | Match -
🤖 The problem isn't the agent — it's your repo. Sharing the Agent Readiness
Framework: 5 levels and 9 pillars to prepare your codebase for the AI agent era.https://www.cosmoscalibur.com/en/blog/2026/marco-de-preparacion-para-agentes-de-codigo
#AIAgents #FactoryAI #AGENTSmd #ContextEngineering #Antigravity #Claude
-
"The new lifecycle is tighter loop
The SDLC was a wide loop. Requirements → Design → Code → Test → Review → Deploy → Monitor. Linear. Sequential. Full of handoffs and waiting.The new lifecycle is a tight loop.
Intent. Build. Observe. Repeat.
No tickets. No sprints. No story points. No PRs sitting in a queue. No separate QA phase. No release trains.
Just a human with intent and an agent that executes.
So what is left?
Context. That’s it.The quality of what you build with agents is directly proportional to the quality of context you give them. Not the process. Not the ceremony. The context.
The SDLC is dead. The new skill is context engineering. The new safety net is observability.
And most of the industry is still configuring Datadog dashboards no one looks at."
https://boristane.com/blog/the-software-development-lifecycle-is-dead/
#AI #GenerativeAI #AIAgents #SDLC #SoftwareDevelopment #Programming #ContextEngineering
-
"Context engineering goes beyond earlier approaches to refining agent behavior in software development, such as prompt engineering or retrieval-augmented generation (RAG). The latter primarily helps AI retrieve one-off documents when generating a response.
At a technical level, context engineering boils down to which information and tools you expose to the large language model (LLM) at the heart of an agent. This helps the LLM enrich its responses and programmatically decide its next course of action.
The easiest way to enact context engineering is by using system prompts. These are found in most AI tools and accept instructions that help define an agent’s role, goals, and constraints. System prompts can also include few-shot examples that demonstrate target input and output behaviors.
According to experts, establishing context for AI agents involves a mix of structured and unstructured data types. Core areas include:
- System behaviors: code and documentation.
- System architecture: database schemas and deployment configurations.
- Code events: commits, pull requests, and review threads.
- Error information: tickets, failure logs, build output, and feedback from linters or compilers.
- Rationale: chat histories and design documentation.
- Business rules: compliance policies and operating procedures.
- Team behaviors: common workflows and execution patterns.“This data is used to inform reasoning, guide execution, align with goals, and enable adaptive learning,” said Babak Hodjat, chief AI officer at Cognizant, an IT consulting company that recently announced plans to deploy over 1,000 context engineers within the next year."
https://leaddev.com/ai/what-is-context-engineering
#AI #GenerativeAI #LLMs #RAGs #ContextEngineering #PromptEngineering
-
$20 в месяц на Cursor. Куда уходят токены и что с этим можно сделать
У меня небольшой бюджет на AI-ассистент — $20 в месяц. Хватает, но только если понимаешь как работает тарификация. Я потратил время чтобы разобраться что именно ест токены, и написал framework который пытается решить эти проблемы. Расскажу про оба.
https://habr.com/ru/articles/1002714/
#cursor #cursor_ide #contextengineering #promptengineering #token_management #prompt_caching
-
极简主义的胜利:OpenClaw 核心引擎 Pi 的架构哲学与开发实录 本文永久链接 – https://tonybai.com/2026/02/15/openclaw-core-engine-pi-architecture-philosophy-minimalism 大...
#技术志 #AgentCore #AINativeApplications #AI原生应用 #ArchitecturePhilosophy #AtomicTools #Bash #benchmark #ClaudeCode #CodingAgent #ContextEngineering
Origin | Interest | Match -
Struggling with LLMs forgetting important details or hallucinating? Discover how context engineering—semantic compression, token budgeting, and smart tool schemas—keeps prompts sharp and output reliable. Learn practical tricks to tame quality decay in your generative AI pipelines. #ContextEngineering #LLM #Hallucinations #TokenBudget
🔗 https://aidailypost.com/news/context-engineering-managing-forgetting-hallucinations-quality-decay
-
I'm honestly not sure up to what extent the output to the context-enriched prompt is better than the output generated as a response to the contextless prompt, specially since the context-enriched version seems to be essentially a series of lists...
"Have you ever tried prompting an LLM to write documentation for you, only to notice the prompt has become longer than the page you need to write?
This is because authors have lots to requirements to consider when creating documentation: style guidelines, content types and templates, branding, publishing and formatting requirements, and much more.
In Part 3 of this series, we learned how to use prompts and commands to instruct Gemini CLI to follow a specific set of style guidelines. Today, we’ll take it a step further by giving Gemini even more context using a GEMINI.md file. We’ll also try prompting Gemini with and without the file, to ensure we’ve engineered this context in the most effective way possible (also known as “A/B” testing).
If you haven’t heard of “context engineering”, it’s basically about writing instructional content and building a content strategy for LLMs. That’s why I personally think that technical writers are destined to be incredible context engineers."
#TechnicalWriting #PromptEngineering #ContextEngineering #Gemini #GeminiCLI #AI #GenerativeAI #SoftwareDocumentation
-
via @dotnet : Introducing Data Ingestion Building Blocks (Preview)
https://ift.tt/DmSwU2r
#DataIngestion #AIApplications #DotNet #DataPipelines #ContextEngineering #ETL #MachineLearning #RetrievalAugmentedGeneration #DataProcessing #OpenTelemetry #AIWorkflows #M… -
🚀 Perplexity just dropped their Search API — the same infra behind their answer engine, now open to devs.
Fast, fresh, AI-first search with sub-doc snippets + an SDK + OSS evals.
Perfect for grounding LLMs, building agents, or just hacking.
Overview → https://dropletdrift.com/perplexity-search-api-an-intro-for-developers/
#AI #WebDev #APIs #Developers #PerplexityAI #SearchAPI #AIagents #LLM #AIDev #DevTools #OpenSource #SDK #Search #HybridSearch #ContextEngineering #Retrieval #RAG #RealtimeAI #AIFirst #Innovation
-
A #macOSapp, #Context, was built using #ClaudeCode, an #AIcoding tool. #Claude #Code, with its #agenticloop and support for #MCPservers, significantly sped up #development. While Claude Code is proficient in #writingcode and #SwiftUI, #contextengineering is crucial due to the limited context window of the model. https://www.indragie.com/blog/i-shipped-a-macos-app-built-entirely-by-claude-code?eicker.news #tech #media #news