#context-engineering — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #context-engineering, aggregated by home.social.
-
The new 10x Engineer with AI
The idea of the “10x engineer” has always been a bit controversial. Some people see it as a myth. Some people see it as a harmful label that creates hero culture. Some people have worked with engineers who clearly create much more impact than others, and believe the idea is real. I sit somewhere in the middle. I don’t think a 10x engineer means someone who writes 10x more code than everyone else. That version of the idea was never useful to me. Writing more code is not the same as […]https://codeaholicguy.com/2026/05/13/the-new-10x-engineer-with-ai/
-
Короткий промпт ≠ дешёвый промпт: как оптимизация ломает prefix cache в LLM-агентах
32 tools в промпте - дешевле, чем 7. Да, да - если вы строите агентов, это не опечатка. Это следствие того, как работает prefix cache в агентском цикле, и почему локальная оптимизация одного запроса ломает кэш на всей траектории. Третья статья серии про prefix caching - теперь про этих ваших агентов.
https://habr.com/ru/companies/bitrix/articles/1033822/
#llmагент #prefix_caching #токены #aiагенты #ai #prompt_caching #promptengineering #contextengineering
-
Your AI agent doesn’t need more context. It needs cleaner context: refreshed often, kept minimal, and not treated like memory. https://hackernoon.com/the-only-context-rule-your-ai-agents-actually-need #contextengineering
-
Очередная методичка разработки с LLM: работает только если ты разработчик
С 2024 года, когда LLM стали (плюс/минус) пригодны для генерации кода и решения рабочих задач, я начал тащить их в свои проекты. Сначала кусками: помочь с функцией, разобрать ошибку, прикинуть архитектуру, или вообще не соглашаться на проект. Очень быстро понял: если не будет в этом процессе норм и правил - будет только бардак и проекты я буду закрывать медленнее, чем если бы писал код руками. Модель уходит в дебри, забывает решения, ломает то что работало, переписывает по сто раз одно и то же, циклы ошибок. Поэтому, я начал формулировать тезисы. Сначала в голове, потом записывать
https://habr.com/ru/articles/1033486/
#LLM #ai_driven_development #разработка_с_LLM #claudecode #методология_разработки #subagents #mcp #contextengineering #вайбкодинг #вайбкодинг
-
AI agents do not fail only because the model is weak. A lot of the time they are drawing from a blank page.
I wrote about the back-to-back drawing experiment, grounding, the curse of knowledge, and why specifications are context transfer, not paperwork.
https://www.the-main-thread.com/p/context-transfer-ai-agents
-
"I think much of the surviving employment will sit in strong-bundle, AI-augmented work and in the political-organizational core of firms. The future includes more therapists, tailors, personal trainers, and craft brewers, but also more managers whose value lies in handling ambiguity, integrating context, reconciling conflicting interests, and bearing the consequences of decisions."
#LLM #vibecoding #contextengineering #AI #jobs
https://www.siliconcontinent.com/p/why-desk-jobs-survive-and-amodei
-
As model capabilities expand, building support harnesses around models loses value. Harnesses may still have value right now, but their useful lifespan keeps getting shorter.
"The job isn't to stop building harnesses. It's to build them cheap enough to throw away."
#softwaredevelopment #LLM #vibecoding #contextengineering #programming
-
Please do not implicitly trust anything generated by an LLM. Confident framing often appears indistinguishable from verified claim.
LLMs are game changers for learning, researching, and experimenting. They will boost your productivity. But approach your work in small iterations, and rely on primary (or well-regarded secondary) sources.
In the world of software, instrumentation is a primary source. Observability can help shed light on reality.
-
A sharp take on today’s #AI boom: many companies are repeating the same structural mistakes as past large-scale, top-down transformations. The post author draws parallels to China’s Great Leap Forward where over-ambitious mandates prioritized optics over expertise and real outcomes. The result then was unusable outputs and systemic damage.
#softwaredevelopment #LLM #vibecoding #contextengineering #programming
https://leehanchung.github.io/blogs/2026/04/05/the-ai-great-leap-forward/
-
How context engineering works, a runnable reference
https://github.com/outcomeops/context-engineering
#HackerNews #contextengineering #runnable #reference #programming #github #technews
-
Разговоры ничего не стоят. Код тоже
В наше время известное изречение Линуса Торвальдса " Talk is cheap. Show me the code. " можно переиначить в виде " Code is cheap. Show me the spec. " Меня зовут Алекс Гусев и в этой публикации я постараюсь показать, почему я так считаю. У меня есть несколько статей на Хабре, объединённых общей темой - ADSM (Agent Driven Software Management). По сути, это моя попытка формализовать свой персональная опыт в Spec-Driven Development (SDD) в какое-то подобие методологии. Под катом я поделюсь результатами применения SDD-подхода (в его ADSM виде) к разработке простого приложения - помощника в создании плейлистов в Spotify. И покажу, что будет, если на базе одного и того же контекста (спецификации) сгенерировать код одним и тем же агентом (Codex, GPT-5.4) с разным уровнем reasoning'а (high, medium, low).
-
"Uno de los mitos más persistentes en la inteligencia artificial empresarial es que, si algo de contexto es bueno, más contexto tiene que ser mejor. Esa suposición siempre fue simplista, y la evidencia en su contra es cada vez más sólida.
El paper «Lost in the Middle« mostró que los modelos de lenguaje tienen dificultades para utilizar información relevante cuando está enterrada en contextos largos, funcionando mejor cuando la información clave aparece al principio o al final. Más recientemente, la evaluación de contexto largo de Chroma en 18 modelos encontró que el rendimiento se vuelve cada vez más inestable a medida que crece la longitud de entrada. En otras palabras, llega un punto en el que más tokens dejan de aportar inteligencia y empiezan a aportar sólo ruido.
Es aquí donde el enfoque de fuerza bruta empieza a parecer menos una inevitabilidad tecnológica y más una arquitectura perezosa. Si tu respuesta a cada nueva necesidad es meter más contenido en el prompt, conservar cada interacción para siempre y mantener todos los artefactos intermedios en la ventana activa de contexto, no estás construyendo un mejor sistema de inteligencia artificial. Estás construyendo uno más caro y, probablemente, peor.
La verdadera frontera es la ingeniería de contexto
El futuro interesante no es «más grande y más voraz». Es más selectivo, más estructurado y más deliberado. Por eso el concepto emergente más importante en la inteligencia artificial aplicada puede no ser la ingeniería de prompts, sino la ingeniería de contexto."
#ContextEngineering #AI #Tokens #GenerativeAI #LLMs #Chatbots
-
What’s the difference between #PromptEngineering and #ContextEngineering?
🔹 Prompt Engineering: Focuses on a stateless approach
🔹 Context Engineering: Enables AI systems to be statefulIn this #InfoQ #podcast, Adi Polak discusses why Context Engineering is key for LLM interactions & designing agentic systems.
🎧 Listen now: https://bit.ly/4casalZ
-
Experimenting with #AI #subagents.
I delegated 4 GitHub issues to parallel subagents. The biggest win wasn't the speed — it was context isolation. Here's how I did it.
-
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.
https://habr.com/ru/companies/bitrix/articles/1016734/
#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents
-
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
Кэширование включено, а cached_tokens всё равно не растут? Часто проблема не в модели и не в провайдере. Hit rate обычно режут совсем другие вещи: timestamp в начале запроса, плавающий порядок tools, разные реплики, RAG с нестабильным порядком чанков и слишком короткая жизнь KV-кэша. В статье разбираю 7 типовых анти-паттернов, которые убивают prefix_cache_hit в проде.
https://habr.com/ru/companies/bitrix/articles/1016732/
#prefix_cache #искусственный_интеллект #vllm #openai #anthropic #maas #selfhosted #promptengineering #contextengineering #agents
-
"With AI, the writer’s role moves to what I call context ownership. This is not a soft concept. A context owner is the person in your organization who governs what your AI tools know, how your content is structured, whether the output meets your quality and accuracy standards, and how your documentation systems connect to your product and engineering workflows.
In practice, context ownership looks like this:
A context owner defines and maintains the templates, standards, and structural rules that AI tools follow. Without these, AI produces content that is internally consistent within a single document but inconsistent across your documentation as a whole. Your customers notice, even if you don’t.
A context owner reviews and validates AI-generated drafts against product reality. AI tools do not know what your product actually does in edge cases. They do not know what changed in the last release that hasn’t been documented yet. They do not know that the API endpoint described in the engineering spec was modified during implementation. The context owner does.
A context owner manages the documentation pipeline. In a modern documentation operation, this means version control, docs-as-code workflows, API-driven publishing, and automated quality checks. These are technical systems that require technical management. AI can operate within these systems, but it cannot design, maintain, or troubleshoot them.
A context owner bridges engineering and customer-facing content. This is the function that has never been automated in any transition, and AI has not changed that. Someone has to understand what engineering built, determine what customers need to know about it, and make sure the documentation connects those two realities accurately.
(...)
This is not a diminished version of the writer’s role. It is a more senior, more technical role than “writer” has traditionally implied"
https://greenmtndocs.com/2026-03-25-ive-seen-this-before/
#AI #LLMs #TechnicalWriting #SoftwareDocumentation #ContextEngineering -
Introducing the pinnacle of BS buzzword bingo, where "meta-prompting" and "context engineering" join forces to help you "Get Shit Done"—assuming you can first decipher what that even means! 😂🤯 It's a #GitHub code salad tossed with every AI tool imaginable, promising to help you write better code by drowning you in jargon. 🥗🔧
https://github.com/gsd-build/get-shit-done #BSbuzzwordbingo #meta-prompting #contextengineering #GetShitDone #AItools #HackerNews #ngated -
Get Shit Done: A Meta-Prompting, Context Engineering and Spec-Driven Dev System
https://github.com/gsd-build/get-shit-done
#HackerNews #GetShitDone #MetaPrompting #ContextEngineering #SpecDriven #Development
-
Погоди переезжать на дешёвую модель: считаем effective cost с учётом кэша
В сообществе часто пишут о том что KV-cache hit rate - один из главных приоритетов при оптимизации стоимости. Manus в той-самой статье про context engineering и своего агента, TikTok в кейсе про оптимизацию AI-агента для тестирования, AiSDR в статье про перестройку шаблонов генерации писем. Стало интересно стало: а как это считается у MaaS-провайдеров? Я знаком со скидкой за кэш токены, но никогда не садился детально разбирать экономику кэша у OpenAI, Anthropic, Gemini, DeepSeek - с цифрами, сценариями, сравнением. Сел считать. Первый же результат удивил: два запроса к одной и той же модели с одним и тем же объёмом токенов - разница в цене в 3 раза. Зависит только от того, попали ли токены в кэш. Про то как KV-кэш устроен внутри - уже хорошо написано на Хабре, ссылки в конце. Здесь только про деньги и токены: как считать реальную стоимость и почему прайс-лист для этого не подходит только прайс-лист.
https://habr.com/ru/companies/bitrix/articles/1008320/
#ai #нейросети #contextengineering #promptengineering #openai #anthropic #gemini #tokens #prefix_caching
-
Погоди переезжать на дешёвую модель: считаем effective cost с учётом кэша В сообществе часто пишут о том что KV-cache hi...
#ai #нейросети #context-engineering #prompt-engineering #openai #anthropic #gemini #tokens #prefix #caching
Origin | Interest | Match