#иипомощники — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #иипомощники, aggregated by home.social.
-
[Перевод] Как научить кодинг-модели не переписывать код заново
Не надо переписывать то, что не поломано Код к этому посту доступен на Github . Кодинг при помощи ИИ стал нормой; мы всё больше позволяем моделям наподобие Cursor, GitHub Copilot, Claude Code и Codex вмешиваться в наш код. Если вы в прошлом пользовались каким-то из этих инструментов, то, вероятно, сталкивались с чем-то подобным: вы просите модель устранить простой баг (допустим, ошибку смещения на единицу или не тот оператор). Модель устраняет баг, но половина функции оказывается переписанной. Появляется новая вспомогательная функция. Совершенно логичное имя переменной меняется на другое. Добавляется новая валидация ввода. И diff из-за этого становится огромным. Я называю это проблемой избыточной редактуры : модели склонны переписывать код, не нуждающийся в переписывании. На самом деле, это важнее, чем может показаться. При разработке узким местом всегда становится ревью кода: ревьюерам нужно понять, что и почему поменялось, а также безопасно ли изменение. Модель, переписывающая целые функции, пусть даже корректно, существенно усложняет эту работу, потому что код теперь выглядит совершенно иначе. В своём посте я исследую эту проблему: имеют ли современные LLM склонность к избыточной редактуре и можем ли мы обучить модели редактировать код в должной мере?
https://habr.com/ru/articles/1027096/
#кодингагенты #иипомощники #qwen #gpt_5 #claude_opus_46 #gemini #glm #kimi #deepseek
-
[Перевод] Как научить кодинг-модели не переписывать код заново
Не надо переписывать то, что не поломано Код к этому посту доступен на Github . Кодинг при помощи ИИ стал нормой; мы всё больше позволяем моделям наподобие Cursor, GitHub Copilot, Claude Code и Codex вмешиваться в наш код. Если вы в прошлом пользовались каким-то из этих инструментов, то, вероятно, сталкивались с чем-то подобным: вы просите модель устранить простой баг (допустим, ошибку смещения на единицу или не тот оператор). Модель устраняет баг, но половина функции оказывается переписанной. Появляется новая вспомогательная функция. Совершенно логичное имя переменной меняется на другое. Добавляется новая валидация ввода. И diff из-за этого становится огромным. Я называю это проблемой избыточной редактуры : модели склонны переписывать код, не нуждающийся в переписывании. На самом деле, это важнее, чем может показаться. При разработке узким местом всегда становится ревью кода: ревьюерам нужно понять, что и почему поменялось, а также безопасно ли изменение. Модель, переписывающая целые функции, пусть даже корректно, существенно усложняет эту работу, потому что код теперь выглядит совершенно иначе. В своём посте я исследую эту проблему: имеют ли современные LLM склонность к избыточной редактуре и можем ли мы обучить модели редактировать код в должной мере?
https://habr.com/ru/articles/1027096/
#кодингагенты #иипомощники #qwen #gpt_5 #claude_opus_46 #gemini #glm #kimi #deepseek
-
[Перевод] Как научить кодинг-модели не переписывать код заново
Не надо переписывать то, что не поломано Код к этому посту доступен на Github . Кодинг при помощи ИИ стал нормой; мы всё больше позволяем моделям наподобие Cursor, GitHub Copilot, Claude Code и Codex вмешиваться в наш код. Если вы в прошлом пользовались каким-то из этих инструментов, то, вероятно, сталкивались с чем-то подобным: вы просите модель устранить простой баг (допустим, ошибку смещения на единицу или не тот оператор). Модель устраняет баг, но половина функции оказывается переписанной. Появляется новая вспомогательная функция. Совершенно логичное имя переменной меняется на другое. Добавляется новая валидация ввода. И diff из-за этого становится огромным. Я называю это проблемой избыточной редактуры : модели склонны переписывать код, не нуждающийся в переписывании. На самом деле, это важнее, чем может показаться. При разработке узким местом всегда становится ревью кода: ревьюерам нужно понять, что и почему поменялось, а также безопасно ли изменение. Модель, переписывающая целые функции, пусть даже корректно, существенно усложняет эту работу, потому что код теперь выглядит совершенно иначе. В своём посте я исследую эту проблему: имеют ли современные LLM склонность к избыточной редактуре и можем ли мы обучить модели редактировать код в должной мере?
https://habr.com/ru/articles/1027096/
#кодингагенты #иипомощники #qwen #gpt_5 #claude_opus_46 #gemini #glm #kimi #deepseek
-
[Перевод] Как научить кодинг-модели не переписывать код заново
Не надо переписывать то, что не поломано Код к этому посту доступен на Github . Кодинг при помощи ИИ стал нормой; мы всё больше позволяем моделям наподобие Cursor, GitHub Copilot, Claude Code и Codex вмешиваться в наш код. Если вы в прошлом пользовались каким-то из этих инструментов, то, вероятно, сталкивались с чем-то подобным: вы просите модель устранить простой баг (допустим, ошибку смещения на единицу или не тот оператор). Модель устраняет баг, но половина функции оказывается переписанной. Появляется новая вспомогательная функция. Совершенно логичное имя переменной меняется на другое. Добавляется новая валидация ввода. И diff из-за этого становится огромным. Я называю это проблемой избыточной редактуры : модели склонны переписывать код, не нуждающийся в переписывании. На самом деле, это важнее, чем может показаться. При разработке узким местом всегда становится ревью кода: ревьюерам нужно понять, что и почему поменялось, а также безопасно ли изменение. Модель, переписывающая целые функции, пусть даже корректно, существенно усложняет эту работу, потому что код теперь выглядит совершенно иначе. В своём посте я исследую эту проблему: имеют ли современные LLM склонность к избыточной редактуре и можем ли мы обучить модели редактировать код в должной мере?
https://habr.com/ru/articles/1027096/
#кодингагенты #иипомощники #qwen #gpt_5 #claude_opus_46 #gemini #glm #kimi #deepseek
-
To AI or not to AI или «будь на правильной стороне прогресса»?
В наше время многие (вполне обоснованно) беспокоятся, что их заменит ИИ. Это и люди работающие в поддержке и даже многие IT-шники, включая моих знакомых. Стать на правильной стороне прогресса...
https://habr.com/ru/articles/1021210/
#ИИ #ииагенты #ииассистент #иимодель #иипомощники #программирование #it #продуктивность
-
To AI or not to AI или «будь на правильной стороне прогресса»?
В наше время многие (вполне обоснованно) беспокоятся, что их заменит ИИ. Это и люди работающие в поддержке и даже многие IT-шники, включая моих знакомых. Стать на правильной стороне прогресса...
https://habr.com/ru/articles/1021210/
#ИИ #ииагенты #ииассистент #иимодель #иипомощники #программирование #it #продуктивность
-
To AI or not to AI или «будь на правильной стороне прогресса»?
В наше время многие (вполне обоснованно) беспокоятся, что их заменит ИИ. Это и люди работающие в поддержке и даже многие IT-шники, включая моих знакомых. Стать на правильной стороне прогресса...
https://habr.com/ru/articles/1021210/
#ИИ #ииагенты #ииассистент #иимодель #иипомощники #программирование #it #продуктивность
-
To AI or not to AI или «будь на правильной стороне прогресса»?
В наше время многие (вполне обоснованно) беспокоятся, что их заменит ИИ. Это и люди работающие в поддержке и даже многие IT-шники, включая моих знакомых. Стать на правильной стороне прогресса...
https://habr.com/ru/articles/1021210/
#ИИ #ииагенты #ииассистент #иимодель #иипомощники #программирование #it #продуктивность
-
Как ИИ находит скрытые ошибки в настройках 1С:ERP
В 1С:ERP сотни настроек. Каждая из них может быть абсолютно правильной — но некоторые их комбинации в процессе эксплуатации начинают конфликтовать друг с другом. Система при этом продолжает работать, только всё хуже и хуже. Бывает и по-другому: настройки выглядят вполне корректно, но на самом деле содержат скрытые проблемы, проявляющиеся по мере эксплуатации. Чтобы находить такие ошибки, была создана экспертная система с использованием искусственного интеллекта. Она анализирует настройки ERP и выявляет потенциальные конфликты. Я участвовал в разработке этой системы и покажу, как она работает на реальных примерах.
https://habr.com/ru/articles/1011102/
#иипомощники #erp #ai #chatgpt #практический_кейс #реальный_опыт #1с #erpсистемы #управление_производством #машинное+обучение
-
Как ИИ находит скрытые ошибки в настройках 1С:ERP
В 1С:ERP сотни настроек. Каждая из них может быть абсолютно правильной — но некоторые их комбинации в процессе эксплуатации начинают конфликтовать друг с другом. Система при этом продолжает работать, только всё хуже и хуже. Бывает и по-другому: настройки выглядят вполне корректно, но на самом деле содержат скрытые проблемы, проявляющиеся по мере эксплуатации. Чтобы находить такие ошибки, была создана экспертная система с использованием искусственного интеллекта. Она анализирует настройки ERP и выявляет потенциальные конфликты. Я участвовал в разработке этой системы и покажу, как она работает на реальных примерах.
https://habr.com/ru/articles/1011102/
#иипомощники #erp #ai #chatgpt #практический_кейс #реальный_опыт #1с #erpсистемы #управление_производством #машинное+обучение
-
Как ИИ находит скрытые ошибки в настройках 1С:ERP
В 1С:ERP сотни настроек. Каждая из них может быть абсолютно правильной — но некоторые их комбинации в процессе эксплуатации начинают конфликтовать друг с другом. Система при этом продолжает работать, только всё хуже и хуже. Бывает и по-другому: настройки выглядят вполне корректно, но на самом деле содержат скрытые проблемы, проявляющиеся по мере эксплуатации. Чтобы находить такие ошибки, была создана экспертная система с использованием искусственного интеллекта. Она анализирует настройки ERP и выявляет потенциальные конфликты. Я участвовал в разработке этой системы и покажу, как она работает на реальных примерах.
https://habr.com/ru/articles/1011102/
#иипомощники #erp #ai #chatgpt #практический_кейс #реальный_опыт #1с #erpсистемы #управление_производством #машинное+обучение
-
Как ИИ находит скрытые ошибки в настройках 1С:ERP
В 1С:ERP сотни настроек. Каждая из них может быть абсолютно правильной — но некоторые их комбинации в процессе эксплуатации начинают конфликтовать друг с другом. Система при этом продолжает работать, только всё хуже и хуже. Бывает и по-другому: настройки выглядят вполне корректно, но на самом деле содержат скрытые проблемы, проявляющиеся по мере эксплуатации. Чтобы находить такие ошибки, была создана экспертная система с использованием искусственного интеллекта. Она анализирует настройки ERP и выявляет потенциальные конфликты. Я участвовал в разработке этой системы и покажу, как она работает на реальных примерах.
https://habr.com/ru/articles/1011102/
#иипомощники #erp #ai #chatgpt #практический_кейс #реальный_опыт #1с #erpсистемы #управление_производством #машинное+обучение
-
[Перевод] На что кодинг-агенты тратят наши токены
На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?
https://habr.com/ru/articles/1001866/
#claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники
-
[Перевод] На что кодинг-агенты тратят наши токены
На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?
https://habr.com/ru/articles/1001866/
#claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники
-
[Перевод] На что кодинг-агенты тратят наши токены
На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?
https://habr.com/ru/articles/1001866/
#claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники
-
[Перевод] На что кодинг-агенты тратят наши токены
На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза. Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью. Вопрос При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим. Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос. Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?
https://habr.com/ru/articles/1001866/
#claude_opus #claude_sonnet #codex #gemini #кодингагенты #иипомощники
-
Нам говорят, что AI безопасен. Confer — первый случай, когда это почти правда
Если вы хотите пользоваться LLM, но при этом вам важна приватность данных, то до недавнего времени у вас, по сути, был один вариант — поднимать локально собственную языковую модель. Ситуация меняется. Создатель мессенджера Signal , Мокси Марлинспайк , запускает приватный AI‑сервис Confer с основным фокусом на конфиденциальность и безопасность данных. Можно ли считать Confer действительно безопасным AI‑сервисом или перед нами очередной маркетинговый нарратив? Разберёмся в рамках этой статьи.
https://habr.com/ru/articles/988874/
#чатбот #signal #confer #приватный_ии #мокси_марлинспайк #open_source #защита_данных #иипомощники #конфиденциальность
-
Нам говорят, что AI безопасен. Confer — первый случай, когда это почти правда
Если вы хотите пользоваться LLM, но при этом вам важна приватность данных, то до недавнего времени у вас, по сути, был один вариант — поднимать локально собственную языковую модель. Ситуация меняется. Создатель мессенджера Signal , Мокси Марлинспайк , запускает приватный AI‑сервис Confer с основным фокусом на конфиденциальность и безопасность данных. Можно ли считать Confer действительно безопасным AI‑сервисом или перед нами очередной маркетинговый нарратив? Разберёмся в рамках этой статьи.
https://habr.com/ru/articles/988874/
#чатбот #signal #confer #приватный_ии #мокси_марлинспайк #open_source #защита_данных #иипомощники #конфиденциальность
-
Нам говорят, что AI безопасен. Confer — первый случай, когда это почти правда
Если вы хотите пользоваться LLM, но при этом вам важна приватность данных, то до недавнего времени у вас, по сути, был один вариант — поднимать локально собственную языковую модель. Ситуация меняется. Создатель мессенджера Signal , Мокси Марлинспайк , запускает приватный AI‑сервис Confer с основным фокусом на конфиденциальность и безопасность данных. Можно ли считать Confer действительно безопасным AI‑сервисом или перед нами очередной маркетинговый нарратив? Разберёмся в рамках этой статьи.
https://habr.com/ru/articles/988874/
#чатбот #signal #confer #приватный_ии #мокси_марлинспайк #open_source #защита_данных #иипомощники #конфиденциальность
-
Нам говорят, что AI безопасен. Confer — первый случай, когда это почти правда
Если вы хотите пользоваться LLM, но при этом вам важна приватность данных, то до недавнего времени у вас, по сути, был один вариант — поднимать локально собственную языковую модель. Ситуация меняется. Создатель мессенджера Signal , Мокси Марлинспайк , запускает приватный AI‑сервис Confer с основным фокусом на конфиденциальность и безопасность данных. Можно ли считать Confer действительно безопасным AI‑сервисом или перед нами очередной маркетинговый нарратив? Разберёмся в рамках этой статьи.
https://habr.com/ru/articles/988874/
#чатбот #signal #confer #приватный_ии #мокси_марлинспайк #open_source #защита_данных #иипомощники #конфиденциальность
-
[Перевод] А король-то голый! Как написать свой Claude Code в 200 строках кода
Современные кодинг-помощники кажутся магией. Достаточно описать нужное вам на хотя бы немного понятными словами, после чего они сами читают файлы, редактируют проект и пишут работающий код. Но вот что я вам скажу: в основе этих инструментов не лежит магия. Для них достаточно примерно двухсот строк простого Python. Давайте с нуля напишем собственный функциональный кодинг-агент.
https://habr.com/ru/articles/983968/
#иипомощники #claude_code #llm #большие_языковые_модели #кодингагенты #cursor #github_copilot
-
[Перевод] А король-то голый! Как написать свой Claude Code в 200 строках кода
Современные кодинг-помощники кажутся магией. Достаточно описать нужное вам на хотя бы немного понятными словами, после чего они сами читают файлы, редактируют проект и пишут работающий код. Но вот что я вам скажу: в основе этих инструментов не лежит магия. Для них достаточно примерно двухсот строк простого Python. Давайте с нуля напишем собственный функциональный кодинг-агент.
https://habr.com/ru/articles/983968/
#иипомощники #claude_code #llm #большие_языковые_модели #кодингагенты #cursor #github_copilot
-
[Перевод] А король-то голый! Как написать свой Claude Code в 200 строках кода
Современные кодинг-помощники кажутся магией. Достаточно описать нужное вам на хотя бы немного понятными словами, после чего они сами читают файлы, редактируют проект и пишут работающий код. Но вот что я вам скажу: в основе этих инструментов не лежит магия. Для них достаточно примерно двухсот строк простого Python. Давайте с нуля напишем собственный функциональный кодинг-агент.
https://habr.com/ru/articles/983968/
#иипомощники #claude_code #llm #большие_языковые_модели #кодингагенты #cursor #github_copilot
-
[Перевод] А король-то голый! Как написать свой Claude Code в 200 строках кода
Современные кодинг-помощники кажутся магией. Достаточно описать нужное вам на хотя бы немного понятными словами, после чего они сами читают файлы, редактируют проект и пишут работающий код. Но вот что я вам скажу: в основе этих инструментов не лежит магия. Для них достаточно примерно двухсот строк простого Python. Давайте с нуля напишем собственный функциональный кодинг-агент.
https://habr.com/ru/articles/983968/
#иипомощники #claude_code #llm #большие_языковые_модели #кодингагенты #cursor #github_copilot
-
[Перевод] Как должно выглядеть ревью кода в эпоху LLM
Недавно я активно занимался отправкой и проверкой пул-реквестов проекта PyTorch, созданных с существенной помощью LLM. Этот процесс сильно отличается ситуации в начале года, когда было понятно, что LLM вполне подходит для проектов, создаваемых с нуля, но для кодовой базы в продакшене их код оставался безнадёжно низкокачественным. Можете посмотреть мои смердженные PR , в описании которых упоминается Claude Code; у Джейсона Энсела тоже был подобный опыт ( ссылка на Meta* ; также есть список issue , на которые он ссылался в совей статье). Сейчас всё активнее обсуждается ( Саймон Уиллисон ,
-
[Перевод] Как должно выглядеть ревью кода в эпоху LLM
Недавно я активно занимался отправкой и проверкой пул-реквестов проекта PyTorch, созданных с существенной помощью LLM. Этот процесс сильно отличается ситуации в начале года, когда было понятно, что LLM вполне подходит для проектов, создаваемых с нуля, но для кодовой базы в продакшене их код оставался безнадёжно низкокачественным. Можете посмотреть мои смердженные PR , в описании которых упоминается Claude Code; у Джейсона Энсела тоже был подобный опыт ( ссылка на Meta* ; также есть список issue , на которые он ссылался в совей статье). Сейчас всё активнее обсуждается ( Саймон Уиллисон ,
-
[Перевод] Как должно выглядеть ревью кода в эпоху LLM
Недавно я активно занимался отправкой и проверкой пул-реквестов проекта PyTorch, созданных с существенной помощью LLM. Этот процесс сильно отличается ситуации в начале года, когда было понятно, что LLM вполне подходит для проектов, создаваемых с нуля, но для кодовой базы в продакшене их код оставался безнадёжно низкокачественным. Можете посмотреть мои смердженные PR , в описании которых упоминается Claude Code; у Джейсона Энсела тоже был подобный опыт ( ссылка на Meta* ; также есть список issue , на которые он ссылался в совей статье). Сейчас всё активнее обсуждается ( Саймон Уиллисон ,
-
[Перевод] Как должно выглядеть ревью кода в эпоху LLM
Недавно я активно занимался отправкой и проверкой пул-реквестов проекта PyTorch, созданных с существенной помощью LLM. Этот процесс сильно отличается ситуации в начале года, когда было понятно, что LLM вполне подходит для проектов, создаваемых с нуля, но для кодовой базы в продакшене их код оставался безнадёжно низкокачественным. Можете посмотреть мои смердженные PR , в описании которых упоминается Claude Code; у Джейсона Энсела тоже был подобный опыт ( ссылка на Meta* ; также есть список issue , на которые он ссылался в совей статье). Сейчас всё активнее обсуждается ( Саймон Уиллисон ,
-
ИИ-помощники на маркетплейсе GigaIDE: обслуживание кода
В прошлой статье мы рассказали, какие группы плагинов есть на маркетплейсе GigaIDE. Их количество постоянно растёт — как за счёт open source-плагинов, ранее доступных у JetBrains, так и за счёт собственных разработок. Именно оригинальным плагинам мы и посвятим цикл статей. Начнём с группы ИИ-помощников — плагинов, которые используют возможности GigaCode для автоматической работы с кодом. Все они бесплатны , но для работы требуют активированный GigaCode.
https://habr.com/ru/companies/sberbank/articles/978650/
#giga_ide #giga_code #gitverse #ai #плагины #ИИпомощники #программирование
-
ИИ-помощники на маркетплейсе GigaIDE: обслуживание кода
В прошлой статье мы рассказали, какие группы плагинов есть на маркетплейсе GigaIDE. Их количество постоянно растёт — как за счёт open source-плагинов, ранее доступных у JetBrains, так и за счёт собственных разработок. Именно оригинальным плагинам мы и посвятим цикл статей. Начнём с группы ИИ-помощников — плагинов, которые используют возможности GigaCode для автоматической работы с кодом. Все они бесплатны , но для работы требуют активированный GigaCode.
https://habr.com/ru/companies/sberbank/articles/978650/
#giga_ide #giga_code #gitverse #ai #плагины #ИИпомощники #программирование
-
ИИ-помощники на маркетплейсе GigaIDE: обслуживание кода
В прошлой статье мы рассказали, какие группы плагинов есть на маркетплейсе GigaIDE. Их количество постоянно растёт — как за счёт open source-плагинов, ранее доступных у JetBrains, так и за счёт собственных разработок. Именно оригинальным плагинам мы и посвятим цикл статей. Начнём с группы ИИ-помощников — плагинов, которые используют возможности GigaCode для автоматической работы с кодом. Все они бесплатны , но для работы требуют активированный GigaCode.
https://habr.com/ru/companies/sberbank/articles/978650/
#giga_ide #giga_code #gitverse #ai #плагины #ИИпомощники #программирование
-
ИИ-помощники на маркетплейсе GigaIDE: обслуживание кода
В прошлой статье мы рассказали, какие группы плагинов есть на маркетплейсе GigaIDE. Их количество постоянно растёт — как за счёт open source-плагинов, ранее доступных у JetBrains, так и за счёт собственных разработок. Именно оригинальным плагинам мы и посвятим цикл статей. Начнём с группы ИИ-помощников — плагинов, которые используют возможности GigaCode для автоматической работы с кодом. Все они бесплатны , но для работы требуют активированный GigaCode.
https://habr.com/ru/companies/sberbank/articles/978650/
#giga_ide #giga_code #gitverse #ai #плагины #ИИпомощники #программирование
-
Делаем свой ChatGPT за 10$ в месяц: разворачиваем LLM на облаке. Подробный гайд на VPS + API-обертка
Еще недавно поиск в Google или Яндекс был главным инструментом инженера. Сегодня все изменилось: AI-помощники вроде ChatGPT, Gemini или Claude, понимающие запросы на естественном языке, кардинально меняют подход к работе. Однако их использование упирается в серьезные преграды: вопросы конфиденциальности корпоративных данных, географические блокировки и лимиты бесплатных тарифов стали новой головной болью. Что, если получить все преимущества мощной языковой модели, но без этих недостатков? Решение — развернуть собственную модель на своих серверах. Эта статья —практический гид по созданию автономного чат-бота, который не уходит в облако, работает без интернета и полностью защищает данные. Я пройду путь от теории до работающего локального прототипа. Читать дальше
https://habr.com/ru/companies/cloud_ru/articles/959546/
#ииассистент #иипомощники #ai #chatgpt #deepseek #виртуальная_машина #ollama
-
Делаем свой ChatGPT за 10$ в месяц: разворачиваем LLM на облаке. Подробный гайд на VPS + API-обертка
Еще недавно поиск в Google или Яндекс был главным инструментом инженера. Сегодня все изменилось: AI-помощники вроде ChatGPT, Gemini или Claude, понимающие запросы на естественном языке, кардинально меняют подход к работе. Однако их использование упирается в серьезные преграды: вопросы конфиденциальности корпоративных данных, географические блокировки и лимиты бесплатных тарифов стали новой головной болью. Что, если получить все преимущества мощной языковой модели, но без этих недостатков? Решение — развернуть собственную модель на своих серверах. Эта статья —практический гид по созданию автономного чат-бота, который не уходит в облако, работает без интернета и полностью защищает данные. Я пройду путь от теории до работающего локального прототипа. Читать дальше
https://habr.com/ru/companies/cloud_ru/articles/959546/
#ииассистент #иипомощники #ai #chatgpt #deepseek #виртуальная_машина #ollama
-
Делаем свой ChatGPT за 10$ в месяц: разворачиваем LLM на облаке. Подробный гайд на VPS + API-обертка
Еще недавно поиск в Google или Яндекс был главным инструментом инженера. Сегодня все изменилось: AI-помощники вроде ChatGPT, Gemini или Claude, понимающие запросы на естественном языке, кардинально меняют подход к работе. Однако их использование упирается в серьезные преграды: вопросы конфиденциальности корпоративных данных, географические блокировки и лимиты бесплатных тарифов стали новой головной болью. Что, если получить все преимущества мощной языковой модели, но без этих недостатков? Решение — развернуть собственную модель на своих серверах. Эта статья —практический гид по созданию автономного чат-бота, который не уходит в облако, работает без интернета и полностью защищает данные. Я пройду путь от теории до работающего локального прототипа. Читать дальше
https://habr.com/ru/companies/cloud_ru/articles/959546/
#ииассистент #иипомощники #ai #chatgpt #deepseek #виртуальная_машина #ollama
-
Делаем свой ChatGPT за 10$ в месяц: разворачиваем LLM на облаке. Подробный гайд на VPS + API-обертка
Еще недавно поиск в Google или Яндекс был главным инструментом инженера. Сегодня все изменилось: AI-помощники вроде ChatGPT, Gemini или Claude, понимающие запросы на естественном языке, кардинально меняют подход к работе. Однако их использование упирается в серьезные преграды: вопросы конфиденциальности корпоративных данных, географические блокировки и лимиты бесплатных тарифов стали новой головной болью. Что, если получить все преимущества мощной языковой модели, но без этих недостатков? Решение — развернуть собственную модель на своих серверах. Эта статья —практический гид по созданию автономного чат-бота, который не уходит в облако, работает без интернета и полностью защищает данные. Я пройду путь от теории до работающего локального прототипа. Читать дальше
https://habr.com/ru/companies/cloud_ru/articles/959546/
#ииассистент #иипомощники #ai #chatgpt #deepseek #виртуальная_машина #ollama
-
[Перевод] Ад туториалов сменился адом вайб-кодинга
Когда в 2019 году я начинал размышлять о проблемах обучения кодингу, нашим врагом номер один был «ад туториалов». Признаки попадания в этот ад: • Вы успешно завершили кучу туториалов, но не можете создать ничего своего. • Вы тратили больше времени на просмотр видео о кодинге, чем на само программирование. • У вас имелось знание о многих технологиях на уровне флеш-карточек, но их внутреннее устройство было вам совершенно непонятно. Студенты смотрели шестичасовые видео (или засыпали под них), параллельно писали код в своих редакторах, у них складывалось ощущение понимания, но они заходили в тупик, как только приходилось писать что-нибудь с нуля. Классический ад туториалов. Именно поэтому при создании своего ресурса для обучения кодингу я опирался на следующие три принципа: • Глубокий курс обучения . Основы CS нужно преподавать не только в традиционных учебных заведениях. • Практическое освоение всего . Необходимо писать код; не только в проектах, но и интерактивно, в процессе изучения каждой концепции . • Меньше видео, больше текста . Видео слишком легко потреблять бездумно. Повторюсь, что в 2019 году ад туториалов был повсеместным. Многочасовые курсы на YouTube собирали миллионы просмотров. Однако сегодня те же самые каналы с трудом набирают по пятьдесят тысяч просмотров нового контента. Посмотрите на FreeCodeCamp , Traversy Media и Web Dev Simplified . Я не пытаюсь бросить тень на эти каналы, они помогли куче людей, но их показатели сейчас именно таковы.
https://habr.com/ru/companies/ruvds/articles/956412/
#обучение_программированию #иипомощники #cursor #claude #ииагенты #ruvds_перевод
-
[Перевод] Ад туториалов сменился адом вайб-кодинга
Когда в 2019 году я начинал размышлять о проблемах обучения кодингу, нашим врагом номер один был «ад туториалов». Признаки попадания в этот ад: • Вы успешно завершили кучу туториалов, но не можете создать ничего своего. • Вы тратили больше времени на просмотр видео о кодинге, чем на само программирование. • У вас имелось знание о многих технологиях на уровне флеш-карточек, но их внутреннее устройство было вам совершенно непонятно. Студенты смотрели шестичасовые видео (или засыпали под них), параллельно писали код в своих редакторах, у них складывалось ощущение понимания, но они заходили в тупик, как только приходилось писать что-нибудь с нуля. Классический ад туториалов. Именно поэтому при создании своего ресурса для обучения кодингу я опирался на следующие три принципа: • Глубокий курс обучения . Основы CS нужно преподавать не только в традиционных учебных заведениях. • Практическое освоение всего . Необходимо писать код; не только в проектах, но и интерактивно, в процессе изучения каждой концепции . • Меньше видео, больше текста . Видео слишком легко потреблять бездумно. Повторюсь, что в 2019 году ад туториалов был повсеместным. Многочасовые курсы на YouTube собирали миллионы просмотров. Однако сегодня те же самые каналы с трудом набирают по пятьдесят тысяч просмотров нового контента. Посмотрите на FreeCodeCamp , Traversy Media и Web Dev Simplified . Я не пытаюсь бросить тень на эти каналы, они помогли куче людей, но их показатели сейчас именно таковы.
https://habr.com/ru/companies/ruvds/articles/956412/
#обучение_программированию #иипомощники #cursor #claude #ииагенты #ruvds_перевод
-
[Перевод] Ад туториалов сменился адом вайб-кодинга
Когда в 2019 году я начинал размышлять о проблемах обучения кодингу, нашим врагом номер один был «ад туториалов». Признаки попадания в этот ад: • Вы успешно завершили кучу туториалов, но не можете создать ничего своего. • Вы тратили больше времени на просмотр видео о кодинге, чем на само программирование. • У вас имелось знание о многих технологиях на уровне флеш-карточек, но их внутреннее устройство было вам совершенно непонятно. Студенты смотрели шестичасовые видео (или засыпали под них), параллельно писали код в своих редакторах, у них складывалось ощущение понимания, но они заходили в тупик, как только приходилось писать что-нибудь с нуля. Классический ад туториалов. Именно поэтому при создании своего ресурса для обучения кодингу я опирался на следующие три принципа: • Глубокий курс обучения . Основы CS нужно преподавать не только в традиционных учебных заведениях. • Практическое освоение всего . Необходимо писать код; не только в проектах, но и интерактивно, в процессе изучения каждой концепции . • Меньше видео, больше текста . Видео слишком легко потреблять бездумно. Повторюсь, что в 2019 году ад туториалов был повсеместным. Многочасовые курсы на YouTube собирали миллионы просмотров. Однако сегодня те же самые каналы с трудом набирают по пятьдесят тысяч просмотров нового контента. Посмотрите на FreeCodeCamp , Traversy Media и Web Dev Simplified . Я не пытаюсь бросить тень на эти каналы, они помогли куче людей, но их показатели сейчас именно таковы.
https://habr.com/ru/companies/ruvds/articles/956412/
#обучение_программированию #иипомощники #cursor #claude #ииагенты #ruvds_перевод
-
[Перевод] Ад туториалов сменился адом вайб-кодинга
Когда в 2019 году я начинал размышлять о проблемах обучения кодингу, нашим врагом номер один был «ад туториалов». Признаки попадания в этот ад: • Вы успешно завершили кучу туториалов, но не можете создать ничего своего. • Вы тратили больше времени на просмотр видео о кодинге, чем на само программирование. • У вас имелось знание о многих технологиях на уровне флеш-карточек, но их внутреннее устройство было вам совершенно непонятно. Студенты смотрели шестичасовые видео (или засыпали под них), параллельно писали код в своих редакторах, у них складывалось ощущение понимания, но они заходили в тупик, как только приходилось писать что-нибудь с нуля. Классический ад туториалов. Именно поэтому при создании своего ресурса для обучения кодингу я опирался на следующие три принципа: • Глубокий курс обучения . Основы CS нужно преподавать не только в традиционных учебных заведениях. • Практическое освоение всего . Необходимо писать код; не только в проектах, но и интерактивно, в процессе изучения каждой концепции . • Меньше видео, больше текста . Видео слишком легко потреблять бездумно. Повторюсь, что в 2019 году ад туториалов был повсеместным. Многочасовые курсы на YouTube собирали миллионы просмотров. Однако сегодня те же самые каналы с трудом набирают по пятьдесят тысяч просмотров нового контента. Посмотрите на FreeCodeCamp , Traversy Media и Web Dev Simplified . Я не пытаюсь бросить тень на эти каналы, они помогли куче людей, но их показатели сейчас именно таковы.
https://habr.com/ru/companies/ruvds/articles/956412/
#обучение_программированию #иипомощники #cursor #claude #ииагенты #ruvds_перевод
-
Как облачные ассистенты и RAG‑технологии меняют работу с LLM: интервью с директором продуктовой разработки Cloud.ru
Привет, Хабр! Последнее время я много слышал, что в облачных технологиях появляются ИИ‑ассистенты. Они перестают быть экспериментом и становятся рабочим инструментом. Кроме того, нейросетевые модели всё больше появляются в разных облаках. Но как это выглядит с точки зрения разработчиков облачных платформ, и какие технологии лежат в основе таких сервисов? Об этом я поговорил на конференции GigaConf с директором продуктовой разработки Cloud.ru Владимиром Шульгой. Также в разговоре затронули темы RAG‑пайплайна, интеграции LLM в DevOps‑процессы, автоматизации рутинных операций и о том, как облачные ассистенты меняют пользовательский опыт. Приятного чтения!
https://habr.com/ru/articles/941384/
#cloudru #gigaconf #облачный_сервис #иипомощники #искусственный_интеллект
-
Как облачные ассистенты и RAG‑технологии меняют работу с LLM: интервью с директором продуктовой разработки Cloud.ru
Привет, Хабр! Последнее время я много слышал, что в облачных технологиях появляются ИИ‑ассистенты. Они перестают быть экспериментом и становятся рабочим инструментом. Кроме того, нейросетевые модели всё больше появляются в разных облаках. Но как это выглядит с точки зрения разработчиков облачных платформ, и какие технологии лежат в основе таких сервисов? Об этом я поговорил на конференции GigaConf с директором продуктовой разработки Cloud.ru Владимиром Шульгой. Также в разговоре затронули темы RAG‑пайплайна, интеграции LLM в DevOps‑процессы, автоматизации рутинных операций и о том, как облачные ассистенты меняют пользовательский опыт. Приятного чтения!
https://habr.com/ru/articles/941384/
#cloudru #gigaconf #облачный_сервис #иипомощники #искусственный_интеллект
-
Как облачные ассистенты и RAG‑технологии меняют работу с LLM: интервью с директором продуктовой разработки Cloud.ru
Привет, Хабр! Последнее время я много слышал, что в облачных технологиях появляются ИИ‑ассистенты. Они перестают быть экспериментом и становятся рабочим инструментом. Кроме того, нейросетевые модели всё больше появляются в разных облаках. Но как это выглядит с точки зрения разработчиков облачных платформ, и какие технологии лежат в основе таких сервисов? Об этом я поговорил на конференции GigaConf с директором продуктовой разработки Cloud.ru Владимиром Шульгой. Также в разговоре затронули темы RAG‑пайплайна, интеграции LLM в DevOps‑процессы, автоматизации рутинных операций и о том, как облачные ассистенты меняют пользовательский опыт. Приятного чтения!
https://habr.com/ru/articles/941384/
#cloudru #gigaconf #облачный_сервис #иипомощники #искусственный_интеллект
-
Как облачные ассистенты и RAG‑технологии меняют работу с LLM: интервью с директором продуктовой разработки Cloud.ru
Привет, Хабр! Последнее время я много слышал, что в облачных технологиях появляются ИИ‑ассистенты. Они перестают быть экспериментом и становятся рабочим инструментом. Кроме того, нейросетевые модели всё больше появляются в разных облаках. Но как это выглядит с точки зрения разработчиков облачных платформ, и какие технологии лежат в основе таких сервисов? Об этом я поговорил на конференции GigaConf с директором продуктовой разработки Cloud.ru Владимиром Шульгой. Также в разговоре затронули темы RAG‑пайплайна, интеграции LLM в DevOps‑процессы, автоматизации рутинных операций и о том, как облачные ассистенты меняют пользовательский опыт. Приятного чтения!
https://habr.com/ru/articles/941384/
#cloudru #gigaconf #облачный_сервис #иипомощники #искусственный_интеллект
-
ИИ-помощник редактора на Хабре: семь раз вайб-код — один раз поймешь
Привет! На связи Николай из редакции блога
https://habr.com/ru/companies/yadro/articles/923780/
#ииассистент #иипомощники #редакция #хабраредактор #аналитика_данных
-
ИИ-помощник редактора на Хабре: семь раз вайб-код — один раз поймешь
Привет! На связи Николай из редакции блога
https://habr.com/ru/companies/yadro/articles/923780/
#ииассистент #иипомощники #редакция #хабраредактор #аналитика_данных
-
ИИ-помощник редактора на Хабре: семь раз вайб-код — один раз поймешь
Привет! На связи Николай из редакции блога
https://habr.com/ru/companies/yadro/articles/923780/
#ииассистент #иипомощники #редакция #хабраредактор #аналитика_данных
-
ИИ-помощник редактора на Хабре: семь раз вайб-код — один раз поймешь
Привет! На связи Николай из редакции блога
https://habr.com/ru/companies/yadro/articles/923780/
#ииассистент #иипомощники #редакция #хабраредактор #аналитика_данных
-
[Перевод] Cursor vs Windsurf vs GitHub Copilot
Искусственный интеллект уже давно перестал быть лишь трендом и стал важным инструментом для разработчиков. В этой статье мы сравним три популярных AI-помощника для программирования: GitHub Copilot, Cursor и Windsurf. Каждый из них предлагает уникальные возможности для автоматизации рутинных задач, таких как автозаполнение кода, его генерация и улучшение рабочих процессов в IDE. Мы подробно рассмотрим, как эти решения помогают ускорить разработку и какие особенности отличают их друг от друга, чтобы вы могли выбрать подходящий инструмент для своих задач.