home.social

#autocompleading — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #autocompleading, aggregated by home.social.

  1. La semaine dernière, j'ai fait un petit bilan de mes lectures sur le #leak du code source de #Claudecode. Je me dis que ça pourrait intéresser ici aussi :

    Le source de Claude code, principal outil d'#IAg #agentique de développement, a fuité (à la suite d'une maladresse de ses développeurs/euses) : theguardian.com/technology/202.

    La conséquence la plus intéressante, c'est que nous pouvons désormais étudier comment les concepteurs des #LLM d’#Anthropic envisagent l’interface avec le LLM. Voici le source : github.com/chatgptprojects/cle.

    Analyse 1 (écrite avec un LLM) : kuber.studio/blog/AI/Claude-Co

    Analyse 2 (moins conciliante) : neuromatch.social/@jonny/11632

    TL;DR :

    - Les ingénieurs d'Anthropic, pensent que les pré-prompts sont suffisants pour conditionner un LLM (exemples : github.com/chatgptprojects/cle ou github.com/chatgptprojects/cle ou github.com/chatgptprojects/cle). Certains parlent de « #autocompleading » (faire des demandes, voire supplier un LLM). Vous en trouvez un condensé ici : github.com/Leonxlnx/agentic-ai
    - Leurs travaux ne sont pas très économes : les « agents » exécutent une tonne de process et font une tonne de requêtes (très consommatrices de tokens) vers le LLM.
    - Malgré le fait d'avoir un LLM sous la main, ils/elles utilisent volontiers des systèmes à base de règles, avec des expressions régulières (exemple : pour détecter une humeur négative dans le prompt github.com/chatgptprojects/cle).

    En tant qu'informaticiens/iennes, une question qui se pose est : comment est-ce possible que… ça fonctionne !