Aller au contenu

Best of #JuneOfGenAI

Le mois de juin a été riche en expérimentations GenAI chez SFEIR : agents autonomes, assistants de code, sécurité des LLMs, frameworks no-code et bien plus encore. Vous avez 5 minutes ? Découvrez notre sélection des tests les plus marquants, partagés chaque jour sur LinkedIn pendant le #JuneOfGenAI.

En juin, les Sferians se sont jetés à fond dans la GenAI : agents, assistants, sécurité, no-code… on a tout testé, et voici le best-of à ne pas manquer !

Vous ouvrez LinkedIn ? Tout le monde y parle de GenAI. Les dernières news ? OpenAI, Anthropic, Midjourney… Le management au travail ? Les assistants de code, l’agentique… Même entre nous, on échange souvent sur nos tests. Mais le nombre d’outils est juste ÉNORME !

Face à la profusion d’outils, parfois vertigineuse, nous avons relevé un défi collectif : publier, chaque jour, au moins un post LinkedIn sur nos explorations. L’idée ? Éviter de tout faire reposer sur une seule personne, et permettre à chacun de partager son aventure à son rythme.

Et pour celles et ceux qui préfèrent un condensé des expérimentations les plus marquantes… vous êtes au bon endroit.

AI Agents

Soyons honnêtes : en ce moment, impossible de parler de GenAI sans mentionner les AI Agents. Qu’est-ce qui peut nous aider à construire ces agents et à automatiser une partie de notre travail (en croisant les doigts pour que les prédictions des PDG de multinationales ne s’avèrent pas exactes, et qu’on puisse garder notre job au final) ?

Pour les adeptes de tout ce qui vient de chez Google, il existe bien évidemment l’Agent Development Kit (ou ADK). Il reste compatible avec les serveurs MCP, LangGraph, CrewAI, et bien plus encore. Si vous voulez voir les résultats en action, Tanguy BAUDRIN a d’ailleurs partagé une courte vidéo sur le sujet !

Débogage en direct par Tanguy BAUDRIN

Et pendant qu’on parle agents, difficile d’ignorer Semantic Kernel, le kit de développement open-source made in Microsoft pour orchestrer des LLMs. Ici, on ne parle pas seulement d’agents, mais aussi de skills, planners et memories, une architecture bien rangée. La grosse différence ? Ce n’est pas juste un LLM qui improvise. C’est un système modulaire où tu prépares des fonctions, tu les exposes, et tu laisses le modèle planifier lesquelles combiner. Et bien sûr, tout ça s’intègre parfaitement dans l’écosystème Azure !

En parlant de CrewAI, ce framework vous permet de plonger dans l’univers du multi-agent avec son concept de "crew" — d’où le nom. Le format de déclaration des agents et l’attribution des tools est un peu différent, mais l’idée de base reste la même : on découpe une grosse tâche en plusieurs petites, et on assigne une tâche par agent. Le reste ? C’est de la magie (ou plutôt, du LLM). Pour orchestrer votre crew, rien de plus simple. La preuve en quelques lignes de code juste en dessous.

manager_llm = LLM(model='gemini/gemini-2.5-flash')

agents = LinkedinPostAgents()
news_fetcher = agents.news_fetcher_agent()
news_analyst = agents.news_analyst_agent()
linkedin_writer = agents.linkedin_writer_agent()

tasks = LinkedInPostTasks()
fetch_news_task = tasks.fetch_news_task(news_fetcher)
analyze_news_task = tasks.analyze_news_task(news_analyst, [fetch_news_task])
write_post_task = tasks.write_post_task(linkedin_writer, [analyze_news_task], save_post)

crew = Crew(
    agents=[news_fetcher, news_analyst, linkedin_writer],
    tasks=[fetch_news_task, analyze_news_task, write_post_task],
    process=Process.hierarchical,
    manager_llm=manager_llm,
    verbose=True
)

results = crew.kickoff()

Impossible de parler des LLMs sans mentionner un autre grand player du marché : OpenAI. Oui, eux aussi ont sorti leur propre Agents SDK. Ici, pas de crew, pas de planner maison, juste un agent qui sait bosser avec des fonctions, de la mémoire, et des outils bien définis. L’idée ? Tu lui donnes un objectif, il s’organise. C’est minimaliste, propre, et surtout pensé pour tourner dans un environnement bien contrôlé. Il s’appuie sur l’infrastructure d’OpenAI pour gérer la planification, les appels d’outils et la mémoire, avec une exécution orchestrée via leur API.

Et puis il y a les smolgangs de Hugging Face, tout petits, tout simples, mais pas à sous-estimer. Ils utilisent un nouveau paradigme avec les code agents. Là où la plupart des agents communiquent au format JSON (avec le nom des outils à appeler et les arguments associés), les code agents, eux, écrivent directement leurs actions… en code ! Et ce n’est pas anodin : plusieurs publications ont montré que faire appel aux outils via du code généré par les LLMs est souvent bien plus efficace.

MCP (Model Context Protocol)

Le deuxième terme le plus utilisé ce mois-ci, c’est sans doute MCP. D’un point de vue purement théorique, MCP standardise la façon dont on fournit du contexte aux LLMs. On le compare souvent à un port USB-C ou à une REST API.

Mais concrètement, que permet MCP ?
Il offre un cadre pour exposer des outils sous forme d’APIs appelables par le modèle, tout en séparant clairement la logique métier des capacités du modèle. Il facilite également la gestion de workflows complexes faisant appel à plusieurs outils, et s’intègre aisément dans des applications réelles, y compris dans des environnements de développement comme les IDEs.

Alors, qu’est-ce que nos Sferians ont testé ce mois-ci ?

  • GitMCP, un service proposé par GitHub, qui expose un repo comme un serveur MCP. La gestion se fait en un clic, mais attention à bien maintenir llms.txt ou README.md à jour pour une bonne documentation.
  • Atlassian MCP, un service (comme son nom l’indique) d’Atlassian, pour interagir avec des tickets Jira et du contenu sur Confluence. Création de tickets automatisée, documentation branchée… il ne reste plus qu’à attaquer le Sprint !
  • La connexion des outils exposés par un serveur MCP à des agents développés avec ADK.
  • Le lancement de serveurs MCP avec Docker, qui dispose désormais de son propre catalogue avec plus de 100 serveurs préconfigurés. Une vraie boîte à outils !
  • La connexion d’un serveur MCP local à l’IDE Cursor, parce que pourquoi ne pas enrichir un outil déjà puissant ? Fedi CHERIF nous montre tout ça en live !

Et si vous vous demandez encore d’où vient tout le buzz autour du MCP : 10 à 15 minutes suffisent pour suivre un tuto simple et lancer votre propre serveur en local !

Sécurisation des LLMs

Les applications basées sur les LLMs nous facilitent la vie, tout le monde le sait… ou au moins, tout le monde le dit. Mais soyons honnêtes, qui ici n’a jamais tenté de contourner les instructions d’un chatbot pour lui faire dire quelque chose d’interdit ? Et si, cette fois, on était de l’autre côté, celui qui rédige les instructions ? Ou pire encore : face à un agent qui a accès à vos bases de données ou à vos projets ?

Ton premier allié pour faire face à ces risques, c’est Llama Firewall. Ce framework s’attaque à trois grandes catégories de problèmes :

  • les attaques par prompt injection (le fameux “oublie toutes tes instructions précédentes…”)
  • le comportement déviant ou mal aligné des agents
  • et le code non sécurisé (oui, on parle bien des clés API, tokens ou mots de passe planqués dans le code…).

Si tu veux aller plus loin, et que l’anglais ne te fait pas peur, jette un œil à Guardrails AI. En plus de la sécurité (la base), ce framework propose une vérification avancée : à partir de détection de contenu NSFW, et jusqu'au JSON mal formaté. La liste complète comprend 66 validateurs !

Liste complète des guardrails disponibles à mettre en place.

Avons-nous oublié quelque chose ? Giskard, qui s’est imposé depuis des années comme LE framework pour tester et évaluer les modèles de machine learning. Et avec l’arrivée des LLMs, il évolue vite. Ce que Giskard peut détecter ? Hallucinations, désinformation, contenu toxique ou dangereux, prompt injections, manque de robustesse et même fuites de données sensibles !

Au moins trois solutions solides sur la table, donc plus d’excuses pour laisser vos apps LLM vulnérables !

Assistants de code

Nommer “the best of” dans les assistants de code, c’est prendre le risque de déclencher une vraie guerre dans les commentaires. C’est peut-être le plus grand “ça dépend” de l’informatique ! Quelles sont vos habitudes ? Êtes-vous vraiment attachés à votre IDE ? Prêts à passer par un navigateur web ? Vous bossez plutôt sur le front ou le back ? Vous voulez garder la main sur le code, ou laisser votre assistant pousser directement sur GitHub ?

La liste des questions est longue… mais peut-être encore moins longue que celle des assistants de code qu’on a testés ce mois-ci (personnellement, j’ai dû créer 3 ou 4 nouveaux comptes rien que pour ça !). Claude Code, Gemini Code Assist, Codex, Cursor, Chef, Bolt, V0, Lovable, Windsurf, Jules… et la liste continue.

Pourquoi ne pas en choisir un et le tester aujourd’hui ? Vous ne serez probablement pas déçus ! (À moins que vous espériez automatiser complètement votre travail et partir à la plage… là, oui, petite déception possible.)

Orchestration de Workflows

Et si, après le vibe coding, vous avez envie de tester quelque chose de vraiment no-code ? Pour ce mois de #JuneOfGenAI, nos choix se sont portés sur n8n et Dify ! Ce sont de vraies solutions drag-and-drop, avec des interfaces intuitives, qui permettent de créer une application sans écrire une seule ligne de code.

Dans les deux cas, il existe une offre entreprise ainsi qu’une version open source que vous pouvez déployer vous-mêmes. Et les blocks à disposition ? Il y a de tout : déclencheurs pour vos workflows, data sources, intégration des modèles LLM les plus répandus… tout est là. Un serveur MCP ? C’est clairement un must-have, donc oui, vous pouvez en ajouter un sans souci.

Il y a largement de quoi s’amuser… mais aussi de quoi construire des solutions réellement utiles !

Workflow Dify ©Angélo LIMA

Et si vous préférez garder la main sur le code et vos workflows, alors ZenML s’impose comme une évidence.

Ses atouts ? Une prise en main facile grâce à une syntaxe simple avec les décorateurs @step et @pipeline. Il intègre un système de cache intelligent, capable de réutiliser des artifacts tant que les inputs ne changent pas - un vrai gain de temps (et d’argent !). Et le petit bonus qu’on aime tous : c’est cloud-agnostic, donc pas de stress côté infra !

Workflow ZenML ©Adrien LEGRAND

Pépites à part

Un outil qui sort un peu de l’ordinaire, mais qu’on avait quand même envie de tester, même sans use case clair ? C’est évidemment Google Veo. Mauvaise nouvelle pour les Européens : officiellement, Google Veo 3 n’est pas disponible en Europe, et même avec un VPN, l’accès et l’obtention de crédits peut s’avérer compliqué. Les résultats de Veo 2 sont moins impressionnants, mais au moins, ils ont le mérite de faire sourire. Vous pouvez toujours les checker sur LinkedIn !

Extrait d'une vidéo créée avec Veo 2 ©Nathan BRAMI

Le navigateur web, c’est juste un outil, non ? Pas forcément, surtout si on parle de Dia, qui intègre l’intelligence artificielle directement dans votre expérience de navigation. Résumer un article, générer automatiquement des templates d’e-mails, organiser et partager des liens… Dia peut s’en occuper pour vous simplifier la vie !

Conclusion

Comme vous pouvez le constater, le mois de juin a été particulièrement riche — et l’on ne parle pas ici des vagues de chaleur. La liste est loin d’être exhaustive : difficile de condenser un mois entier d’expérimentations dans un seul article, d’autant que chaque jour, de nouveaux tests viennent enrichir notre exploration collective.

Heureusement pour vous, le tag #JuneOfGenAI reste dispo sur LinkedIn pour explorer tout cela en détail !

Un immense merci à tous les Sferians qui ont répondu à mon appel et accepté de partager leur expérience avec la communauté : Adrien Legrand, Tanguy Baudrin, Guillaume Payen, Angelo Lima, Thomas Sloboda, Baptiste Pirault, Fedi Cherif, Nathan Brami et Aurélien Allienne. Votre enthousiasme fait toute la différence !

Dernier