Si vous pensiez avoir tout vu avec Google Cloud Next il y a quelques semaines, détrompez-vous ! Le monde de l'IA évolue à grande vitesse, et Google I/O 2025 vient une nouvelle fois de le prouver avec une pluie d’annonces. La firme de Mountain View ne relâche pas ses efforts et continue d’intégrer l’intelligence artificielle au cœur de tous ses produits et services, à un rythme soutenu.
Pour nous, développeurs, une annonce a particulièrement attiré notre attention : Jules, l'agent de codage asynchrone. On y reviendra, mais avant, faisons un tour d'horizon des nouveautés marquantes par catégorie.
Les annonces clés de Google I/O 2025 par catégorie
Modèles Gemini et infrastructure TPU : plus de puissance, plus de finesse
La famille Gemini s'étoffe avec les versions 2.5. Gemini 2.5 Pro intègre le mode "Deep Think" pour un raisonnement avancé sur des tâches complexes (maths, code). Gemini 2.5 Flash mise sur la vitesse et l'efficacité, avec un traitement audio natif et une consommation de tokens réduite. Gemini 2.5 Diffusion, un modèle expérimental, promet une génération de texte ultra-rapide, sans doute très utile pour la génération de code, à suivre. Le tout est accompagné par les nouveaux TPU Ironwood, 10 fois plus puissants que la génération précédente, assurant des modèles plus véloces, moins coûteux.
Google Search et mode IA : la recherche réinventée
Le "Mode IA" devient la nouvelle expérience de recherche par défaut aux États-Unis, permettant des requêtes longues et complexes avec des questions de suivi. Les AI Overviews s'étendent à plus de 200 pays. Des fonctionnalités comme "Deep Search", "Search Live" (interaction via caméra grâce au Project Astra) , et l'intégration du "Contexte Personnel" (Gmail, Calendar) visent une personnalisation poussée de l’expérience utilisateur, en tirant parti de données contextuelles issues de votre environnement Google. Le shopping assisté par IA propose l'essayage virtuel et un agent d'achat.
IA Générative pour la création média : l'imagination sans limites?
Google renforce son arsenal créatif dans le domaine des médias. Veo 3 génère des vidéos avec audio synchronisé (dialogues, effets), promettant une qualité et une vitesse améliorées. Imagen 4 améliore la génération d'images avec un meilleur rendu du texte, des formats multiples et une résolution jusqu'à 2K. L'outil Flow, combinant Veo, Imagen et Gemini, assiste à la création cinématographique, de la génération de clips à la construction de scènes. Lyria 2 continue d'évoluer pour la création musicale assistée par IA.
Agents IA et automatisation : des assistants plus proactifs
L'heure est aux agents ! Project Astra, l'assistant universel, devient plus proactif, capable d'intervenir sans sollicitation et s'intègre à Gemini Live (gratuit sur Android/iOS) pour une assistance multimodale en temps réel. Project Mariner permet de déléguer des tâches web (recherche d'appartements, réservations) avec apprentissage "teach and repeat" et multitâche. Et bien sûr, Jules, l'agent de dev asynchrone (bêta publique), travaille sur les repos GitHub pour les mises à niveau, tests et corrections.
Expériences immersives et communication : vers plus de réalisme
La communication à distance se veut plus naturelle. Google Beam (évolution de Project Starline), en partenariat avec HP, offre des appels vidéo 3D immersifs grâce à l'IA, avec suivi précis des mouvements et rendu sur écran à champ lumineux. Dans Google Meet, la traduction vocale en temps réel (bêta anglais/espagnol pour abonnés Pro/Ultra) reproduit le ton et les expressions du locuteur.
Outils et modèles pour développeurs : l'arsenal s'enrichit
Outre Jules, les développeurs ne sont pas en reste. Google AI Studio facilite le prototypage avec Gemini 2.5 Pro et le SDK GenAI. Stitch génère des UI (CSS/HTML, Figma). Gemini dans Android Studio et dans Chrome DevTools (assistance au débogage). De nouvelles API IA (Summarizer, Translator) basées sur Gemini Nano arrivent dans Chrome et ML Kit.
Modèles Open (Gemma) : spécialisation et accessibilité
Google continue sur la gamme Gemma. Gemma 3n, conçu pour mobile (2Go de RAM), préfigure la prochaine génération de Gemini Nano avec une architecture optimisée et des capacités multimodales . Des modèles spécialisés comme MedGemma (médical, disponible), SignGemma (langage des signes, à venir).
Android XR et lunettes intelligentes : l'IA à portée de regard
La réalité augmentée (XR) prend forme avec Android XR, une plateforme logicielle pensée pour l'ère Gemini, adaptable aux casques et lunettes. Le partenariat avec Samsung pour le casque Project Moohan (fin 2025) se confirme. Project Aura, des lunettes avec Xreal, intègre Gemini pour des usages comme la traduction en direct et la navigation.
Monétisation : les abonnements Google AI Pro et Ultra
L'accès aux fonctionnalités IA avancées se structure. Google AI Pro ($19.99/mois) remplace Gemini Advanced et étend l'accès aux produits IA. Le nouveau plan Google AI Ultra ($250/mois !!!), d'abord aux US, offre les quotas plus élevées, un accès aux projets en avance de phase (Project Mariner, Veo 3, Deep Think), 30To de stockage et YouTube Premium.
IA Responsable : transparence et sécurité au programme
Face à cette déferlante, Google met en avant des outils de confiance. SynthID Detector, un portail pour identifier les contenus générés par IA (images, audio, vidéo, texte) grâce au watermarking invisible SynthID, sera accessible aux chercheurs et médias. Des améliorations de sécurité pour Gemini 2.5 Pro contre l'injection de prompts et Private Compute Core for Business pour l'exécution sur appareil ou cloud privé sont aussi annoncées. À suive.
En bref : IA omniprésente et accélération constante
Google I/O 2025 confirme une tendance forte : l’IA n’est plus une simple fonctionnalité, mais un élément central de la stratégie de Google. De l’agent de codage Jules aux plateformes XR, en passant par la refonte complète de la recherche, l’intelligence artificielle redéfinit les usages. Une période intense et passionnante s’annonce pour les développeurs.
Jules : votre nouveau collègue IA pour le code?
Pour ceux qui, comme nous chez SFEIR, passent leurs journées le nez dans le code, l'annonce de Jules a de quoi intéresser. Présenté comme un agent de codage asynchrone et autonome, Jules est désormais en bêta publique. Sur ce point, Google est dans la lignée de Claude Code et Codex. J’aime beaucoup la vision derrière ces outils.
Concrètement, Jules est conçu pour travailler directement avec les repos GitHub. Missions? Des tâches souvent chronophages mais essentielles :
- Mises à niveau de version : Fini les heures passées à vérifier la compatibilité et à ajuster le code pour la dernière version d'une librairie. Jules s'en charge.
- Écriture de tests : Une tâche cruciale mais parfois rébarbative. Jules peut générer des tests pour assurer la robustesse de votre code.
- Mise à jour de fonctionnalités et correction de bugs : Jules peut intervenir pour implémenter des modifications ou corriger des anomalies identifiées.
Le fonctionnement décrit est assez malin : Jules opère en créant une machine virtuelle dans le cloud, effectue des modifications dans la base de code, exécute les tests et, si le développeur est satisfait du résultat, Jules peut ouvrir une pull request. On sent bien ici la volonté de Google de se positionner face à des outils comme GitHub Copilot, en proposant un agent qui va plus loin que la simple complétion de code et en adoptant la philosophie de Claude Code et Codex.
L’idée d’un collègue virtuel capable de prendre en charge ces tâches de fond est séduisante. Elle pourrait libérer un temps précieux, permettant aux développeurs de se concentrer sur des aspects plus complexes comme l’architecture ou l’innovation. Bien sûr, il conviendra d’évaluer Jules en conditions réelles pour juger de sa pertinence et de son intégration dans les workflows existants. Mais l’ambition affichée est claire.