Google I/O Connect Berlin 2025 - Rétrospective de la conférence

27. juin 2025 - de Dinah Bolli

Le 25 juin, Google I/O Connect s'est déroulé à Berlin, et les trois quarts de l'équipe Android d'Apps with love y étaient présents! Les conférences Google I/O Connect sont des événements régionaux qui font suite à Google I/O. Alors que cette dernière dévoile une fois par an les principales nouveautés en matière de produits, de plateformes et de mises à jour et est retransmise en direct depuis Mountain View, en Californie, Google I/O Connect offre un cadre plus personnalisé dans lequel les développeurs peuvent acquérir une expérience pratique des technologies présentées et échanger leurs impressions.

L'inscription à Google I/O Connect s'apparente presque à une candidature. Nous avons donc été ravis lorsque Google nous a finalement confirmé que nous pouvions y participer.

La conférence s'est déroulée dans les studios Wilhelm, au nord du centre de Berlin. Les participants ont pu assister à des conférences, participer à des ateliers, poser toutes leurs questions aux employés de Google lors de sessions de questions-réponses et, bien sûr, échanger avec d'autres personnes. En somme, un véritable paradis pour les développeurs curieux.

Arrivée

Mercredi matin, nous avons fait la queue à 8 h 30 pour récupérer nos badges. Malgré la pluie battante, il y avait déjà dans l'air cette excitation et cette tension que l'on ne retrouve que lors des conférences de développeurs. Nos badges autour du cou, nous nous sommes ensuite précipités avec des dizaines d'autres développeurs vers le hall principal, où nous avons été émerveillés.

Devant nous, un groupe de jazz jouait, créant une ambiance chaleureuse dans toute la salle. À notre droite, il y avait des postes de travail et des coins salon confortablement aménagés. À peine avions-nous dépassé la scène que l'on nous a littéralement offert des pancakes à la fraise et du pudding à la mangue et au chia sur un plateau. Il y avait plusieurs stands de baristas où l'on pouvait déguster, en plus d'excellents cappuccinos (que nous adorons!), toutes sortes de cafés de qualité et de délicieuses douceurs.

Au milieu du hall principal, des tables de pique-nique et de jardin étaient disposées sur des pelouses en forme de vagues, en gazon véritable (!). À côté se trouvait l'Android Garden: un espace vert où l'on pouvait entendre le chant des oiseaux, se détendre sur des couvertures de pique-nique et des chaises longues dans l'herbe, entouré d'arbres, ou se faire prendre en photo avec les trois différents personnages Android – ce que nous avons bien sûr immédiatement fait. Outre la nourriture abondante et de grande qualité, c'est la verdure du hall principal qui nous a le plus enthousiasmés.

Entrée du Google I/O Connect à Berlin
Jazzband au Google I/O Connect
Menu du petit déjeuner
Yannick, Dinah et Ossi à côté de la figurine Android
Pain de nata et pain de banane

Sur le stand Androidify, nous avons généré une version avatar personnalisée de l'androïde vert. En principe, vous prenez une photo de vous-même, avec un objet si vous le souhaitez, par exemple une toque de cuisinier, et vous la téléchargez. Gemini (2.5 Flash) analyse la photo et identifie les caractéristiques de la personne, telles que les cheveux, les vêtements ou les accessoires, puis tente de capturer l'apparence réelle de la personne. Imagen 3 génère ensuite l'image de l'androïde correspondant. Peux-tu deviner qui est qui?

Androidify Yannick
Androidify Ossi
Androidify Dinah

Sur le stand Veo, une photo prise dans la cabine photo et un effet sélectionné avec Veo 3 ont permis de générer une courte vidéo. La tête d'Ossi a ainsi été tournée par une main géante et Dinah a été aspergée de poudre colorée Holi, ce qui a provoqué un grand étonnement sur son visage. Il est vraiment étonnant de voir à quel point Veo et Imagen se sont améliorés en si peu de temps.

Il y avait également des stands consacrés à des thèmes spécifiques, où l'on pouvait échanger avec des collaborateurs de Google et leur poser des questions. Le stand Adaptive Apps nous a particulièrement intéressés: avec la nouvelle bibliothèque Navigation 3, actuellement en version alpha, Google a entièrement repensé la navigation pour les applications dans le but de la simplifier et de proposer des composants qui s'adaptent automatiquement au format (mobile, pliable, tablette, Chromebook) dans le plus grand nombre de cas d'utilisation possible. Ce que nous avons déjà pu voir dans les exemples de code nous a en tout cas déjà convaincus.

Yannick a particulièrement apprécié les échanges avec les collaborateurs de Google qui travaillent précisément sur les bibliothèques que nous utilisons quotidiennement, car cela a permis d'aborder des sujets techniques de manière très approfondie.

VeoBooth au Google I/O Connect

Discussions

Six créneaux horaires permettaient d'assouvir sa soif de connaissances dans les catégories suivantes: IA, cloud, Android et Web. La plupart des informations présentées ne nous étaient pas totalement inconnues, car la plupart des nouveautés avaient été publiées pendant ou juste après la Google I/O et Google fournit généralement de nombreuses vidéos informatives à la communauté des développeurs. C'est pourquoi, par rapport à la Droidcon à l'automne pas nécessairement acquis davantage de connaissances en programmation, mais plutôt une expérience pratique des dernières bibliothèques et des derniers outils publiés par Google.

Talk préféré de Dinah: prototype avec Google AI Studio

Par Guillaume Vernade, développeur Gemini, IA

Guillaume avait quelques cas d'utilisation sympas en réserve pour présenter les nombreuses fonctionnalités de Google's AI Studio. AI Studio apporte une énorme valeur ajoutée, car il permet aux développeurs d'expérimenter les modèles d'IA générative de la famille Gemini et de créer et déployer des prototypes d'applications.

Reconnaissance vocale
Via l'option de menu «Generate Media», il a démontré les capacités de la «Gemini speech recognition». Il a d'abord généré un script pour un podcast destiné à lui-même et à une deuxième personne via le chat normal, en fournissant à Gemini plusieurs liens vers les dernières fonctionnalités de l'IA. Gemini lui a fourni le texte, qu'il a ensuite copié et collé dans «Gemini speech recognition». Il est possible de nommer les animateurs du podcast et de leur attribuer une voix. On obtient alors l'audio d'un podcast très authentique entre deux personnes.

Génération d'images et de vidéos
Nous n'avons vu ces fonctionnalités que brièvement, car il était évident que presque toutes les personnes présentes dans la salle les avaient déjà essayées. Les nouveaux modèles Imagen 4 et Imagen 4 Ultra n'affichent plus les textes dans l'image sous forme de hiéroglyphes, mais sous forme de texte réellement lisible. Veo 3, qui sortira à la fin de l'été, générera entre autres automatiquement des sons adaptés en arrière-plan d'une scène.

Création d'applications
Pour finir, Guillaume nous a présenté la fonctionnalité Build. Celle-ci permet de créer soi-même des applications qui utilisent les différents modèles. Son cas d'utilisation: un générateur de tests de vocabulaire pour sa fille. Elle peut télécharger une photo des mots à apprendre, Gemini reconnaît les mots et crée un test avec des phrases correspondantes. Par exemple, la phrase est lue à voix haute (génération de parole) et la fille doit la taper correctement. Dans le meilleur des cas, Gemini reconnaît alors si la réponse saisie est correcte ou non.

Outre tous les différents modèles que l'on peut essayer, ce qui me plaît le plus dans AI Studio, c'est que l'on peut afficher le code d'une application, par exemple Lyria RealTime API, à l'aide de «Show code editor» et activer le Code Assistant. L'effet d'apprentissage est extrêmement élevé, car on voit comment l'application est programmée et on peut directement l'étendre ou se faire expliquer son fonctionnement. De plus, on peut partager directement une application créée avec d'autres utilisateurs ou la déployer sur Google Cloud. Cette dernière option fonctionne en quelques secondes si l'on est déjà configuré!

Des personnes écoutent une discussion sur l'API Gemini
Parler de Gemini
Diapositive de présentation des différents modèles Gemini

Atelier préféré de Ossi: créer une application pour un monde multi-appareils

Par Rob Orgiu, ingénieur DevRel, grands écrans / Sasha Lukin, ingénieur DevRel, ChromeOS

Cette conférence était un atelier, ce qui m'a permis de reproduire en direct ce qui était présenté sur mon ordinateur portable. Au cours de cet atelier, nous avons vu comment adapter une application mobile à différents formats à l'aide de techniques de développement Android modernes. Nous avons plus particulièrement abordé les points suivants:

Mises en page adaptatives avec Navigation 3La nouvelle bibliothèque de navigation, Navigation 3, offre de nombreux nouveaux avantages qui facilitent le développement de la logique de navigation avec Jetpack Compose. Nous avons vu à quel point il est désormais facile d'implémenter une vue liste + détail. Ainsi, sur un smartphone, une liste s'affiche comme d'habitude sur un écran et, lorsque l'on clique sur un élément, un deuxième écran s'affiche avec les détails de cet élément. Sur un appareil doté d'un écran plus grand, comme les tablettes, les appareils pliables ou les Chrome Books, la vue détaillée s'affiche alors directement à côté de la liste, c'est-à-dire sur un seul écran. L'espace disponible est ainsi utilisé de manière optimale.

Glisser-déposer
Sur Mac OS et Windows, le glisser-déposer est devenu incontournable. Android offre également cette fonctionnalité, mais elle est peu connue et peu implémentée par les développeurs. Nous avons examiné à quel point il est désormais facile de l'implémenter avec Jetpack Compose. Cela est particulièrement utile sur les tablettes, les appareils pliables et les Chrome Books, car on y ouvre souvent plusieurs applications en même temps. Ainsi, on peut par exemple envoyer comme d'habitude une photo de l'application Galerie à un contact sur WhatsApp à l'aide du glisser-déposer.

Raccourcis clavier
Avec l'essor des Chromebooks et des tablettes, de plus en plus d'utilisateurs Android utilisent un clavier avec leur appareil. On nous a montré ici comment implémenter très facilement, par exemple dans une application de chat, la possibilité d'envoyer un message à l'aide de la touche Entrée. Nous pouvons ainsi optimiser nos applications Android pour une utilisation avec un clavier.

Menus contextuels
Tout comme le glisser-déposer, nous sommes habitués, sous Windows et Mac OS, à pouvoir cliquer avec le bouton droit de la souris sur des éléments dans les applications pour afficher un menu contextuel. Comme de plus en plus d'utilisateurs utilisent leurs applications sur des tablettes, des appareils pliables et des Chrome Books avec un clavier, ils s'attendent à ce que cela soit également possible dans les applications Android. Nous avons vu comment cela peut être facilement mis en œuvre avec Jetpack Compose.

Conclusion
L'atelier était très intéressant. J'utilise moi-même un appareil pliable (Pixel 9 Pro Fold) et une tablette (Samsung Galaxy Tab S7+). Je sais donc malheureusement trop bien que de nombreuses applications ne sont pas optimisées pour les grands écrans et pour la souris/le clavier. Au cours de cet atelier, j'ai appris à quel point il est facile d'implémenter de petites fonctionnalités qui simplifient la vie des utilisateurs d'appareils Android à grand écran et qui, espérons-le, rendent l'utilisation de nos applications encore plus agréable. 

2 développeurs Google animent un atelier sur les mises en page adaptatives

Notre conclusion

Nous avons tous participé pour la première fois à une Google I/O Connect et avons été plusieurs fois impressionnés par la qualité de la conférence. Tout était parfaitement organisé et merveilleusement confortable, avec beaucoup d'attention portée aux détails et une décoration ludique dans le style «Google». De l'aménagement aux conférences en passant par la restauration, aucun effort n'a été épargné et chaque petit détail a été pris en compte. Cet événement a dû nécessiter énormément de préparation, c'est presque inimaginable.

Comme on le savait déjà depuis la Google I/O, la Connect était également placée sous le signe de l'IA. Les stands Androidify et Veo étaient pour nous d'une part un gadget amusant et d'autre part une bonne occasion de réfléchir à tout ce qu'il serait possible de réaliser avec l'IA. Nous disposons des outils nécessaires, il ne nous manque plus que des idées pour créer des solutions géniales pour nos clients.

L'IA est en train de changer le monde, cela ne fait aucun doute. En tant que développeurs Android, nous avons actuellement la chance de bénéficier d'améliorations quasi quotidiennes des modèles. Nous doutons fortement que notre quotidien de programmeurs sera encore le même dans 5 ans. Personnellement, je m'interroge également sur la manière dont nous devrions aborder cette question en termes de responsabilité écologique. Quoi qu'il en soit, cela reste passionnant. Ou, pour reprendre les mots de Yannick: «Quelle époque formidable pour être en vie!»

Avec deux pins supplémentaires (youpi!) et plein d'impressions, nous sommes rentrés en titubant à notre auberge à la fin de cette journée. Nous reviendrons, c'est certain.

Ossi, Dinah et Yannick se tiennent devant un mur végétal, avec le logo Google I/O Connect au-dessus d'eux.
Vue du hall de Google I/O Connect, personnes assises à des tables de pique-nique
Panneau sur la boisson de bienvenue, créé par Gemini
Rack avec des sucreries et des snacks
Espace lounge où les gens se parlent, quelqu'un essaie le casque VR Samsung Project Moohan