Google I/O Connect Berlin 2025 - Konferenzrückblick

27. Juni 2025 - von Dinah Bolli

Am 25. Juni hat die Google I/O Connect in Berlin stattgefunden - und 3/4 des Android Teams von Apps with love war dabei! Die Google I/O Connect Konferenzen sind regionale Nachfolgeveranstaltungen zur Google I/O. Während Letztere einmal jährlich die wichtigsten Neuigkeiten zu Produkten, Plattformen und Updates enthüllt und sie live aus Mountain View, Kalifornien, übertragen wird, bietet die Google I/O Connect einen persönlicheren Rahmen, in dem Entwickler*innen praktische Erfahrungen mit den vorgestellten Technologien sammeln und sich darüber austauschen können.

Die Registrierung für die Google I/O Connect hat schon fast Bewerbungscharakter. Entsprechend haben wir uns wahnsinnig gefreut, als wir schlussendlich die Bestätigung von Google erhalten haben, dass wir dabei sein dürfen.

Die Konferenz wurde in den Wilhelm Studios nördlich vom Berliner Zentrum durchgeführt. Teilnehmer*innen konnten Vorträge hören, an Workshops teilnehmen, an Q&A Ständen die Google-Mitarbeitenden mit Fragen löchern und natürlich sich mit anderen austauschen. Also faktisch ein Paradies für neugierige Entwickler*innen.

Ankunft

Am Mittwochmorgen haben wir uns um halb 9 in die Schlange eingereiht, um unseren Badge abzuholen. Trotz des strömenden Regens, lag bereits beim Anstehen diese Aufregung und Spannung in der Luft, die es nur bei Entwicklerkonferenzen gibt. Mit dem Badge um den Hals, sind wir danach mit zig anderen Entwickler*innen zur Haupthalle geströmt - und konnten uns dort vor Staunen fast nicht mehr halten.

Vor uns hat eine Jazz-Band gespielt, deren Musik dem ganzen Raum einen gemütlichen Vibe verlieh und rechts von uns gab es Arbeitsplätze und gemütlich eingerichtete Sitzecken. Kaum sind wir an der Bühne vorbei gelaufen, wurden uns schon Erdbeer-Pancakes und Mango-Chia-Pudding wortwörtlich auf dem Tablett angeboten. Es gab mehrere Barista-Stände, an denen man nebst top Cappuccinos (mögen wir!) alles erdenklich andere an qualitativ gutem Kaffee und süssen Leckereien holen konnte.

In der Mitte der Haupthalle standen Picknick- und Gartentische auf in gewellten Formen geschnittenen, echten(!) Grasflächen. Daneben lag der Android-Garden: ein Stück Grün mit Vogelgezwitscher, wo man sich umgeben von Bäumen auf Picknickdecken und Liegestühlen im Gras entspannen oder sich mit den drei verschiedenen Android-Figuren ablichten konnte - was wir natürlich sofort getan haben. Abgesehen vom reichlich vorhandenen und qualitativ hochstehenden Essen, hat uns all das Grüne in der Haupthalle mit Abstand am meisten begeistert.

Eingang der Google I/O Connect in Berlin
Jazzband an der Google I/O Connect
Frühstücks Menü
Yannick, Dinah und Ossi neben der Android Figur
Pasteis de nata und Banana Bread

Am Androidify-Stand haben wir eine personalisierte Avatar-Version des grünen Androiden von uns generieren lassen. Prinzipiell macht man ein Foto von sich, falls gewünscht mit einem Gegenstand, z. B. einem Kochhut, und lädt es hoch. Gemini (2.5 Flash) analysiert das Foto und identifiziert Merkmale der Person wie Haare, Kleidung oder Accessoires und versucht dann das reale Aussehen der Person einzufangen. Imagen 3 generiert anschliessend das Bild des passenden Androiden. Findest du heraus, wer wer ist?

Androidify Yannick
Androidify Ossi
Androidify Dinah

Am Veo-Stand wurde mit einem in der Fotokabine gemachten Foto und einem ausgewählten Effekt mit Veo 3 ein kurzes Video generiert. So wurde Ossi's Kopf von einer riesigen Hand gedreht oder Dinah mit farbigem Holi-Pulver zugesprüht und ihr Gesicht zu einem grossen Staunen animiert. Es ist wirklich erstaunlich, wie Veo und Imagen in so kurzer Zeit so viel besser geworden sind.

Es gab auch noch Stände zu bestimmten Themen, bei denen man sich mit Google Mitarbeitenden austauschen und Fragen stellen konnte. Der Adaptive Apps-Stand hat uns besonders interessiert: Mit der neuen Navigation 3 Library, die momentan im Alpha-Release ist, hat Google die Navigation für Apps von Grund auf neu aufgebaut, mit dem Ziel, sie generell einfacher zu machen sowie Komponenten anzubieten, die sich in möglichst vielen Use Cases automatisch an den jeweiligen Formfaktor (Mobile, Foldable, Tablet, Chromebook) anpassen. Was wir davon an Code-Beispielen bereits gesehen haben, hat uns jedenfalls schon einmal überzeugt.

Yannick hat der Austausch mit den Google-Mitarbeitenden, die genau an denjenigen Libraries arbeiten, die wir täglich verwenden, am Besten gefallen, weil man gerade deswegen im Austausch auf technische Themen sehr vertieft eingehen konnte.

VeoBooth an der Google I/O Connect

Talks

In sechs Zeitslots konnte man den eigenen Wissensdurst in den folgenden Kategorien stillen: AI, Cloud, Android und Web. Vieles, was gesagt wurde, war uns nicht komplett neu, da die meisten Neuerungen an oder direkt nach der Google I/O veröffentlicht worden waren und Google die Entwickler*innen-Community generell mit vielen informativen Videos versorgt. Daher haben wir verglichen mit der Droidcon im Herbst nicht unbedingt mehr Programmierwissen, sondern mehr Hands-on Erfahrung mit den neuesten Libraries und Tools, die Google veröffentlicht hat, erlangt.

Lieblingstalk von Dinah: Prototype with Google AI Studio

von: Guillaume Vernade, Gemini Developer Advocate, AI

Guillaume hatte einige coole Anwendungsfälle im Köcher, um die vielen Features in Google's AI Studio zu zeigen. AI Studio bringt einen enormen Mehrwert, weil Entwickler*innen mit den generativen KI-Modellen der Gemini-Familie experimentieren und Prototypen von Anwendungen erstellen und bereitstellen können.

Spracherkennung
Über den Menüpunkt "Generate Media" demonstrierte er, was die "Gemini speech recognition" so drauf hat. Dabei generierte er zuerst über den normalen Chat ein Drehbuch zu einem Podcast für ihn und eine zweite Person, indem er Gemini mehrere Links zu den neuesten AI-Features fütterte. Gemini gab ihm den Text aus, den er dann kopierte und unter "Gemini speech recognition" einfügte. Die Podcast-Hosts kann man benennen und ihnen eine Stimme zuteilen. Schon erhält man das Audio zu einem sehr authentisch klingenden Podcast zwischen zwei Personen.

Bildgenerierung & Videogenerierung
Diese Features sahen wir nur kurz, weil klar war, dass fast alle im Raum diese bereits einmal ausprobiert hatten. Die neuen Modelle Imagen 4 und Imagen 4 Ultra zeigen nun Texte im Bild nicht mehr in Hieroglyphen, sondern als wirklich lesbaren Text an. Veo 3, das Ende Sommer veröffentlicht wird, wird unter anderem automatisch passende Geräusche im Hintergrund einer Szene generieren.

Building apps
Schlussendlich demonstrierte Guillaume uns noch das Build-Feature. Damit kann man selbst Applikationen bauen, welche die verschiedenen Modelle nutzen. Sein Use-Case: ein Vocabulaire-Test-Generator für seine Tochter. Sie kann ein Foto der zu lernenden Wörtchen hochladen, Gemini erkennt die Wörter und erstellt einen Test mit passenden Sätzen. Zum Beispiel wird der Satz vorgelesen (Speech Generation) und die Tochter muss ihn korrekt eintippen. Im Optimalfall erkennt Gemini dann, ob die eingegebene Antwort korrekt ist oder nicht.

Abgesehen von all den verschiedenen Modellen, die man ausprobieren kann, ist für mich das tollste an AI Studio, dass man den Code einer Applikation, z. B. Lyria RealTime API, mittels "Show code editor" anzeigen und den Code Assistant einschalten kann. Der Lerneffekt ist so extrem hoch, weil man sieht, wie die Applikation programmiert ist und weil man sie direkt erweitern oder sie sich erklären lassen kann. Weiter kann man eine gebaute Applikation direkt mit anderen Benutzer*innen teilen oder sie auf Google Cloud deployen. Letzteres funktioniert, wenn man bereits eingerichtet ist, innert Sekunden!

Menschen hören einem Talk über die Gemini API zu
Talk über Gemini
Präsentationsfolie über verschiedene Gemini Modelle

Lieblingsworkshop von Ossi: Build an app for the the multi-device world

Von Rob Orgiu, DevRel Engineer, Large Screens / Sasha Lukin, DevRel Engineer, ChromeOS

Dieser Talk war ein Workshop, also konnte ich live das Gezeigte mit meinem Laptop direkt nachmachen. In diesem Workshop haben wir angeschaut, wie man eine mobile App mit modernen Android-Entwicklungstechniken an verschiedene Formfaktoren anpasst.
Spezifisch haben wir folgende Punkte angeschaut:

Adaptive Layouts mit Navigation 3
Die neue Navigation-Library, Navigation 3, bietet viele neue Vorteile, die uns das Entwickeln von Navigationslogik mit Jetpack Compose erleichtern. Wir haben angeschaut, wie einfach es nun ist, eine List + Detail View zu implementieren. Sodass auf einem Smartphone wie gewohnt auf einem Screen eine Liste angezeigt wird und beim Klick auf ein Element dann ein zweiter Screen angezeigt wird mit den Details zu diesem Element. Auf einem Gerät mit einem grösseren Display, wie z.B. auf Tablets, Foldables oder Chrome Books wird die Detailansicht dann direkt neben der Liste angezeigt, also auf einem Screen. Der verfügbare Platz wird so optimal genutzt.

Drag‘n’Drop
Von Mac OS und Windows können wir uns Drag'n’Drop gar nicht mehr wegdenken. Android bietet diese Funktionalität auch, sie ist jedoch nicht sehr bekannt und wird auch nicht von vielen Entwickler*innen implementiert. Wir haben angeschaut, wie leicht man dies nun mit Jetpack Compose implementieren kann. Das ist besonders nützlich auf Tablets, Foldables und Chrome Books, da man da öfters mehrere Apps gleichzeitig geöffnet hat. So kann man wie gewohnt z. B. ein Foto aus der Galerie-App mit Drag'n’Drop an einen Kontakt auf WhatsApp schicken.

Keyboard shortcuts
Mit dem vermehrten Aufkommen von Chrome Books und Tablets verwenden auch immer mehr Android-Benutzer*innen eine Tastatur mit ihrem Gerät. Hier wurde uns gezeigt, wie man z. B. in einer Chat-App ganz einfach implementieren kann, dass man mit der Enter-Taste eine Nachricht abschicken kann. So können wir unsere Android Apps für die Benutzung mit einer Tastatur optimieren.

Context Menus
Genau wie Drag’n’Drop sind wir uns von Windows und Mac OS gewohnt, dass wir auf Elemente in Applikationen einen Rechtsklick machen können und uns ein Kontextmenü angezeigt wird. Da immer mehr Benutzer*innen ihre Apps auf Tablets, Foldables und Chrome Books mit einer Tastatur bedienen, erwarten sie das auch in Android Apps. Wir haben gesehen, wie man das mit Jetpack Compose einfach implementieren kann.

Fazit
Der Workshop war sehr spannend. Ich selbst verwende auch ein Foldable (Pixel 9 Pro Fold) und ein Tablet (Samsung Galaxy Tab S7+). Deshalb kenne ich leider nur zu gut, dass viele Apps für die grösseren Displays und für Maus/Tastatur nicht optimiert sind. In diesem Workshop habe ich gelernt, wie einfach es ist, kleine Features zu implementieren, die den Benutzer*innen von Android Geräten mit grossen Displays das Leben vereinfachen und die Verwendung unserer Apps hoffentlich noch mehr Spass macht. 

2 Google Devs leiten einen Workshop über adaptive Layouts

Unser Fazit

Wir alle haben das erste Mal an einer Google I/O Connect teilgenommen und haben an diesem Tag mehrmals über die Qualität der Konferenz gestaunt. Alles war top organisiert und wunderbar gemütlich, mit viel Liebe zum Detail und verspielt in "Google-y" Manier eingerichtet. Von der Einrichtung über die Talks bis zum Essen wurde keine Mühe gescheut und auf jedes noch so kleine Detail geachtet. Es muss so viel Planung in dieses Event geflossen sein - fast unvorstellbar.

Wie schon bekannt von der Google I/O stand auch die Connect ganz im Zeichen von AI. Der Androidify-Stand und der Veo-Stand waren für uns einerseits eine lustige Spielerei und andererseits eine gute Gelegenheit, sich selbst Gedanken zu machen, was man mit AI alles realisieren könnte. Die Instrumente dazu haben wir - jetzt benötigt es nur noch Ideen, um tolle Lösungen für unsere Kund*innen zu bauen.

AI verändert die Welt, so viel steht fest. Als Android-Entwickler*innen sind wir momentan in der glücklichen Position, von den fast täglichen Verbesserungen an den Modellen zu profitieren. Ob unser Programmieralltag in 5 Jahren noch gleich aussehen wird wie heute, wagen wir stark zu bezweifeln. Persönlich mache ich mir auch Gedanken, wie wir in Bezug zur ökologischen Verantwortung damit umgehen sollten. So oder so, es bleibt spannend. Oder in den Worten von Yannick: What a time to be alive!

Je um zwei Pins reicher (wohoo!) und mit viel Eindrücken, stolperten wir am Ende dieses Tages zurück in unsere Hostels. We'll definitely be back.

Ossi, Dinah und Yannick stehen vor einer begrünten Wand, über ihnen das Google I/O Connect Logo
Einblick in die Halle der Google I/O Connect, Leute sitzen an Picnic Tischen
Schild über den Welcome Drink, kreiert durch Gemini
Gestell mit Süssigkeiten und Snacks
Lounge Bereich in welchem Leute miteinander reden, jemand probiert das Samsung VR Headset Project Moohan an
Wir haben grad gemerkt, dass du mit Internet Explorer surfst. Unsere Webseite sieht damit leider nicht so schön aus.

Du willst erfahren warum das so ist?
Wir haben darüber geschrieben.

Zum Blog

Du brauchst Hilfe bei der Umstellung?
Melde dich. Wir helfen gern.

Kontakt

Einen neuen Browser installieren?
Hier gibt es Auswahl.

Browser