Google organise chaque année sur son campus la conférence annuelle des développeurs Google IO, un rendez-vous incontournable pour tout savoir sur les nouveautés et projets de la firme de Mountain View. Si l’édition 2020 a été annulée pour cause de pandémie, cette fois-ci la Google IO a bien lieu, mais à distance, sous la forme d’ un événement virtuel.
Ce 18 mai 2021, Sundar Pichai, PDG de la société mère de Google Alphabet, a présenté lors de son discours d’ouverture les avancées technologiques majeures de son groupe qu’il a synthétisé en une phrase : “Building a more helpful Google for everyone” (Construire un Google encore plus utile pour tous).
Visionnez les nouveautés présentées lors de la conférence dans cette vidéo :
Sommaire
SmartWatches et nouveau Wear OS
A la peine depuis le lancement de sa Smartwatch Wear en 2014, Google avance pas à pas pour tenter de venir à hauteur d’Apple dans le registre des montres connectées. Après le rachat de Fitbit, Google vient d’annoncer sa collaboration avec Samsung déjà présent sur ce marché avec sa montre Galaxy. Le système d’exploitation Tizen développé par Samsung va être absorbé dans Google Wear qui va proposer une nouvelle version unifiée. L’OS devrait être facilement accessible aux développeurs et permettre l’ajout d’applications par des éditeurs tiers.
Selon Björn Kilburn, chef de projet principal de Google sur Wear, la montre devrait offrir des performances jusqu’à 30% plus rapides et des transitions fluides. La durée de vie de la batterie sera plus longue et ainsi améliorer le confort d’utilisation. On ne sait pas encore si la montre intelligente de Google fonctionnera avec un processeur Qualcomm Snapdragon comme c’est le cas actuellement ou bien avec un processeur Samsung Exynos qui équipe les smartWatches Galaxy du constructeur coréen.
Le Project Starline : des appels vidéo hyper-réalistes
L’addition de la vidéo aux communications téléphoniques a marqué une étape majeure dans le rapport à l’autre sans toutefois être la solution idéale. Les ingénieurs de Google ont décidé d’aller plus loin que les vidéoconférences façon Zoom en combinant les progrès matériels et logiciels. Le Project Starline n’en est encore qu’à l’étape de prototype mais les premiers résultats sont déjà hallucinants et même troublants.
Le système se présente comme une cabine de réunion virtuelle équipée de capteurs de profondeur, de plusieurs caméras, d’enceintes pour une restitution sonore spatiale et d’une large fenêtre écran placée à l’avant. Starline s’appuie sur la réalité virtuelle et l’utilisation d’hologrammes pour permettre à deux personnes situées à des endroits différents de communiquer et d’échanger ensemble. Le résultat est une plate-forme de communication qui semble mélanger les environnements numériques et physiques. Sundar Pichai a déclaré lors de la démonstration que le modèle 3D permet de voir l’autre personne lors de l’appel vidéo sous différents angles pour une sensation réaliste. « Lorsque vous bougez votre tête et votre corps, notre système ajuste les images en fonction de votre point de vue ».
Google Lens, la recherche dans les images
Google Lens n’est pas seulement un moyen de traduction visuelle populaire ( 2 milliards de mots traduits chaque jour), les équipes de Mountain View viennent d’y ajouter deux nouveaux systèmes. Le volet éducatif d’abord, avec la possibilité de prendre en photo un problème mathématique et de fournir des ressources pour résoudre le problème dans de multiples langues.
Le volet shopping ensuite, avec l’assistance de Google Lens, les utilisateurs peuvent rechercher des articles sur une simple capture d’écran visualisée sous Google Photos permet d’obtenir des suggestions d’achat produits. Une chose est sûre, Google va vous rendre encore plus accro à l’achat de produits en ligne!
Language Model for Dialogue Applications (LaMDA) et Multitask Unified Model (MUM)
Le nouveau modèle de conversation pour les applications de dialogue (LaMDA) semble révolutionnaire. Ce système basé sur l’intelligence artificielle doit permettre de rendre les discussions entre ordinateur et humain plus naturelles. L’IA va rechercher en temps réel les informations sur le sujet demandé pour construire une réponse élaborée et factuelle en même temps que la conversation se développe. Il va améliorer ses réponses en intégrant les faits et informations de manière naturelle en prenant en compte le contexte. Le modèle a été entraîné pour converser avec nuance et à propos.
Son champ d’application ne se limite pas simplement au texte mais il se rapporte également aux images, à l’audio et à la vidéo. Lors de la présentation, on a pu découvrir un exemple de recherche dans une vidéo YouTube. A la question “Montre moi un lion qui rugit au couché de soleil”, l’application à diriger l’utilisateur vers une vidéo au moment précis où on voit un lion rugir au crépuscule.
Google a présenté un autre modèle de traitement de langage naturel pour son moteur de recherche. Multitask Unified Model (MUM) se porte sur les modes conversationnels et nuancés. Le moteur va être capable de comprendre des questions bien plus évoluées que les simples énoncés “Où est le Mont Fuji?” ou “Quel est l’âge de Brigitte Macron?”. Le modèle MUM devrait en théorie pouvoir comprendre et répondre aux questions plus longues et à plusieurs volets. Il est capable de récupérer des informations à partir de sites Web dans d’autres langues, dans le but d’utiliser les informations les plus pertinentes.
Ces nouvelles capacités devraient apparaître progressivement dans les produits utilisant Google Assistant.
Le supercalculateur TPU V4
Google a profité de cette conférence pour annoncer une nouvelle puce AI deux fois plus rapide que la version précédente. La TPU V4 (Tensor Processing Unit V4) permet d’augmenter considérablement les performances de calcul des centres de données Google. Le TPU V4 contient 4 096 chips et est capable d’exécuter 1018 opérations en virgule flottante par seconde. Sundar Pichai, PDG de Google Alphabet a tout simplement déclaré : « C’est le système le plus rapide que nous ayons jamais déployé chez Google et une étape historique pour nous ».