Google I/O 2019: Google Assistent On Steroids & Jaws Op Het Podium

Net als exact een jaar geleden startte Sundar Pichai de Google I/O 2019 ontwikkelaarsconferentie met de Google Keynote. Iets minder indrukwekkend dan vorig jaar, er was immers al een hoop gelekt. En de Google Duplex demo, waar de Google-assistent via een telefoontje een afspraak maakt bij de kapper (zie ook Google I/O 2018), was moeilijk te overtreffen. In dit blog lees je meer over de Google I/O 2019 ontwikkelaarsconferentie.

De focus van Google op AI was weer overduidelijk. Veel van de demo’s werden mogelijk gemaakt door computer vision, lokale language processing, efficiëntere neural networks en [meer AI hype-termen]. Voor jullie heb ik, uit de enorme hoeveel aankondigingen, een selectie gemaakt waar elke online marketeers van op de hoogte moet zijn.

Voor de mensen die “spoiler-free” de keynote (1,5 uur) willen terugkijken, hier het volledige event:

Google Assistent on steroids

De “next-generation” assistent is tien keer zo snel dan zijn voorganger:

Open the New York Times … Open YouTube … Open Netflix … Open Calendar … Set a timer for 5 minutes … What’s the weather today? … How about tomorrow? … Show me John Legend on Twitter … Show me Beyoncé on Instagram … Turn on the flashlight … Turn it off … Get an Uber to my hotel.

Deze hele reeks commando’s, in een kleine 41 seconden.

De demo laat duidelijk zien, dat in de toekomst praten met een digitale assistent, een stuk sneller zal gaan dan tikken op je smartphone:

De volgende generatie Google Assistent is aanzienlijk sneller, doet meer lokaal en vult ingewikkelde web formulieren in, zonder maatwerk aanpassingen door de website eigenaar:

Dit was voor mij een van de meer indrukwekkende demo’s en geeft goed weer, dat de digitale assistent van de toekomst, complexe taken veel sneller kan uitvoeren dan de gemiddelde gebruiker.

Grotere Google Home Hub met gezichtsherkenning & handgebaren

Google wil dat de assistent overal beschikbaar is, ook bij je thuis. De Nest Hub Max is een grotere versie van de Google Home Hub (vanaf nu ook in Nederland beschikbaar), met als grootste verschil een ingebouwde camera.

Deze slimme speaker met scherm kan je naast horen ook zien, al je familieleden herkennen en reageren op handgebaren. Zijn we weer een stapje dichter bij de Minority Report interface scene uit 2002.

Jaws op het podium; direct vanuit de zoekresultaten

Sundar Pichai startte de keynote met augmented reality, voor de eerste keer kan je via de app d.m.v. AR het event ontdekken (+ easter eggs).

De eerste spreker na Sundar, die vorig jaar al een aanzetje deed met AR in Google Maps, trapte af met de toevoeging van 3D objecten in de knowledge graph.

Nu kan je direct vanuit de zoekresultaten, 3D objecten bekijken en in je eigen omgeving plaatsen via AR:

Tijdens de aankondiging van de Google Pixel 3a; een goedkopere plastic Pixel met OLED scherm, de Pixel camera en de goede oude 3 mm audio jack. Werd bekend gemaakt dat alle Google Maps AR functies op alle Pixels beschikbaar zijn als “early preview”.

Google Lens kan steeds meer zien

De Lens functionaliteit, die beschikbaar is in veel verschillende apps, kan steeds meer:

  • Bekijk het menu in een restaurant om direct de populairste gerechten te zien met foto’s en reviews.
  • Bekijk achteraf de bon om direct de fooi en het bedrag te verdelen tussen je collega’s.
  • Het oplezen van tekst in verschillende talen (nog niet in het Nederlands).

Privacy & Live Caption direct op het apparaat

In de Facebook’s F8 Developer Conference had Mark Zuckerberg het over de “The future is private“, maar Google lanceert nu al een hoop functionaliteit rondom dit onderwerp. De nieuwe versie van Android, gaat meer uitvoeren op het apparaat i.p.v. in de cloud.

Het resultaat is dat Google naar videochats kan luisteren en deze realtime voor je kan ondertitelen, getypte antwoorden hardop kan oplezen, zonder deze gegevens naar de cloud te verzenden.

Dit werkt dus ook zonder internetverbinding, omdat Google het recurrent neural net, wat voorheen 2 GB was, heeft teruggebracht naar 80 MB.

Apple was de pionier om een groot deel van deze data te verwerken op je apparaat, Google is nu (nog) voor veel functionaliteit afhankelijk van de cloud.

Podcast volledig geïndexeerd en onderdeel van search

Een collega van mij scheef vorige maand nog een blog over podcast SEO en het feit dat podcasts nog nooit zo populair zijn geweest. Google heeft hier naar geluisterd en gaat vanaf nu podcasts indexeren en toevoegen aan de zoekresultaten. Zo krijg je relevante podcasts te zien niet alleen op basis van titel, maar ook op basis van de inhoud. Deze kan je direct afluisteren, zonder de zoekresultaten te verlaten:

Wil je meer informatie over de bovenstaande features, dan is vast nog een sessie in de 3 dagen durende Google I/O 2019, die hier dieper op in gaat. Op het Google Developers YouTube kanaal kun je deze allemaal terugkijken. Ik weet in ieder geval al waar ik de komende weken mijn kennisonderhoud aan besteed.