Googles årliga utvecklarmässa I/O inleddes igår kväll med en öppningspresentation där företagets VD Sundar Pichai berättade om tekniker, tjänster och hårdvara som introduceras nu och framöver. Fokus på säkerhet och personlig integritet stod högt på agendan under hela presentationen, vilken bjöd på såväl tjänster som faktiska hårdvarunyheter.

Presentationen inleddes med förbättringar i sökresultaten för Googles ikoniska sökmotor. Denna kommer nu bland annat indexera podcasts, vilket innebär att information om såväl serien som dess avsnitt presenteras tydligt i sökresultaten. Användaren behöver alltså inte gräva sig djupare in i sökresultaten för att få reda på mer om dessa.

GoogleIO_Podcastsök.jpg
GoogleIO_ARsökHaj.jpg
GoogleIO_ARsökHajScen.jpg

Vidare kommer det bli möjligt att få fram 3D-modeller för sökresultat, och applicera dessa på miljön runt dig genom förstärkt verklighet (eng. augmented reality, AR). Detta demonstrerades dels genom att 3D-modeller av muskelgrupper kan visas i det verkliga fysiska rummet, och dels genom att en rendering av en vithaj visades på scenen efter en sökning.

Företagets app för bildsökningar, Google Lens, ska också bli bättre. Bland annat ska den kunna visa mer kontextuell information om det som finns framför kameran. Detta demonstrerades genom att användaren kunde se vilka rätter som är mest populära på en restaurangmeny. Den kan också ta fram rätterna direkt från restaurangens webbsida och visa information från Google Maps.

Duplex tar steget till webben

Google följde även upp på fjolårets uppmärksammade demonstration av Duplex, den automatiska AI-styrda röstassistenten som kan genomföra telefonbokningar via naturligt tal. I år visas en ny variant upp vid namn Duplex for the Web, vilket helt enkelt är en assistent som genom röstkonversationer kan utföra en serie steg åt användaren.

Detta demonstrerades med att användaren lät Duplex-assistenten genomföra resebokningar. Duplex kunde utföra reservationer för boende, transport via bil och säkerställde även att detta passade in i användarens schema. Duplex on the Web och ska göras tillgängligt senare i år, då troligtvis för den amerikanska marknaden i första hand.

Beräkningarna blir lokala

Ett stort fokus under öppningspresentationen var att beräkningar ska kunna göras lokalt, samtidigt som kraften i molntjänster utnyttjas där det behövs mest. En del i detta är att röstsökningar via Google Assistant kommer bli mer effektiva sett till hur mycket data de konsumerar.

GoogleIO_Röstanalys.jpg
GoogleIO_RöstanalysMassiv.jpg

Tidigare har Google Assistant bearbetat cirka 100 GB röstdata i molnet för att kunna utföra de kommandon som användaren ger, och alla de parametrar som är unika för individer. Mängden data som behöver bearbetas har bantats ner till 0,5 GB, vilket ska leda till att resultaten levereras tio gånger snabbare än tidigare.

Detta demonstrerades genom att en Google-representant gav Android-telefonen en serie röstkommandon som slutfördes i rasande takt, utan att användaren behövde växla mellan appar. Det blir även möjligt att skapa personliga referenser, som kan användas till att utföra röstkommandon med mer naturligt tal. Det kan exempelvis vara att "min katt" blir en referens till bilder på ditt specifika husdjur.

AI baserad på begripliga modeller

Google slog på stora trumman för artificiell intelligens under en sektion som kallades AI for everyone. Här lyfte de fram att det handlar om artificiell intelligens som inte har fördomar om vad den ska bearbeta, och även att det ska bli mer transparent för användaren hur den artificiella intelligensen jobbar.

GoogleIO_ZebraTCAV.jpg
GoogleIO_FederatedLearning.jpg

Detta exemplifierades genom en modell vid namn testing with concept activation vectors (TCAV) för hur en AI hanterar bildanalys. Med TCAV som modell kan en AI använda parametrar som är mer lättförståeliga för en människa. Exempel på detta är "ränder", "häst" och "savann" när en zebra identifieras, istället för de mer abstrakta referenspunkter som Googles bildanalyser tidigare använt.

Google pratade också om hur de arbetar på att maskininlärning på mobiltelefoner ska bli bättre utan att användarens personliga integritet ska hotas. Detta bygger på något som kallas federated fearning, där lokala beräkningar för maskininlärning flyttas upp i molnet, men på ett sätt där endast övergripande data samlas utan lokala personliga detaljer.

Dessa laddas upp till en global modell som sedan laddas ner till enheterna igen. Detta demonstrerades genom Gboard där maskininlärning om hur användarna stavar ord laddas upp till den globala modellen, som sedan laddas ner och förbättrar upplevelsen lokalt hos användaren. Detta lyfte Google fram som förbättringar som inte är möjliga med enbart lokal maskininlärning.

Android Q – Översättningar i realtid

Google presenterade också en hel del nyheter om Android Q, den tionde utgåvan av systemet där säkerhet och digitalt välmående står i fokus. Presentationen inleddes med att Google pratade om hur systemet byggs för vikbara gränssnitt, där vikbara telefoner lyftes fram som nästa innovation för mobiltelefoner.

GoogleIO_LiveCaption.jpg
GoogleIO_SuggestedActions.jpg

I Android Q kommer vikbara funktioner innefatta bland annat screen continuity, en funktion som låter användaren enkelt växla från den mindre standardskärmen till det utvikta formatet med större skärm. Det demonstrerades genom att ett spel spelades på den främre skärmen och automatiskt växlade över till det större formatet och upplösningen när telefonen veks ut. Appar som ska stöda detta behöver därmed stöda screen continuity.

Live caption är en kommande funktion i Android som bygger vidare på ett tidigare system där tal översätts till text i realtid. Funktionen utökar detta till att kunna aktivera textning i samtliga appar. Live caption aktiveras genom en knapp i volymreglaget, och översättningen sker i realtid utan en redan existerande översättning av innehållet.

Detta demonstrerades genom att Youtube-videos översattes i realtid. Översättningarna visas i en svävande textruta som användaren kan flytta runt med fingret efter eget tycke. Dessa översättningar sköts lokalt via en inbyggd översättningsmotor, vilket innebär att funktionen kan användas i flygplansläge. Det innebär att ingen ljudström lämnar enheten utan allt sköts lokalt.

Nytt blir även något som kallas suggested actions. Detta är systemfunktioner som tolkar information och erbjuder åtgärder för vad du kan tänkas vilja göra. Det demonstrerades genom notiser där användaren erbjuds åtgärder, exempelvis att öppna Google Maps om en kontakt skickar adressuppgifter i ett meddelande eller att lägga till händelse i kalendern om datuminformation skickas.

Android Q ska också få snabbare säkerhetsuppdateringar, och dessa ska kunna installeras över internet utan att enheten behöver startas om tack vare förändringar i det underliggande ramverket i Android. Tvåstegsverifiering görs nu också smidigare genom att säkerhetsnyckeln flyttar in i telefonen så att användaren kan godkänna inloggningar med en registrerad telefon.

Nytt blir även något som kallas focus mode. Som namnet antyder är det ett systemövergripande stör ej-läge där användaren kan definiera exakt vad som släpps igenom. Detta demonstrerades med att Google-representanten stängde ute alla notiser förutom SMS från familjemedlemmar. Focus mode kommer till både Android P och Q i höst.

Digitalt välmående och föräldrakontroller flyttar ihop, så föräldrar kan bestämma hur barnens digitala välmående ska hanteras. Den som är sugen på att testa dessa nyheter får möjlighet att göra det i form av Android Q beta 3 som är tillgänglig nu. Betaversionen kan installeras på 21 olika telefonmodeller.

Läs mer om Google: