Wie droomt er niet van Iron Man’s pak? Oneindige krachtbron – Vibranium Arc Reactor, kunnen vliegen en duiken dankzij Repulsors en zuurstofvoorraden, bijna onverwoestbaar titanium pantser van één kristal met extreem gevaarlijke wapens.
Aangezien we nog jaren of zelfs decennia (zijn we dat?) van het hebben van ten minste prototype van vliegende metalen suite, is er een stuk van het die kan worden dichterbij dan we denken.
Wile Vibranium Arc Reactor is een hart van Iron Man pak, de even belangrijk ding is het brein – Jarvis.
“Jarvis is een zeer geavanceerde computergestuurde A.I., ontwikkeld door Tony Stark, (…) om bijna alles, vooral zaken die met technologie te maken hebben, in Tony’s leven te beheren.” Klinkt het bekend?
Op de laatste conferentie liet big G ons een paar dingen zien #MadeByGoogle. Aan het begin sprak Sundar Pichai over een nieuw concept: AI-first. Levend in een tijd gedreven door mobile-first strategieën zijn velen van ons gewend geraakt aan het gebruik van een zakapparaat in veel aspecten van ons leven – berekeningen, notities, informatie, entertainment, communicatie, navigatie en nog veel meer. Maar een mobiel apparaat is slechts een instrument in onze handen – veelzijdig, maar nog steeds een instrument. In de meeste gevallen vergroot het alleen onze mogelijkheden – we kunnen sneller reizen (navigatie, verkeersinformatie), met mensen praten die ver van ons af staan, onze hersenen opschonen door aantekeningen te maken. Maar de volgorde van handelen is altijd dezelfde – we hebben een bedoeling en dan doet het mobiele apparaat het voor ons. We hebben een vraag en dan geeft een zoekmachine het antwoord.
AI-first
Nu gaan we na mobile-first langzaam over op een ander concept: AI-first. Het betekent dat onze tools zoals mobiele apparaten (maar niet alleen!) in staat zijn om onze gewoonten, plannen te leren. En niet alleen van ons, maar ook van de hele context eromheen: huidige locatie, tijdstip van de dag, het weer. Dat is waarom Google ons kan vertellen om vroeger naar een geplande vergadering te gaan, omdat er files zijn. Of Nest kan de beste temperatuur instellen zodat we ons comfortabel voelen, maar ook om gedurende de dag zoveel mogelijk energie te besparen. Herinneringsapps vertellen ons dat we een brood moeten kopen als we in de bakkerij zijn en Google Now herinnert ons aan paraplu’s als het regent. En voor dit alles hebben we geen intentie nodig. Onze apparaten, of misschien beter gezegd: persoonlijke assistenten, kennen ons heel goed.
“Ok, Jarvis…”

Spraakinvoer is al een hele tijd in ons bezit. Uw huidige mobiele apparaat heeft het zeker, of het nu een iPhone, Android of Windows Phone is. De kans is vrij groot dat de vorige, of zelfs de vorige, die op uw bureau ligt, ook spraakopdrachten ondersteunt.
In oudere generaties apparaten waren commando’s gewoon de opdrachten, bijvoorbeeld “bel mama”. Maar tegenwoordig kunnen we dankzij Siri, Cortana of Google Now ons mobiele apparaat om het weer vragen (je hoeft geen locatie op te geven – je telefoon weet het al), een vergadering plannen in je agenda of een notitie maken. En je kunt het natuurlijker doen dan ooit tevoren: “Hé Siri, moet ik morgen een paraplu meenemen?”, “Ok Google, maak me over een uur wakker?”. Deze en soortgelijke zinnen zullen werken dankzij Natural Language Processing. Zeker, sommige zinnen (en hun variaties) zijn ergens hard gecodeerd op de servers, maar sommige kunnen dynamisch worden geïnterpreteerd door Speech-to-text en intentieherkenners zoals api.ai of wit.ai.
“Zoek (koop) de goedkoopste vlucht van New York naar Londen in 3 dagen” geeft ons:
- Bron, bestemming: Nu York, Londen
- Datum: 3 dagen vanaf vandaag (+ vandaag datum overgenomen uit huidige context)
- Criteria: de goedkoopste
- Intentie: Vind (koop) een vlucht
Het hebben van al deze informatie zal waarschijnlijk resulteren met slechts 1 API-call, bijvoorbeeld naar Skyscanner. Wat betekent dat? Dat technologie ons niet meer beperkt. We zijn in staat om een vlucht te boeken met slechts een stemcommando.
Voor de eindgebruiker betekent het:
- Vertel wat je moet doen
- Open je mobiele apparaat/computer niet
- Open geen (reis)zoekmachine
- Pas de query niet aan je behoeften aan
- Vergelijk geen resultaten
- Geniet van je vlucht.
Persoonlijke assistent, geen apparaat
Spraak-naar-tekst verwerking wordt nu beter en beter. Ook dankzij ons – de gebruikers. Door gesprekken met Google of Siri voeden we neurale netwerken met nieuwe gegevens, waardoor ze beter en nauwkeuriger worden. Natuurlijk willen we nog steeds niet hardop praten met onze telefoons of tablets. Fred Wilson maakte hier melding van en publiceerde een poll op zijn Twitter:
Wat is de reden? Het is nog steeds niet natuurlijk voor ons. Door de jaren heen gebruikten we onze telefoons op tablets door ze aan te raken. Natuurlijk, we praten altijd via de telefoon, maar praten met de telefoon lijkt nog steeds bedraad.
Maar nu verschijnt er een nieuw soort oplossing aan de horizon. Google Home of Amazon Echo – de apparaten waarvoor spraakinterface de standaard is. Eindelijk hebben we apparaten die we vertellen om de lichten aan te doen, onze favoriete film af te spelen of informatie van Wikipedia te halen. En uiteindelijk wordt spreken met een apparaat natuurlijk voor ons. Eigenlijk zal het niet zomaar een apparaat zijn, maar uw assistent. Je persoonlijke Jarvis.
Neem Jarvis met je mee
Laten we nog even teruggaan naar het mobiele apparaat. Na enige tijd en een paar gesprekken met Amazon Echo of Android Auto, je autosysteem, zullen we mobiele apparaten vanuit een geheel nieuwe hoek zien. Het zullen niet alleen telefoons met spraakbediening zijn, maar meer apparaten om je thuisassistent mee te nemen. En tegen ze praten zal niet meer raar zijn.
Meer nog, we zullen het apparaat niet meer uit onze zak hoeven te trekken. Dankzij AirPods en tientallen andere oortelefoons (die zelfs geen Jack-hoofdtelefoonpoort nodig hebben) zullen we in staat zijn om met onze assistent te praten met beperkingen. En het apparaat dat in je zak verborgen zit, gesteund door cloud computing services, zal alles voor je doen, bevestigen met “It’s done, Tony”, en het einde.
De toekomst van hologrammen
Aan het einde ontbreekt er nog één groot stuk in onze persoonlijke Jarvis – visuele feedback. We hebben nog steeds geen technologie uitgevonden die in staat is om 3D projecties in de lucht te tekenen met alleen een lampje. Maar geen zorgen – er zijn projecten zoals Hololens die de realiteit zullen mengen met hologrammen, zodat je het hele universum op je tafel zult kunnen zien, projectie van ontbrekende onderdelen wanneer je een motor bouwt, of zelfs mensen die duizenden kilometers van ons verwijderd zijn. Zittend in onze bus.
En wat is het meest fascinerende aan al die oplossingen en technologieën? Dat we er allemaal toegang toe hebben. We kunnen ze allemaal bouwen – door bots te maken voor messaging apps, door API’s voor natuurlijke taalverwerking te integreren, door apps te bouwen voor: mobiele apparaten, thuisassistenten, auto’s, zelfs Hololens. Dit is geen geheime kennis meer – het zijn gewoon stukjes die goed met elkaar verbonden moeten worden.
Er is in de hele geschiedenis van de wereld nog nooit een beter moment geweest om iets uit te vinden (← Ik raad deze post echt aan!).