¿Quién no sueña con el traje de Iron Man? Fuente de energía infinita – Reactor de Arco de Vibranio, capacidad de volar y bucear gracias a los Repulsores y a los suministros de oxígeno, armadura de titanio monocristalina casi indestructible con un armamento extremadamente peligroso.
Dado que aún estamos a años o incluso décadas (¿lo estamos?) de tener al menos un prototipo de suite metálica voladora, hay una pieza que puede estar más cerca de lo que pensamos.
Si bien el Reactor de Arco de Vibranio es un corazón del traje de Iron Man, lo igualmente importante es su cerebro: Jarvis.
«Jarvis es una I.A. computarizada muy avanzada desarrollada por Tony Stark, (…) para gestionar casi todo, especialmente los asuntos relacionados con la tecnología, en la vida de Tony». ¿Te suena?
En la última conferencia la gran G nos mostró un par de cosas #MadeByGoogle. Al principio Sundar Pichai habló de un nuevo concepto: AI-first. Viviendo en una época impulsada por las estrategias mobile-first, muchos de nosotros nos hemos acostumbrado a utilizar el dispositivo de bolsillo en muchos aspectos de nuestra vida: cálculos, notas, información, entretenimiento, comunicación, navegación y mucho más. Pero el dispositivo móvil no es más que una herramienta en nuestras manos, versátil, pero todavía una herramienta. En la mayoría de los casos sólo aumenta nuestras capacidades: podemos viajar más rápido (navegación, información sobre el tráfico), hablar con personas que están lejos de nosotros, limpiar nuestro cerebro tomando notas. Pero el orden de actuación es siempre el mismo: tenemos una intención y luego el dispositivo móvil lo hace por nosotros. Tenemos una consulta y luego el motor de búsqueda nos devuelve la respuesta.
AI-first
Ahora estamos pasando lentamente a otro concepto después de mobile-first: AI-first. Significa que nuestras herramientas como los dispositivos móviles (¡pero no sólo!) son capaces de aprender nuestros hábitos, planes. Y no sólo de nosotros, sino también de todo el contexto que nos rodea: ubicación actual, hora del día, tiempo. Por eso Google es capaz de decirnos que salgamos antes a la reunión prevista, debido a los atascos. O Nest puede establecer la mejor temperatura para que nos sintamos cómodos, pero también para ahorrar la mayor cantidad de energía posible durante el día. La aplicación Reminder nos dice que compremos un pan cuando estamos en la panadería y Google Now nos recuerda el paraguas cuando llueve. Y no necesitamos la intención para todo esto. Nuestros dispositivos, o quizás mejor dicho: asistentes personales, nos conocen muy bien.
«Ok, Jarvis…»
La entrada de voz está con nosotros desde hace mucho tiempo. Tu dispositivo móvil actual lo tiene seguro, no importa si es iPhone, Android o Windows Phone. Hay una probabilidad bastante grande de que el anterior, o incluso el anterior, que yace en tu escritorio también soporte comandos de voz.
En los dispositivos de generaciones anteriores los comandos eran simplemente las órdenes, por ejemplo, «llamar a mamá». Pero actualmente gracias a Siri, Cortana o Google Now podemos preguntar a nuestro dispositivo móvil por el tiempo (no hace falta dar una ubicación, el teléfono ya lo sabe), programar una reunión en el calendario o tomar una nota. Y puedes hacerlo con más naturalidad que nunca: «Oye Siri, ¿debo llevar paraguas mañana?», «Ok Google, ¿me despiertas en una hora?». Esas y otras frases similares funcionarán gracias al Procesamiento del Lenguaje Natural. Claro, algunas de las frases (y sus variaciones) están codificadas en algún lugar de los servidores, pero otras pueden ser interpretadas dinámicamente por reconocedores de voz a texto e intención como api.ai o wit.ai.
«Encuentra (compra) el vuelo más barato de Nueva York a Londres en 3 días» nos dará:
- Origen, destino: Nueva York, Londres
- Fecha: 3 días a partir de hoy (+ fecha de hoy tomada del contexto actual)
- Criterio: el más barato
- Intención: Encontrar (comprar) un vuelo
Tener toda esa información probablemente resulte con una sola llamada a la API, por ejemplo a Skyscanner. ¿Qué significa esto? Que la tecnología ya no nos limita. Somos capaces de programar un vuelo con sólo un comando de voz.
Para el usuario final significa:
- Dirigir lo que necesitas hacer
- No abrir tu dispositivo móvil/ordenador
- No abrir el buscador (de viajes)
- No ajustar la consulta a tus necesidades
- No comparar resultados
- Disfrutar de tu vuelo.
Asistente personal, no un dispositivo
El procesamiento de voz a texto es cada vez mejor. También gracias a nosotros: los usuarios. Conversando con Google o Siri alimentamos las redes neuronales con nuevas muestras de datos lo que las hace mejores y más precisas. Claro, todavía no queremos hablar en voz alta con nuestros teléfonos o tabletas. Fred Wilson lo mencionó y publicó una encuesta en su Twitter:
¿Cuál es la razón? Todavía no es natural para nosotros. A lo largo de los años solíamos usar nuestros teléfonos en las tabletas tocándolos. Claro, siempre hablamos por el teléfono, pero hablar con él sigue pareciendo un cable.
Pero ahora aparece en el horizonte un nuevo tipo de solución. Google Home o Amazon Echo – los dispositivos para los que la interfaz de voz es la predeterminada. Por fin tenemos dispositivos a los que les diremos que enciendan las luces, que reproduzcan nuestra película favorita o que obtengan información de la Wikipedia. Y finalmente hablar con un dispositivo se convierte en algo natural para nosotros. En realidad no será sólo un dispositivo, sino tu asistente. Tu Jarvis personal.
Lleva a Jarvis contigo
Volvamos al dispositivo móvil por un momento. Después de un tiempo y un par de conversaciones con Amazon Echo o Android Auto, el sistema de tu coche, veremos los dispositivos móviles desde un ángulo completamente nuevo. No serán sólo teléfonos con control por voz, sino más bien dispositivos para llevar tu asistente en casa. Y hablar con ellos ya no será raro.
Además, no necesitaremos sacar el dispositivo del bolsillo. Gracias a los AirPods y a decenas de otros auriculares (que incluso no requieren puerto de auriculares Jack) podremos hablar con nuestro asistente con limitaciones. Y el dispositivo escondido en el bolsillo, respaldado por los servicios de computación en la nube lo hará todo por ti, confirmando con un «Ya está hecho, Tony», y fin.
El futuro de los hologramas
Al final sigue faltando una gran pieza en nuestro Jarvis personal: el feedback visual. Todavía no hemos inventado la tecnología que sería capaz de dibujar una proyección 3d en el aire con sólo una luz. Pero no te preocupes, hay proyectos como Hololens que mezclarán la realidad con hologramas, por lo que podrás ver todo el universo en tu mesa, la proyección de las piezas que faltan cuando construyes un motor, o incluso personas que están a miles de kilómetros de nosotros. Sentados en nuestro autocar.
¿Y qué es lo más fascinante de todas esas soluciones y tecnologías? Que todos tenemos acceso a ellas. Todos podemos construirlas: creando bots para aplicaciones de mensajería, integrando APIs de procesamiento de lenguaje natural, construyendo aplicaciones para: dispositivos móviles, asistentes del hogar, coches, incluso Hololens. Esto ya no es un conocimiento secreto – esas son sólo piezas que necesitan ser conectadas correctamente.
Nunca ha habido un mejor momento en toda la historia del mundo para inventar algo (← ¡realmente recomiendo este post!).