Se ha hablado de que Windows 10 y Windows 10 Mobile contienen nuevas APIs y algunas de ellas que aprenden de los múltiples sensores que incorporan nuestros dispositivos en la actualidad como podemos leer en WMPowerUser. Estos nos pueden indicar si estamos andando o conduciendo un coche y mucho más.
¿Cómo será la percepción contextual en Windows 10 y Windows 10 Mobile?
Las APIs pueden indicarnos donde se encuentra el equipo y cambiar el comportamiento de las aplicaciones de acuerdo a eso. Estas APIs permiten acceder a los pasos que andamos, al barómetro y al sensor de altitud, estos son muy útiles para aplicaciones de fitness y para localizar nuestra ubicación, detectar la proximidad, presencia y mucho más.
Estos ejemplos incluyen la información basada en el contexto del usuario, por ejemplo una actividad vinculada a una lista de reproducción. Cambiar el funcionamiento de una aplicación, como la cámara, cuando se detecta que intenta cambiar una funcionalidad mientras anda o corre. Gestión de batería para evitar que el WiFi por ejemplo gaste demasiada batería.
Esta tecnología es increíble y esperamos que Microsoft no ceda todo el potencial a los desarrolladores y que ellos mismo apliquen la tecnología a sus aplicaciones o el sistema. Por ejemplo permitiendo que Cortana sepa donde dejaste tu coche tras bajarte y empezar a andar.
¿Qué ideas para potenciar el uso de los sensores se os ocurren? ¿Creéis que es interesante el uso de los sensores o teméis por estar enviando o cediendo demasiada información? ¿Creéis que Microsoft incorporará esto en el propio sistema operativo o en Cortana?