Más

    Se detalla la nueva percepción contextual de los sensores en Windows 10

    Se ha hablado de que Windows 10 y Windows 10 Mobile contienen nuevas APIs y algunas de ellas que aprenden de los múltiples sensores que incorporan nuestros dispositivos en la actualidad como podemos leer en WMPowerUser. Estos nos pueden indicar si estamos andando o conduciendo un coche y mucho más.

    ¿Cómo será la percepción contextual en Windows 10 y Windows 10 Mobile?

    Las APIs pueden indicarnos donde se encuentra el equipo y cambiar el comportamiento de las aplicaciones de acuerdo a eso. Estas APIs permiten acceder a los pasos que andamos, al barómetro y al sensor de altitud, estos son muy útiles para aplicaciones de fitness y para localizar nuestra ubicación, detectar la proximidad, presencia y mucho más.

    El funcionamiento de los sensores en Windows mediante las nuevas APIs

    Estos ejemplos incluyen la información basada en el contexto del usuario, por ejemplo una actividad vinculada a una lista de reproducción. Cambiar el funcionamiento de una aplicación, como la cámara, cuando se detecta que intenta cambiar una funcionalidad mientras anda o corre. Gestión de batería para evitar que el WiFi por ejemplo gaste demasiada batería.

    Esta tecnología es increíble y esperamos que Microsoft no ceda todo el potencial a los desarrolladores y que ellos mismo apliquen la tecnología a sus aplicaciones o el sistema. Por ejemplo permitiendo que Cortana sepa donde dejaste tu coche tras bajarte y empezar a andar.

    ¿Qué ideas para potenciar el uso de los sensores se os ocurren? ¿Creéis que es interesante el uso de los sensores o teméis por estar enviando o cediendo demasiada información? ¿Creéis que Microsoft incorporará esto en el propio sistema operativo o en Cortana?

    Comentarios

    En directo: Picacódigo

    Te puede interesar

    Picacódigo

    Mas leídas

    Otros temas de interés