Llegamos a ustedes gracias a:



Noticias

Intel promueve desarrollo de aplicaciones de siguiente generación

[12/03/2013] Los ingenieros de software están usando las herramientas de Intel para explorar las formas en las que las personas pueden usar sus voces, gestos de la mano y movimientos de cabeza y ojos para operar las computadoras.
En los siguientes años, se espera que su investigación produzca herramientas que podrían ayudar a los desarrolladores a construir juegos de computadora, ayudar a los doctores a controlas las computadoras en cirugías, o guiar a los bomberos cuando ingresan a un edificio en llamas.
Realmente no sabemos en qué se va a convertir este trabajo, pero va a ser fascinante ver cómo se desarrolla, sostuvo Craig Hurst, director de product management de computación visual de Intel. Hasta el momento, lo que hemos visto va más allá de lo que originalmente pensábamos.
El otoño [septentrional] pasado, el grupo de Hurst lanzó varios kits de desarrollo de software que programadores externos pueden usar para crear nuevas aplicaciones.
Uno de los kits de herramientas, el Perceptual Computing SDK, fue distribuido a los desarrolladores externos que construyen aplicaciones que luego serán juzgadas por los ingenieros de Intel. La empresa está planeando otorgar un millón de dólares en premios a los desarrolladores este año para los prototipos de aplicaciones más originales, no solo en diseño de juegos sino también en productividad y otras áreas.
Barry Solomon, miembro del visual computing product group de Intel, demostró cómo los desarrolladores de Windows están usando los kits de herramientas. Con una cámara especial de percepción profunda pegada a la parte superior de la cubierta de una laptop, y conectada vía USB a la computadora, Solomon mostró cómo el software construido con un SDK de Intel hacia rendering de sus expresiones faciales y gestos de la mano en la pantalla de la computadora; las imágenes se encontraban acompañadas por un revestimiento de líneas y puntos para mostrar la posición exacta de sus ojos y dedos.
Con esta información, un desarrollador puede rápidamente insertar el rostro y manos de una persona en un escenario de realidad aumentada.
Una empresa llamada Touchcast está construyendo una aplicación de pantalla verde que se encontrará disponible este año.
Matt Hamblen, Computerworld (EE.UU.)