LightSpace och det interaktiva rummet. Framtiden enligt Microsoft

Innehållsförteckning:
På Microsoft Research har de arbetat med tekniker för igenkänning och interaktion med omgivningen under lång tid. Kinect är det paradigmatiska exemplet, men inte det enda. LightSpace är ett annat av projekten inom detta område av Redmonds forskningsavdelning. Genom att kombinera element av ytigenkänning med förstärkt verklighet, och tack vare djupkameror och projektorer, gör LightSpace varje yta i rummet och även det fria utrymmet mellan dem interaktiva.
Målet med LightSpace är att tillåta interaktion i den vardagliga miljön genom att använda olika element som projektionsytor.systemet använder tabeller eller väggar för att visa grafik vilket tillåter användare att använda händer och gester för att manipulera projicerat innehåll. Även om endast bord och vägg används i demos, kan LightSpace känna igen ett större antal ytor och använda dem som en interaktiv skärm.
Interagerar med vilken yta som helst
Systemet tillåter inte bara att flera händer identifieras som om det vore en multi-touch-skärm, utan lägger också till nya interaktioner med kroppen som tillåter övergångar mellan olika ytor Vi kan till exempel flytta innehåll från ett till ett annat genom att helt enkelt placera en hand på objektet i fråga och röra vid destinationsytan. På detta sätt simulerar LightSpace innehåll som färdas genom våra kroppar från en del av rummet till en annan.
Förutom att du flyttar innehållet från en yta till en annan, låter systemet dig extrahera det från dem och hålla det i dina händer som om det vore ett fysiskt föremål.För att göra detta projicerar den en röd boll på handen som representerar innehållet i fråga. Användaren kan transportera den så här över rummet och till och med byta med andra användare. För att återföra den till en yta, för den helt enkelt närmare den så att den överförs och återge innehållet på den igen.
Djupdetekteringen som används av systemet gör det också möjligt för att generera representationer utanför själva ytorna Således, som visas i demon, kan vi navigera genom alternativen i en meny genom att höja eller sänka händerna i luften. Systemet känner av vid vilken höjd det varierar mellan de olika alternativen. Precis som resten är detta bara ett exempel på vad som kan åstadkommas med LightSpace.
Hur fungerar det
För att göra rummet interaktivt på ett sådant sätt använder systemet flera djupkameror och projektorerDessa är kalibrerade för att upptäcka den verkliga positionen för föremålen och ytorna i rummet, vilket gör att grafer kan representeras på dem. För att göra detta registrerar var och en av kamerorna på vilket djup varje objekt hittas, och skiljer mellan stabila objekt i rummet och andra mobila objekt som användarna själva. Varje pixel konverteras till en verklig koordinat.
LightSpace använder dessa data för att bygga ett 3D-nät av rummets element och detekterar ytorna som innehållet kan projiceras på. Rumsmodellen kommer att användas för att känna igen användarnas interaktioner i miljön De kameror som användes tidigare gör det möjligt att upptäcka användarens rörelser och skilja deras konturer åt och detektera händernas position exakt.
Systemet kommer alltså att tolka användarens gester för att utföra var och en av de genomförda åtgärderna.Vi har redan sett några av dessa, som att arbeta med innehållet på vilken yta som helst, överföra det från en till en annan eller transportera det runt i själva rummet som om det vore ett riktigt föremål. Men systemet skulle kunna implementera andra instruktioner som tillåter fler åtgärder på vilken yta som helst.
Det är här allas fantasi kan sättas igång. Målet är att göra vilken yta som helst till en interaktiv skärm. Utan behov av ytterligare monitorer eller rörelsesensorer förvandlar LightSpace vilket rum som helst till ett nytt arbets- eller lekutrymme till något mer av framtiden.
I Xataka Windows | Framtiden enligt Microsoft Mer information | Microsoft Research