WÀre es nicht cool wenn man beliebige Metadaten zu irgend etwas an beliebigen Stellen abrufen könnte?
Am MIT Media Lab haben sie dazu einen Demonstrator gebaut - eine Webcam, plus einen kleinen Rechner plus einen batteriegetriebenen Mini-Beamer - und das alles zum umhÀngen.
Damit kann man dann zum Beispiel beim Einkaufen zu einem Produkt abrufen ob es ökologisch hergestellt wurde, wie das Produkt bei Amazon bewertet wird, wie sich eine Geschichte weiter entwickelt hat die man gerade in der Zeitung lieĂt, ob und wie viel sich ein Flug verspĂ€tet hat fĂŒr den man gerade sein Ticket anschaut... Die Möglichkeiten sind unbegrenzt.
Das coole daran ist dass der Apparat letztlich auf Gesten reagiert und auf jede OberflĂ€che projizieren kann. Also zum Beispiel eine Tastatur auf die eigene Hand - fĂŒr einen Taschenrechner, oder eine Telefontastatur, oder es kann erkennen wenn man eine "Photo-Geste" macht und kann ein Photo machen von dem was man gerade sieht.
Pretty neat he?
Hier gibts ein Demo-Video auf der TED-Conference
(Danke an Joachim fĂŒr den Hinweis)