ALS-Lernmedien

Ortsgebundene und mobile Medien werden vielfach durch Cross-Device-Interaction (XDI) miteinander verschränkt. 

Unter ortsgebundenen Medien verstehen wir einerseits periphere Medien, die Bewegungen unserer Körper im physischen Raum erkennen und analysieren können. Dies geschieht beispielsweise mittels der Hardware Kinect. Diese erkennt die Position von Personen im Raum und deren Körpergesten. Auf diese Weise können mehrere Benutzer gleichzeitig Medien steuern, z.B. Videoprojektionen.

 

ActEMotion Logo

ActeMotion

ActeMotion ermöglicht zunächst das Einstellen von Medien und das Bestimmen von erkennbaren Gesten, webbasiert im Browser. Danach ist es möglich, während einer Aufführung diese Körpergesten duch das digitale System (einen PC mit einer Software von Microsoft, die die Daten einer Kinect V2 registriert) erkennen zu lassen und daraufhin Medien oder visuelle Effekte wiederzugeben.

Neben einem PC, einem Beamer und/oder Lautsprecher wird also auch die mit einer 3D-Kamera ausgestattete Kinect benötigt. ActeMotion kann auch (zusätzlich) mit am Körper getragenen Smartphons verbunden werden. Mit den Smartphones können weitere Körpergesten, wie etwa eine Rotation um die eigene Körperachse, erkannt werden.

ThinkGlobal_ActLocal

Mit der Performance Think Global_Act_Local realisieren Schüler*innen des Carl-Jacob-Burckhardt-Gymnasiums in Lübeck eine interaktive Performance mit ActeMotion. Diese Aufnahme zeigt Ausschnitte der Performance vom 14. Januar 2014 in der Aula der Schule Link zum Video.
[Zusätzlich wurde in einer Szene eine Kinect V1 mit der Software CtSound eingesetzt, um von oben die Position Personen im Raum genau tracken und daraus live eine Melodie zu erstellen.]

Veröffentlichungen:

Ide M., Winkler T., Bouck-Standen D. (2017).
ActeMotion as a Content-Oriented Learning Application in Secondary School: Media Control through Gesture Recognition as a Performative Process in Art Teaching. In EdMedia. Washington, DC.

 

Andererseits verstehen wir unter ortsgebundenen Medien auch Be-Greifbaren Medien. Damit meinen wir Medien, die wir bezogen auf einen spezifischen Ort durch berühren oder be-greifen steuern.

Medien, die wir an einem spezifischen Ort durch berühren steuern sind fest montierte Touchscreens, z.B. die Multitouch-Bildschirme der InteractiveWall (IW) oder die eines Multitouch-Tisches.

 

InteractiveWall Logo

Kids vor der IW

Die InteractiveWall (IW) stellt Kindern, Jugendlichen und Erwachsenen einen neuen Ort für soziale Kooperation, spielerisches, exploratives und inzidentelles Lernen zur Verfügung. Die Hypermedia-Plattform ermöglicht mit neuartigen Schnittstellen (Multitouch-Bildschirmen) eine Lernumgebung für den kontextualisierten, personalisierten, semantisch reichhaltigen und gerätespezifischen Zugriff auf Multimediaobjekte und der Interaktion mit diesen. 

Die Einstellungen und die Verwaltung wie auch das Hochladen von Inhalten für alle Applikationen erfogen über die webbasierte Schnittstelle ALS-Portal, die über einen Browser erreichbar ist.

Das folgende Video zeigt die IW am Carl-Jacob-Burckhardt-Gymnasium in Lübeck in der Version 2.3 (von 2013).

Link zum Video.

Veröffentlichungen:

Winkler T., Bouck-Standen D., Ide M., Ohlei A., Herczeg M. (2017).
InteractiveWall 3.1 - Formal and Non-Formal Learning at School with Web-3.0-based Technology in Front of Large Multitouch Screens. In EdMedia. Washington, DC: AACE.

Winkler T., Ide M., Hahn C., Herczeg M. (2014).
InteractiveSchoolWall: A Digitally Enriched Learning Environment for Systemic-Constructive Informal Learning Processes at School. In EdMedia. Tampere, Finland. S. 2457–2467.

Ide M. (2014).
InteractiveWall - Eine körper- und raumbezogene Umgebung für informelles Lernen. In: Schools out - Schriften zur Medienpädagogik. Hrsg: Aßmann, S., Meister, D., Pielsticker, A., Band 49, Kopaed Verlag, München. 85-96.

Winkler T., Ide M., Herczeg M. (2012).
InteractiveSchoolWall: A Digital Enriched Learning Environment for Systemic-Constructive Informal Learning Processes. In Maddux, C D & Gibson, D (Eds.) Research Highlights in Technology and Teacher Education. AACE. 117-126.

Winkler T., Cassens J., Abraham M., Herczeg M. (2010).
Die Interactive School Wall – eine be-greifbare Schnittstelle zum Network Environment for Multimedia Objects. In Schroeder, U (Ed.) Workshop-Proceedings der Tagung Mensch & Computer 2010: Interaktive Kulturen. Berlin: Logos Verlag. 177-178.

mehr zur IW siehe KiMM

 

Die InteractiveWall (IW) kann mit einer Vielzahl unterschiedlicher ALS-Informations- und ALS-Lernapplikationen bestückt werden. Diese sind etwa Announcements (Ankündigungen), MediaGallery (eine Vielzahl unterschiedlicher Mediengalerien), Presentations (Präsentationen), TimeLine (semantische Zeitleisten), SemCor (Applikation, die semantische Korrelationen zwischen Medien anschaulich visualisiert), EduGames (interaktive, inhaltlich annotierbare Lernspiele, wie EcologicalFootprint, AlgoFrogs, SpelLit und CollMath), sowie Lernspiele anderer Entwickler (beispielsweise GeoGuessr).

 

MediaGallery Logo

MediaGallery

Die MediaGallery ist eine Software, die eine übersichtliche und einfache Verwaltung und Präsentation von Videos und Bildern, insbesondere im Kontext der InteractiveWall, ermöglicht.

Veröffentlichung:

Winkler T., Ide M., Hahn C., Herczeg M. (2014).
InteractiveSchoolWall: A Digitally Enriched Learning Environment for Systemic-Constructive Informal Learning Processes at School. In EdMedia. Tampere, Finland. S. 2457–2467.

mehr zur MediaGallery siehe KiMM    

 

TimeLine Logo

TimeLine ermöglicht das Erstellen eines horinzontal verlaufenden Zeitstrahls, in dem vertikal übereinander mehrere Bereiche angezeigt werden können. Über eine Filterfunktion werden wählbahre Bereiche im zeitlichen Kontext zueinander dargestellt. Die Medien (Fotos, Sound und Videos) werden entweder aus der semantisch annotierten ALS-Dantenbank entnommen, oder aber aus anderen semantisch strukturierten Datenbanken, die mit der TimeLine verbunden sind.

Neue Inhalte in die ALS-Datenbank können über das ALS-Portal eingegeben werden. Eine jede Zeitleiste kann benannt und ihr beliebig viele Ereignisse abgerufen werden. Einem Ereigniss wird ein passender Name und eine Beschreibung, einige Tags sowie ein Datum oder ein Zeitraum zugewiesen. Das Framework NEMO verbknüpft ein Ereignis mit entspechenden Medien.

Der Betrachter kann, je nachedem wie viele Bereiche festgelegt worden sind, bis zu vier übereinander auswählen - die entspechenden Ereignisse und Medien werden dann bezüglich ihrer zeitlichen Korrelation zueinander angezeigt. Ein jedes angewähltes Ereignis erscheint über der Zeitleiste und wird durch Anklicken im als Overlay im Vollbildmodus dargestellt. 

Veröffentlichung:

Winkler T., Ide M., Hahn C., Herczeg M. (2014).
InteractiveSchoolWall: A Digitally Enriched Learning Environment for Systemic-Constructive Informal Learning Processes at School. In EdMedia. Tampere, Finland. S. 2457–2467.

mehr zur TimeLine siehe KiMM    

 

SemCor Logo

SenCor

SemCor dient der Visualisierung und spielerischen Erkundung von Informationen im "Semantic Web". In einem sich selbst erweiternden Graphen können verschiedene Themengebiete erkundet werden. In der ersten Jahreshälfte 2019 wird SemCor mit einer neuen Filterfunktion versehen und erhält eine neue grafische Benutzungsschnitstelle.

Veröffentlichung:

Winkler T., Ide M., Hahn C., Herczeg M. (2014).
InteractiveSchoolWall: A Digitally Enriched Learning Environment for Systemic-Constructive Informal Learning Processes at School. In EdMedia. Tampere, Finland. S. 2457–2467. 

mehr zum SemCor siehe KiMM

 

HyperVid Logo

HyperVid

HyperVid ist ein web-basiertes Hyper-Media-System, mit dem selbst erstellte Videofragmente zu einem Hypervideo verlinkt und anschließend webbasiert betrachtet werden können. Es fördert vernetztes Denken und unterstützt gemeinsames Lernen mit zeitbasierten Multimedien.

Veröffentlichungen:

Winkler T., Ide M., Hahn C., Herczeg M. (2014).
InteractiveSchoolWall: A Digitally Enriched Learning Environment for Systemic-Constructive Informal Learning Processes at School. In EdMedia. Tampere, Finland. S. 2457–2467.

Ide M., Winkler T. (2012). 
Hypervideo - Neue ästhetische Projekte in Web 2.0: Hyperstrukturen in Lernprozessen. In Lauffer, J & Röl-lecke, R (Eds.) Chancen digitaler Medien für Kinder und Jugendliche. Medienpädagogische Konzepte und Perspektiven. Vol. 7. München: Kopaed. 71-77. Dieter Baake Preis Handbuch 7.

mehr zu HyperVid siehe KiMM

 

Neben der InteractiveWall gilt unsere Forschung auch der Erforschung von Lernapplikationen mittels Multitouch-Tischen.

 

InteractiveTable (ITable) ist eine sich in der Entwicklung befindlichen Applikation zur Erstellung von interaktiven Präsentationen oder Lernspielen auf Multitouch-Tischen mit und ohne Objekterkennung.

Die Lernspiele auf HTML5-Basis werden gemeinsam von mindestens vier Personen gespielt, die vier unterschiedliche Rollen einnehmen. 

SpelLit-1.0

Für unser erstes am IMIS entstandene Miteinander-Lernspiel zur Unterstützung des Lesen- und Schreibenlernen (SpelLit) für die erste Jahrgangsstufe der Grundschule, entwickelten wir 2009 einen quadratischen Multitouch-Tisch.

Für den Multitouch-Tisch PixelSense/Surface von Microsoft wurden ab 2010 zwei Lernspiele für das Museum für Natur und Umwelt in Lübeck entwickelt. Die Simulationen, wie etwa die Ostseesimulation zur Rettung der Ostsee vor umweltschädlichen Einflüssen, fördern vernetztes Denken und unterstützen das gemeinsame lösen komplexer Probleme. 

Das folgende Video zeigt Besucher des Museums für Natur und Umwelt beim spielen des Lernspiels "Rettet die Ostsee" auf einem Multitouch-Tisch mit Hardware der Fa. PQ-Labs: Link zum Video.

Veröffentlichungen:

Scharf F.
Arlington, Virginia. IEEE Frontiers in Education Conference, 28.10..2010. SpelLit: Development of a Multi-Touch Application to Foster Literacy Skills at Elementary Schools.

Desweiteren können auf einem Multitouchtisch auch Fiducials (kleine physische Objekte) zur Steuerung von Software eingesetzt werden. Mehr Informationen zum ITable finden sie demnächst auch hier.

 

Für ALS-Lernmedien, die wir primär durch kleine Objekte, die wir be-greifen steuern, entwickelten wir spezifische sogenannte Tangibles. Diese Tangibles, die einen kleinen Computer enthalten, nennen wir Tangicons. Diese sind mittels webtechnologie mit NEMO verbundene Miniaturcomputer mit Touchbildschirmen, Lage- und magnetischen Sensoren. Da diese so auf dem Markt zurzeit nicht käuflich erwerbbar sind, können alternativ auch kleine Mobilgeräte verwendet werden..


Tangicons Logo

ELblocksTangicons

Kinder an einer Lübecker Grundschule testen das Miteinander-Lernspiel AlgoFrogs mit der vierten Generation der Tangicons.

 Die ersten Tangicons bestanden auf Holzwürfeln. Deren Lage im Raum und Ausrichtung wurde via Bilderkennung erkannt. Die zweite Generation bestamd aus Kunststoff mit eingebetteten Mikrocontrollern und diversen Sensoren, sowie einem Funkmodul.
Für die dritte Generation, die erstmals in Verbindung mit einem Bildschirm arbeitete wurden Sifteo Cubes verwendet.

Tangicons 3.0

Das Bild zeigt die dritte Generation der Tangicons im einsatz mit zwei Lernspielen, bei denen SifteoCubes verwendet wurden.

Erst in die vierte Generation, die in der Entwicklungsphase den Namen ELBlocks genannt wurden, sind kleine vollwertige Computer integriert, die neben einer Vielzahl von Sensoren, u.a. Magnetfeldsensoren, ebenfalls über einen Touchbildschirm verfügen, der allerdings einen Webbrowser zeigt. Hier liegt die komplette Spiellogik außerhalb der Tangicons im Framework NEMO. 

Veröffentlichung:

Bouck-Standen D., Schwandt M., Winkler T., Herczeg M. (2016).
ELBlocks - An Interactive Semantic Learning Platform for Tangibles. In Weyers, B & Dittmar, A (Eds.) Mensch und Computer 2016 - Workshopband. Aachen: Gesellschaft für Informatik e.V.

 

Werden Tangibles (be-greifbare Minicomputer wie unsere Tangicons) zusammen mit einem Multitouch-Bildschirm einer InteractiveWall verwendet, so kommt es hier zu einer geräteübergreifenden Interaktion (Cross-Device-Interaction kurz XDI genannt). Alternativ für die Tangicons, die jetzt über einen Browser und WLAN verfügen, können mit unseren Lernapplikationen AlgoFrogs, SpelLit und CollMath auch Smartphones oder Tablets verwendet werden.

 

Tangicons Logo

Bezogen auf das Lernspiel AlgoFrogs können die Kinder in der Vorschule oder Grundschule gemeinsam algorhythmisches Denken ausbilden. Grobmotorische und feinmotorische Bewegungen im physikalischen Raum nehmen beim Lernspiel eine wichtige Rolle ein.

AlgoFrog

Da das Lernspiel ab der Version 3 browserbasiert realisiert wurde, können, wie auf dem Bild hier zu sehen ist, auch Smartphones oder Tablets verwendet werden, wobei die einzelnen Geräte allerdings ihre räumliche Lage zueinander nicht von alleine erkennen, wie es mit den Tangicons der Fall ist.

Hier ein Beispielvideo das zeigt, wie Kinder an der Grundschule Stadtschule Travemünde an einem Bildschirm der InteraktiveWall algorithmisch Denken und Handeln mit dem Lernspiel AlgoFrog lernen: Link zum Video.

Als prototypisches System ist es zurzeit mittels iPods und Tablets mit den Lernapplikationen AlgoFrogs und SpelLit (ab Mitte 2019 auch mit CollMath) im Schulunterricht im Einsatz. Die drei webbasierten Miteinander-Lernspiele Grundschulkinder wird interessierten Pilotanwendern, die sich für eine Evaluation bereit erklären, im Einzelfall zur Verfügung gestellt.

Das Besondere dieser Lernapplikationen besteht darin, das die Kinder sehr selbstständig miteinander Lernen ohne zu sitzen und dass die Lehrkräfte (bezogen auf AlgoFrogs auch mit Kindern) neue Spielsequenzen mit dem jeweils dazugehörigen GameCreator erzeugen können.


Veröffentlichungen:

Winkler T., Bouck-Standen D., Herczeg M. (2018).
Modell für eine Lehrerevaluation zum Einsatz eines körper- und raum-bezogenen Miteinander-Lernspiel. In Dachselt, R & Weber, G (Eds.) Mensch und Computer 2018 - Workshopband, 02.-05. September 2018, Dresden. Gesellschaft für Informatik e.V.. 209-217.

Winkler T., Scharf F., Hahn C., Wolters C., Herczeg M. (2014). 
Tangicons: Ein be-greifbares Lernspiel mit kognitiven, motorischen und sozialen Aktivitäten. i-com, Zeit-schrift für interaktive und kooperative Medien, Hrsg. Ziegler J., Vol. 14, Band 2. Berlin: De Gruyter.

Hahn C., Wolters C., Winkler T., Herczeg M. (2012). 
Programmieren im Vorschulalter mit Hilfe von Tangicons. In Reiterer, H & Deussen, O (Eds.) Mensch & Computer 2012 - Workshopband: interaktiv informiert - allgegenwärtig und allumfassend!? Oldenbourg Verlag. 135-140.

Scharf F., Winkler T., Hahn C., Wolters C., Herczeg M. (2012). 
Tangicons 3.0: An Educational Non-Competitive Collaborative Game. In IDC ’12 Proceedings of the 11th International Conference on Interaction Design and Children. Bremen: ACM. 144-151.

Winkler T., Scharf F., Peters J., Herczeg M. (2011). 
Tangicons - Programmieren im Kindergarten. In Eibl, M & Ritter, M (Eds.) Workshop-Proceedings der Tagung Mensch & Computer 2011 - überMEDIEN ÜBERmorgen. Universitätsverl. Chemnitz. 23-24.

Winkler T., Ide M. (2010). 
Ästhetisch-informatische Medien im Kindergarten. In Duncker, L (Ed.) Bildung in der Kindheit - das Handbuch zum Lernen in Kindergarten und Grundschule. Seelze: Klett-Kallmeyer. 225-229.

 

SpelLit Logo

SpelLit unterstützt das Erlernen von Lesen und Schreiben im Vorschul- und beginnenden Grundschulalter.

Das Lernspiel kann gemeinsam von drei bis sechs Kindern gespielt werden.

Mit der einen Variante (SpelLit 2.1) wird mit Laptop, Tablet und Sifteo-Cubes ein spielerischer, körper- und raumbezogener gemeinsamer Interaktionsraum geschaffen (siehe Bild oben).

Das folgende Video zeigt Kinder im ersten Jahrgang an einer Grundschule in Lübeck-Moisling, wie sie mit den Sifteo-Cubes und SpelLit 2.1 gemeinsam Lesen und Schreiben lernen. Link zum Video.

SpelLit 2.1 

Mit einer weiteren Variante (SpelLit 3.0) wird mit beliebigen Geräten gespielt, die über einen internetfähigen Browser verfügen, wie etwa Smartphones, Phabletts, Mini-Tablets, Tablets oder Laptops bis hin zu großen Multitouch-Bildschirmen oder Multitouch-Tischen.

Das folgende Video zeigt Kinder in der Grundschule Lauerholz, wie sie mit den XO-Tablets gemeinsam mit SpelLit 3.0 lesen und schreiben lernen. Link zum Video.

Als prototypisches System ist SpelLit zurzeit noch nicht öffentlich freigegeben.

Veröffentlichung:

Scharf F., Günther S., Winkler T., Herczeg M. (2010).
SpelLit: Development of a Multi-Touch Application to Foster Literacy Skills at Elementary Schools. In Proceedings of IEEE Frontiers in Education Conference 2010, Arlington, Virginia, October 27-30, 2010. Arling-ton, Virginia: IEEE. Session T4D-1-6.

 

Unter mobilen Medien verstehen wir zum Einen Medien die wir mit uns führen, wie beispielsweise Smartphones, und zum Anderen Medien die wir am Körper tragen, wie digital erweiterte Kleidung, -Brillen, -Armbänder, -Schmuck u.v.m..

Die folgenden Lernapplikationen spiegeln unsere Entwicklung von schwerpunktmäßig mobilen Medien, die wie alle ALS-Applikationen mit dem Framework NEMO verbunden sind und über das ALS-Portal editierbar sind. 

 

MoLES Logo

MoLES  (Mobile Learning Exploration System) ist eine internet-basierte Lernumgebung, die das Lernen an außerschulischen Lernorten unterstützt. Mit MoLES können am webbasierten ALS-Portal Fragen erstellt werden, die anschließend auf Exkursionen mit der Smartphon-App MoLES aufgerufen und beantwortet werden. Dabei werden Medien (Texte, Fotos, Tonaufnahmen, Videos oder 3D-Objekte) erzeugt, die semiautomatisch semantisch annotiert werden, und anschließend automatisch in allen ALS-Applikationen weiterverwendet werden können.

Veröffentlichung:

Winkler T., Herczeg M. (2013).
The Mobile Learning Exploration System (MoLES) in Semantically Modeled Ambient Learning Spaces. In IDC ’13 Proceedings of the 12th International Conference on Interaction Design and Children. New York: ACM. 348-351.

 

InfoGrid

InfoGrid-Bienenprojekt

Mit InfoGrid können im ALS-Portal, webbasiert am PC oder Tablet, digitale Texte, -Fotos, -Videos oder -3D-Objekte hinterlegt werden, die dann in Form von Augmented Reality (AR) von mobilen Geräten, wie Smartphones oder Tablets, angezeigt werden können. Auslöser für die Anzeige sind sogenannte Marker, Fotos, beispielsweise von Bildern oder real physischen Objekten, die via Bilderkennung über die Kamera des Mobilgeräts erfasst werden.

Am in Form von AR anzuzeigenden Medien für ein AR-Erlebnis werden beispielsweise mit MoLES erstellt. Aber auch die Eingabe via ALS-Portal ist möglich. Videos werden am besten gleich mit der Hilfsapplikation VideoEdit bearbeitet. Oder aber nur via VideoEdit in das ALS-System eigegeben, damit sie in passender Auflösung und Komprimierung für InfoGrid bereit stehen. 

Ab Mitte 2019 ist geplant, im ALS-Portal Projekte auch als narrative Touren für Innenräume oder im Freien mittels Narrator strukturieren zu können. Mehr unter Hilfsprogramme, Narrator.

Alle diejenigen, die die InfoGrid-App auf ihrem mobilen Gerät installiert haben, können, je nach Freigabemodalität, das von Schüler*innen Geschaffene oder von Museumsmitarbeitern Bereitgestellte interaktiv in unterschiedlichen Formen von Augmented Reality betrachten. Die InfoGrid-App kann kostenlos aus dem Google Play Store oder dem App Store von Apple heruntergeladen und auf dem Smartphone oder Tablet installiert werden. 

Während der Phase der Überarbeitung und teilwise Neukonzipierung von InfoGrid in den letzten drei Jahren standen vorübergehend zwei prototypische Varanten des InfoGrid zur Verfügung:

InfoGrid4Schools und InfoGrid4Museums. Dabei handelte es sich um sehr eingeschränkte, schlanke Varianten des InfoGrid, für spezifische Events entwickelt wurden.

InfoGridLight bzw. InfoGrid4Schools ermöglichten eine einfache Augmented-Reality-Anwendung. Durch Bilderkennung konnte ein vorab bestimmtes Bild durch ein Video zu ersetzen. Diese Funktion ist jetzt eine von vielen in InfoGrid.

InfoGrid4Museums ermöglicht die Wiedergabe von Ton, Bild, Video und von 3D-Objekten mittels Bilderkennung. 

InfoGrid4Beacons

 

InfoGrid4Beacons ermöglichte bei eingeschalteter Bluetooth-Verbindung das Wiedergeben eines Videos, wenn ein Beacon geortet wurde. Die App kam in der Lübecker Museumsnacht am 27.8.2016 im Foyer und Garten des Günter Grass-Hauses zum Einsatz. Da die Installation der spezifischen Hardware keine weiteren Vorteile gegenüber der Bilderkennung aufwies, eher Nachteile im Innenbereich durch Reflexionen der Signale an Wänden, wurde die Entwicklung eingestellt. 

 

InfoGrid4Glass

Neben InfoGrid existierte auch InfoGrid4Glass, das hier nur der Vollständigkeit halber erwähnt wird. InfoGrid4Glass unterscheidet sich vom InfoGrid, der für Smartphones und Tablets entwickelt wurde, durch die Verwendung der Schnittstelle GoogleGlass, einem Wearable in Form einer Datenbrille. Datenbrillen eigen sich hervorragend für ambiente Lernumgebungen. Da sich jedoch Datenbrillen noch nicht als Kosumer-Produkte auf dem freien Markt durchgesetzt haben, wurde die Weiterentwicklung von InfoGrid4Glass auf Eis gelegt.

 

Die folgenden drei Applikationen werden zurzeit nicht weiterentwickelt. Sie sind auch nicht in das ALS-Portal integriert.

 

SmartFashion

Bekleidung und Schmuck sind Ausdruck kultureller Codes und Trends.  Werden in Fashion elektronische Bauteile integriert (kleine zur Kommunikation fähige Minicomputer, Sensoren und Aktoren, wie etwa bei Glass von Google, der MYO oder LilyPads mit intergriertem ZigBee - die wiederum mit Beschleunigungs- oder Lichtsensoren sowie LEDs und Vibratoren verbunden sind), so entsteht Smart Fashion. Mit dieser können auch komplexere Formen von Kommunikation realisiert werden.

SmartFashion ist eine Applikation für interaktive Bekleidung oder Schmuck, mit der auf einfache Weise Kommunikationsverbindungen zu anderen ALS-Applikationen via NEMO hergestellt werden kann. 

Das folgende Video zeigt Kids des Carl-Jacob-Burckhardt-Gymnasium, wie sie für ihre Performance "Digital Fashion" interaktive Shirts produzieren und anschließend eine Performance mit diesen durchführen. Link zum Video

Eine frühe Form der Realisierung von Cross-Device Interaction zwischen Smartphones und Bekleidung wurde bereits mit WeWrite realisiert.

Veröffentlichung:

Winkler T., Ide M., Wolters C., Herczeg M. (2009).
WeWrite: ’On-the-Fly’ Interactive Writing on Electronic Textiles with Mobile Phones. In Proceedings of IDC 2009. ACM. 226-229.

 

SmartPlushie

Ein Plushie ist ein kleines Plüschtier oder Plüschphantasiewesen aus Stoff. Wenn in ein solches nicht nur kleine Mikrokrontroller, Batterien, Druckschalter, Summer oder LEDs integriert werden, sondern auch eine Funkverbindung (ZigBee-Modul), so nennen wir dies smartPlushie.

SmartPlushie ist eine Applikation mit der eine Verbindung zwischen Smart Plushies und NEMO oder anderen ALS-Lernapplikationen hergestellt werden kann.

Im Prinzip wird hier die gleiche Technologie wie bei SmartFashion verwendet, allerdings um kleine Plüschtiere interaktiv steuerbar zu gestalten.

 

 

SmartPaintings

Auch hier wird ähnliche Technologie wie bei SmartFashion oder SmartPlushies verwendet, allerdings um selbst gemalte Bilder interaktiv mittels Webtechnologie steuerbar zu gestalten.