Sparsame Zeitsynchronisierung von Sensornetzen mittels Zeitreihenanalyse
Für drahtlose Sensornetze gibt es viele Anwendungen, angefangen von der industriellen Prozessautomatisierung bis hin zur Umweltüberwachung. An der Alpen-Adria-Universität Klagenfurt wurde nun ein Verfahren zur zeitlichen Synchronisierung entwickelt und experimentell getestet. Dieses lernt das Verhalten der Sensoruhren und ist damit besonders energie- und ressourcenschonend.
Die Forschung arbeitet seit Jahrzehnten an der Verbesserung von Sensornetzen. Ein wichtiges Ziel ist es, die Kosten einzelner Sensoren (wie beispielsweise Kameras und Thermometer) so gering wie möglich zu halten, um große Netze mit Tausenden von vernetzten Sensoren zu ermöglichen. Der Nachteil ist dabei: Günstige Sensorgeräte haben beschränkte Energie- und Rechenkapazitäten. Daher sind Methoden, die das Beste aus den begrenzten Ressourcen herausholen, sehr wichtig.
Eine wesentliche Rolle beim Einsparen von Energie- und Rechenkapazitäten spielt die Zeitsynchronisation. Eine enge Synchronisation kann den Energieverbrauch der Knoten reduzieren, indem die funkaktive Zeit verringert wird. Dadurch lässt sich die Lebensdauer erheblich verlängern. Hierzu haben Forscher am Institut für Vernetzte und Eingebettete Systeme der Alpen-Adria-Universität ein neues Synchronisationsverfahren entwickelt. Besonderer Wert wurde darauf gelegt, dass das Verfahren nicht zu viele Ressourcen verbraucht und somit die Vorteile der Synchronisierung nicht zu Nichte macht.
„Stellen Sie sich vor, eine Gruppe von Freunden verabredet sich zu einem Treffen. Üblicherweise einigt man sich auf Ort und Zeit. Nun ist es häufig so, dass nicht alle pünktlich kommen, weswegen der Koordinator des Treffens die zu spät Kommenden anruft und nachfragt. Das bedeutet Aufwand“, erklärt Jorge Schmidt, Postdoc-Mitarbeiter in der Gruppe von Professor Bettstetter. Überträgt man dieses Beispiel auf die von ihm und seinen Kollegen beforschten Sensornetze, bedeutet dieser Aufwand einen Verlust an Energie und Rechenleistung für die einzelnen Sensoren.
Zusammen mit dem Doktoranden Wasif Masood haben Schmidt und Bettstetter nun ein Verfahren entwickelt, das den Zusatzaufwand der Synchronisation zwischen den Oszillatoren der einzelnen Sensoren verringert. Schmidt erläutert dies anhand des Beispiels weiter: „Bei einer Gruppe von Freunden wissen wir von einzelnen bereits, wer üblicherweise zu spät kommt. Daher könnte der Koordinator eines solchen Treffens den einzelnen Freunden unterschiedliche Zeiten nennen, um so das Zuspätkommen abzufangen. Genau das leistet das neu entwickelte Verfahren: Es lernt mittels Zeitreihenanalyse das Verhalten der Sensoruhren und kann so zukünftige Verschiebungen vorhersagen bzw. korrigieren, bevor es überhaupt zu Asynchronitäten kommt. „Die Idee, das Verhalten zu beobachten und so zukünftige Korrekturen vorherzusagen, ist prinzipiell nicht neu. Wir konnten aber zeigen, dass die Verhaltensmodelle, die wir aus unserer Zeitreihenanalyse herausfiltern, sehr gut für handelsübliche drahtlose Sensorgeräte funktionieren“, erklärt Schmidt.
Das Verfahren wurde sowohl im Labor als auch in der freien Natur unter Temperaturschwankungen mit handelsüblichen Sensorgeräten getestet.