Automatische Klassifikation von Pollenproben / Automated classification of pollen samples
Honig, Bienen, Pollen, AI, KI, Bilderkennung, Deep Learning, Palynologie, Machine Learning, honey, bees
Hochschule Bielefeld Fachbereich Campus Minden Artilleriestr. 9 32427 Minden
Laufzeit
01.02.2021 – 31.12.2024
Kurzbeschreibung
Palynologie ist die wissenschaftliche Disziplin, die sich mit der Analyse von Palynomorphe beschäftigt, insbesondere Pollen. Pollen spielen eine vielfältige Rolle im Ökosystem und sind aufgrund ihrer physischen Robustheit eine wichtige Informationsquelle in unterschiedlichen Bereichen wie z.B. der Forensik, Medizin, Paläoökologie und Honigkunde. Die Analyse von Pollen in Honigprodukten zur botanischen und geographischen Herkunftsbestimmung ist ein zeit- und kostenintensiver Prozess. Von der Herstellung des Präparats bis hin zur mikroskopischen Sortenbestimmung ist ein menschlicher Experte notwendig. Die Pollenkörner müssen dabei händisch gezählt und anhand visueller Merkmale identifiziert werden.
Das Projekt beschäftigt sich mit Verfahren zur Automatisierung dieses Prozesses. Pollendaten sind oftmals nicht digitalisiert, geographisch gebunden oder ideell aufbereitet, sodass sie nicht den Zustand repräsentieren, wie sie im Honigsediment unbearbeitet vorkommen. Zusammen mit den besonderen Eigenheiten von Pollenkörnern, ist es notwendig, besondere bildbasierte Methoden aus dem Bereich der KI anzuwenden, um gezielt die Probleme zu lösen, die in einer Laboranalyse anfallen wie z.B. Methoden zur synthetischen Datenerzeugung sowie Verfahren, die nur geringe Mengen von gelabelten Daten verarbeiten können. Ziel soll es sein, die Einführung von Deep Learning-basierten Methoden zur automatisierten Klassifizierung möglich zu machen, ohne dabei auf teure und aufwendige Laborgeräte oder unrealistisch große Datenmengen angewiesen zu sein. Die Ergebnisse dieses Projekts lassen sich vielfältig nutzen und auch auf andere Palynomorphe übertragen wie z.B. Sporen oder auch Mikrofossilien.
Palynology is the scientific discipline that deals with the analysis of palynomorphs, especially pollen. Pollen plays a diverse role in the ecosystem and, due to its physical robustness, is an important source of information in various fields such as forensics, medicine, palaeoecology and honey science. Analyzing pollen in honey products to determine botanical and geographical origin is a time-consuming and costly process. A human expert is required from the preparation of the sample to the microscopic identification of the different species. The pollen grains have to be counted manually and identified on the basis of visual characteristics.
The project deals with methods for automating this process. Pollen data is often not digitized, geographically bound or ideally prepared, so that it does not represent the condition as it occurs unprocessed in the honey sediment. Together with the special characteristics of pollen grains, it is necessary to apply special image-based methods from the field of AI to specifically solve the problems that arise in a laboratory analysis, such as methods for synthetic data generation and methods that can only process small amounts of labeled data. The aim is to enable the introduction of deep learning-based methods for automated classification without having to rely on expensive and complex laboratory equipment or unrealistically large amounts of data. The results of this project can be used in a variety of ways and can also be transferred to other palynomorphs such as spores or microfossils.
Augmented-Reality-Interaktion zur dreidimensionalen Roboter-Arbeitsbereich-Beschränkung unter Berücksichtigung semantischer In-formationen
Augmented Reality, Mensch-Technik-Interaktion, Robotersteuerung, Ro-boter, semantische Informationen, Roboter-Arbeitsbereichsbeschränkung, 3D-Interaktionsmethoden, Interaktionsmethoden, Drohnensteuerung, Nutzeranforderungen, Nutzerzentriertes Design, User centred design. Semantisches Szenenverständnis, mobile AR
Hochschule Bielefeld Fachbereich Campus Minden Artilleriestr. 9 32427 Minden
Laufzeit
01.02.2022 – 31.01.2025
Kurzbeschreibung
Das Projekt befasst sich mit neuen Ansätzen der Augmented-Reality-Interaktion zur dreidimensionalen Beschränkung von Roboterarbeitsbereichen in sich dynamisch ändernden Umgebungen unter Einbeziehung semantischer Informationen. Mobile Roboter arbeiten vermehrt in Innenräumen, wie Industriehallen, Büros oder Wohnungen, wo sie sich den Raum mit Menschen teilen. Normalerweise sind die Arbeitsbereiche von mobilen Robotern – die Bereiche, in denen sich der Roboter bewegt – nur durch physische Hindernisse eingeschränkt, wie Wände und Möbel. Allerdings ist es in manchen Fällen notwendig, diesen Bereich weiter einzugrenzen. Da solche Eingrenzungen oft keine klaren visuellen Merkmale besitzen, können sie jedoch nicht ohne weiteres über die Sensorik des Roboters erkannt werden. Zu diesem Zweck ist eine Interaktion zwischen Roboter und Menschen notwendig, die es erlaubt, komplexe räumliche Informationen über die Grenzen eines Arbeitsbereichs zu definieren.
Das Projekt beschäftigt sich genau mit dieser interaktiven Begrenzung des dreidimensionalen Arbeitsbereichs für mobile Roboter, wobei auch die Dynamik berücksichtigt wird. Unter realen Bedingungen ändert sich der Arbeitsbereich ständig, z. B. durch Einwirkungen von Menschen oder Robotern, was Auswirkungen auf die interaktiv definierten Grenzen haben kann. Das Ziel ist, unter Berücksichtigung bestehender Augmented-Reality-Interaktionen, neue dreidimensionale Interaktionsmethoden zu entwickeln, die sich semantischer Informationen über die Umgebung bedienen. Die resultierende Interaktion soll von Laien ohne tiefgehendes technisches Wissen verwendbar sein. Der Ansatz des Projekts ist stark nutzerzentriert, indem er die Anforderungen und Rückmeldungen der Benutzer berücksichtigt. Es greift auf aktuelle Techniken aus den Bereichen mobile Augmented-Reality, semantisches Szenenverständnis und Roboterarbeitsbereichsbegrenzung zurück, um innovative dreidimensionale Interaktionsmethoden zu entwickeln, die auch auf andere Bereiche der dreidimensionalen Interaktion übertragbar sind.
The project deals with new approaches to augmented reality interaction for the three-dimensional delimitation of robot workspaces in dynamically changing environments using semantic information. Mobile robots are increasingly working indoors, such as industrial halls, offices or homes, where they share space with humans. Normally, the working areas of mobile robots - the areas in which the robot moves - are only restricted by physical obstacles, such as walls and furniture. However, in some cases it is necessary to further delimit this area. Such boundaries often have no clear visual features and cannot be easily recognized by the robot's sensors. For this purpose, interaction between robots and humans is necessary, which allows complex spatial information about the boundaries of a work area to be defined.
The project deals precisely with this interactive limitation of the three-dimensional workspace for mobile robots, whereby the dynamics are also taken into account. Under real conditions, the workspace is constantly changing, e.g. due to human or robot interaction, which can have an impact on the interactively defined boundaries. The aim is to develop new three-dimensional interaction methods that utilize semantic information about the environment, taking existing augmented reality interactions into account. The resulting interaction should be usable by non-experts without in-depth technical knowledge. The project's approach is strongly user-centered, considering the requirements and feedback of users. It draws on current techniques from the fields of mobile augmented reality, semantic scene understanding and robot workspace delimitation to develop innovative three-dimensional interaction methods that are also transferable to other areas of three-dimensional interaction.
Lokalisierung und Navigation von mobilen Robotern und Micro Aerial Vehicles mit einem reduzierten Sensorset
Hochschule Bielefeld Fachbereich Campus Minden Artilleriestr. 9 32427 Minden
Laufzeit
01.02.2022 – 31.01.2025
Kurzbeschreibung
In den letzten Jahren haben immer mehr mobile Roboter Einzug in private oder geschäftlich genutzte Räume erhalten. So kümmert sich heutzutage ein Roboter um das Saugen und Wischen der Wohnung. Genauso werden in Lagerhallen immer mehr mobile Roboter zum Transport von Waren eingesetzt. Die Forschung ist mittlerweile so weit, dass sich diese Roboter autonom bewegen können und ihre Umgebung kennen. Sie bestimmen ihre Position dabei anhand verschiedener Sensoren, wie zum Beispiel einem Radencoder (Messen der Umdrehungen eines Rades), und einer ihnen bekannten Karte. Micro Aerial Vehicles (MAVs) nutzen dagegen in der Regel GPS zur Bestimmung ihrer Position. Dazu werden unterstützend Odometriedaten wie die eines Beschleunigungssensors eingesetzt. Beide Plattformen bieten unterschiedliche Möglichkeiten bei der Wahl der Sensoren und stellen ungleiche Anforderungen. So spielt das Gesamtgewicht und der Stromverbrauch bei MAVs eine deutlich größere Rolle bei der Wahl der Sensoren. GPS ist dagegen bei beiden Plattformen in Innenräumen nicht einsetzbar.
In diesem Projekt soll ein neues Framework entwickelt werden, mit dem die Lokalisierung und Navigation für ein möglichst reduziertes Sensorset für unterschiedliche mobile Plattformen gelernt werden kann. Die Verfahren sollen dann im Rahmen von unterschiedlichen Anwendungen evaluiert werden.
In recent years, more and more mobile robots have found their way into private or business premises. For example, robots are now used to vacuum and mop homes. Similarly, more and more mobile robots are being used in warehouses to transport goods. Research has now reached the point where these robots can move autonomously and are aware of their surroundings. They determine their position using various sensors, such as a wheel encoder (measuring the revolutions of a wheel) or a map of the environment. Micro Aerial Vehicles (MAVs), on the other hand, generally use GPS to determine their position. Odometry data such as that from an acceleration sensor is used to support this. Both platforms offer different options for the choice of sensors and have different requirements. For example, the total weight and power con-sumption of MAVs play a much greater role in the choice of sensors. GPS, on the other hand, cannot be used indoors with either platform.
In this research project, we plan to develop a novel framework that allows training both localization and navigation for mobile platforms that are equipped with a reduced sensor set. Our results will be evaluated for several real-world applications.
Optimierungsalgorithmen für den Einsatz in der Entsorgungswirtschaft
Hochschule Bielefeld Fachbereich Campus Minden
Institut für intelligente Gebäude (InfinteG)
Artilleriestr. 9 32427 Minden
Projektmitarbeiter
Luis Deutsch
Projektpartner
Schwarz IT KG Stiftsbergstr. 1 74172 Neckarsulm
Laufzeit
01.09.2023 – 31.08.2026
Projektförderer
Schwarz IT KG
Kurzbeschreibung
Gemeinsames Promotionsprojekt zum Thema „Tourenoptimierung in der Entsorgungslogistik“. Aufbau einer für die Entsorgungswirtschaft geeigneten Tourenoptimierung und Automatisierung, welche hauptsächlich für die üblichen Fahrzeug- und Funktionsklassen der Branche Anwendung finden soll. Die Ergebnisse im Sinne der Zielfunktion(en) sollen den Ressourceneinsatz nach Vorgaben des operativen Betriebs optimieren.
Abgeschlossen
DoRIoT - Dynamische Laufzeit für organisch (dis-)aggregierende IoT-Prozesse
Im Projekt DoRIoT (Dynamische Laufzeit für organisch (dis-)aggregierende IoT-Prozesse) transformieren wir die zentralisierte Architektur bestehender SmartX-Umgebungen in eine dynamische Architektur, wandeln statische Methoden und Werkzeuge in dynamische Werkzeuge um und legen die Grundlagen für emergente Systeme mit Methoden des Organic Computing. Der Einsatz von Organic Computing erlaubt die frühzeitige Erkennung von drohenden Ausfällen oder geringer Servicequalität und das Ergreifen entsprechender Gegenmaßnahmen durch (Dis-)Aggregation der betroffenen Dienste. Ermöglicht wird Emergenz durch die Schaffung einer einheitlichen Kommunikationsinfrastruktur, die mit protokollübergreifenden Proxies Protokollgrenzen überwindet und damit auch bestehende Infrastrukturen einbezieht. Die Strategie der Integration bestehender Produkte, Schnittstellen und Infrastruktur ist auch die Grundlage für die Wahl der Laufzeitumgebung.
Weitere Informationen finden Sie auf der Website des Projekts: http://doriot.net/
InfinteG - Datenfusion im Smart-Home
In diesem Projekt geht es um das Auslesen von Sensordaten und die Steuerung von Aktoren des Neubaus am Campus Minden der HSBI. Es soll eine Architektur zur Kommunikation zwischen verschiedenen Sensoren und Aktoren entwickelt werden. Basierend auf den erfassten Daten soll ein Modell entwickelt werden, um eine Vorhersage über die Nutzung des Gebäudes und seiner Räume abzuleiten. Dies soll helfen, die Kosten und den Energieverbrauch zu minimieren und gleichzeitig die Komfortbedürfnisse der Nutzer zu berücksichtigen.
InfinteG - Intelligente Fluchtwegelenkung
Das Forschungsinstitut für Intelligente Gebäude beschäftigt sich mit aktuellen und zukünftigen Forschungsfragen zum Leben und Arbeiten im intelligenten Gebäude. Im Fokus stehen dabei die Aspekte Wohlbefinden, Sensorik, Energieeffizienz, Datensicherheit und Brandschutz. In diesem Projekt ist das Kernthema die Berechnung von dynamischen Evakuierungsrouten, die die Aspekte der Sicherheit und des Brandschutzes in intelligenten Gebäuden berücksichtigen. Das Ziel ist es, die Sicherheit in Gebäuden zu erhöhen. Dazu werden verschiedene Algorithmen untersucht, die den kürzesten und sichersten Weg aus dem Gebäude ermitteln. Dieser Weg kann durch farbige LED-Streifen im Boden oder durch LED-Schilder an der Decke angezeigt werden. Darüber hinaus soll der kürzeste Weg zum Brandherd berechnet und den Rettungskräften, z.B. durch den Einsatz von Handhelds, zur Verfügung gestellt werden. Ein Hauptaspekt unserer Forschung ist die Entwicklung eines Systems, das Fehlertoleranz und vernünftige Preise kombiniert, um den Einsatz in Gebäuden unterschiedlicher Größe zu ermöglichen.
Seerose - Serviceroboter im Smart Home
Das Forschungsprojekt befasst sich mit der Integration von Servicerobotern in eine intelligente Wohnumgebung zur kooperativen Bewältigung von Aufgaben. Diese Kombination wird die sensorische Vielfalt des Smart Homes und der Serviceroboter erweitern und anspruchsvollere Anwendungen ermöglichen. Ein Schwerpunkt des Projekts ist die Entwicklung einer adäquaten Middleware-Architektur, um die Kommunikation zwischen verschiedenen Agenten im System, z.B. Robotern, Sensoren und Aktoren, zu ermöglichen. Darüber hinaus werden die Roboter durch den Einsatz von benutzerfreundlichen Techniken zum Lernen aus Demonstrationen programmierbar sein. Das gesamte Projekt ist in ein Gesundheitsszenario eingebettet, um ältere Menschen in ihrem Alltag zu unterstützen.
MLCamp - Machine Learning Campus Minden
Im Mittelpunkt des Projekts steht die Entwicklung und Umsetzung eines Lernkonzepts für den Bereich des maschinellen Lernens als Teil des Masterstudiengangs Informatik. Neben der bereits bestehenden akademischen Ausbildung in den Bereichen Künstliche Intelligenz, Mustererkennung, Computer Vision, Intelligente Systeme und Optimierung wird das Lehrangebot um eine Grundlagenveranstaltung, nämlich "Methoden des Maschinellen Lernens", und um vier Spezialisierungsveranstaltungen, nämlich "Natural Language Processing and Information Retrieval", "Robotics & Robot Vision", "Smart Living & Environments" und "Data Science" erweitert.
Die theoretische, methodische und praktische Ausbildung beinhaltet die Erweiterung der Kompetenzen in den Bereichen multivariate Statistik, Deep Learning sowie Natural Language Processing, um die Studierenden in die Lage zu versetzen, selbstständig Probleme zu analysieren und zu bewerten sowie geeignete Algorithmen und Softwarelösungen für den jeweiligen Anwendungsfall auszuwählen und anzupassen.
Das Projekt wurde von Prof. Carsten Gips und Prof. Matthias König initialisiert, hat eine Laufzeit von zwei Jahren und wwurde vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.
SmartenUp
Die Digitalisierung ist der aktuelle Trend bei der Entwicklung neuer Produkte. Unternehmen müssen ihre Produkte "smarter" machen, um ihre Wettbewerbsfähigkeit zu sichern. Ab sofort werden Unternehmen vom Campus Minden, Hochschule Bielefeld, beim "SmartenUp" ihrer Produkte unterstützt. Diskussionsforen und Workshops sollen helfen, neue Geschäftsmodelle mit smarten Produkten zu entwickeln und die eingebettete Software zu entwickeln.
Dieses Projekt wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Gründungslinie "Innovationsforen Mittelstand" gefördert.
Domino - Dezentrale Plattform zur fähigkeitsbasierten Kooperation von heterogenen Geräten in intelligenten Wohnumgebungen
Die Vision des „Smart Living“, also des Lebens in intelligenten Umgebungen, umfasst die Idee, diverse Parameter der Umgebung und der in ihr lebenden Personen zu erfassen, um diese gewinnbringend für den Menschen einzusetzen. Hierbei spielen das Zusammenspiel und die Vernetzung unterschiedlichster heterogener Geräte und Komponenten eine zentrale Rolle. Während sich im Bereich des „Smart Homes“ derzeit eine Harmonisierung zugunsten funkbasierter Basistechnologien (ZigBee, Bluetooth, WLAN) abzeichnet, ist das funktionale Zusammenspiel, der darauf basierenden Services in Form von Smart-Home-Komponenten noch weitestgehend ungeklärt. Proprietäre Ansätze wie IFTTT („If this then that“) oder Apples Homekit integrieren zwar viele unterschiedliche Geräte, realisieren jedoch nur eine vernetzte und teil-automatisierte Umgebung, die keine „Kontextadaptivität“ und „Intelligenz“ zur Verfügung stellt. In dem Projekt DOMINO soll eine Softwarelösung entwickelt werden, welche diese Problematik aufgreift, indem sie das herstellerunabhängige und problemorientierte Zusammenspiel verschiedener Geräte innerhalb einer intelligenten Umgebung ermöglicht. Benutzer sollen dem System auf eine intuitive Art und Weise Aufgaben erteilen können, die das System in Folge dessen selbstständig löst. Hierdurch soll vor allem die Benutzerfreundlichkeit und Nutzbarkeit von intelligenten Umgebungen erhöht und diese auch für technisch nicht-versierte Nutzergruppen zugänglicher gemacht werden. Das Ziel des Projektes ist ein quelloffenes „Betriebssystem“ für intelligente Umgebungen, welches als selbstorganisierendes, dezentrales und intelligentes System konzipiert ist und somit eine hohe Flexibilität aufweist und sowohl in privaten Wohnumgebungen, als auch in Zweckbauten zum Einsatz kommen kann. Mit Hinblick auf den derzeitig sehr hohen Aufwand für die Konfiguration und Inbetriebnahme intelligenter Umgebungen und die trotzdem fehlende „Intelligenz“, stellt die Lösung damit einen erheblichen Vorteil im Hinblick auf zukünftige Anwendungsfelder im Bereich des „Smart Living“ dar.
PerLe - Personenzähler mit Leddar-Technologie
Das Transferprojekt Personenzähler mit Leddar-Technologie (PerLe) ist eingebettet in das Forschungsfeld Intelligente Vernetzung des Spitzenclusters it's OWL (Intelligente Technische Systeme OstWestfalenLippe). Das Projekt wird in Kooperation mit der in Leopoldshöhe ansässigen Volavis GmbH durchgeführt und hat zum Ziel, einen bestehenden kamerabasierten Personenzähler zu verbessern. Neue Leddar-Sensoren werden den Kamera-Ansatz ersetzen, um die Erkennungsrate zu verbessern und Bedenken bezüglich des Datenschutzes auszuräumen. Die neuen Sensoren sind ähnlich wie Radargeräte, da sie Lichtsignale senden und empfangen und die Entfernung durch Berechnung der vergangenen Zeit messen. Wissenschaftliche Forschungsfragen umfassen die Bereiche Sensordatenverarbeitung, Sensorfusion sowie die Selbstorganisation und die Vernetzung des Systems.
RED-Brick - Rapid Embedded Development Bricks
Aufgrund des zeitintensiven Entwicklungsprozesses von eingebetteten Systemen arbeitet der Projektpartner Tinkerforge an der Entwicklung eines modularen Systems zur Beschleunigung und Vereinfachung der Entwicklung von eingebetteten Systemen. Ein Ziel des Projekts ist die Realisierung eines "Rapid Embedded Development Bricks" (RED Brick) mit einer Größe von 4 x 4 cm. Diese Hardwarekomponente ist Teil des modularen Systems, das auch verschiedene Sensoren und Aktoren umfasst. Durch einfaches Verbinden verschiedener Module und durch Programmierung der Hardware können neue Systeme und Anwendungen entworfen werden, z. B. eine Motorsteuerung für eine Jalousie. In Kombination mit einem Helligkeitssensor kann eine automatische Steuerung realisiert werden. Der Anwendungsfokus liegt auf der Hausautomatisierung und der Bildverarbeitung für angeschlossene Kameras. In diesem Projekt entwickelt das Forscherteam aus dem Unternehmen und der Hochschule Bielefeld den "RED Brick" und Softwarekomponenten zur vereinfachten Programmierung der Hardware. Der "RED Brick" verfügt über eine hohe Rechenleistung, die das modulare System für eine Vielzahl von neuen Anwendungen öffnet.
Intelligentes Brandmeldesystem
Das Forschungsprojekt beschäftigt sich mit der Entwicklung eines intelligenten Brandmeldesystems und der Integration des Systems in eine Smart-Home-Umgebung. Es werden verschiedene intelligente Brandmeldesysteme untersucht und deren Vor- und Nachteile erforscht. Ein prototypisches System, bestehend aus mehreren intelligenten Brandmeldern, die in ein Smart Home integriert werden, wird in diesem Projekt entwickelt. Dieses bildet die Grundlage für Reaktionen des Smart Home, z. B. einen automatischen Notruf im Brandfall mit detaillierten Informationen über Personen und deren Positionen in der Wohnumgebung.
Traubenwickler-Monitoring
Spezielle Karten für die Eiablage dienen als Grundlage für das Monitoring von Traubenwickler-Motten. Bislang wurden diese Karten durch Expertenbegehungen ausgewertet. Ziel des Projekts ist die Entwicklung eines neuen automatischen Auswertesystems, das auf einer Smartphone-Applikation basiert. Es nutzt die integrierte Kamera des Smartphones für eine bildbasierte Zählung der Eier und den GPS-Empfänger zur Bestimmung der aktuellen Position. Die Daten, die sich aus der Zeit, der Eizählung pro Karte und der Position zusammensetzen, können zur Überwachung der Traubenwickler-Population verwendet werden. Die Überwachungsdaten können als Entscheidungshilfe für den Insektizideinsatz genutzt werden.
Smart Fall - Sturzerkennung im Smart Home
Das Projekt beschäftigt sich mit der Entwicklung eines Sturz- und Aktivitätserkennungssystems und der Integration des Systems in eine Smart-Home-Umgebung. Die Sturzerkennung und das automatische Absetzen eines Notrufs ist vor allem für ältere Menschen interessant, um ihnen mit dringender Unterstützung zu helfen.
In diesem Projekt wird ein prototypisches Hardwaresystem (Wearable Device) entwickelt, das in der Lage ist, Stürze und menschliche Aktivitäten zu erkennen. Dieses Wearable Device wird an der Taille des Benutzers befestigt und zeichnet sich durch niedrige Kosten, geringen Energieverbrauch und einen kleinen Platzbedarf aus. Die Aktivitätserkennung wird lokal auf dem Wearable mit seinen begrenzten Rechenkapazitäten durchgeführt. Zusätzlich ist es in der Lage, drahtlos mit einem Smart Home zu kommunizieren. Dazu wird eine Empfängerkomponente realisiert, die als Gateway zum Hausautomationsbus fungiert. Das Ergebnis ist eine intelligente Umgebung, die auf die aktuelle Aktivität des Benutzers reagieren kann.
Darüber hinaus werden die Räume des Smart Home mit Transpondern ausgestattet, die eine Lokalisierung des Wearables innerhalb des Hauses ermöglichen. Die Kombination aus Sturzerkennung und Indoor-Lokalisierung ermöglicht eine schnelle und gezielte Reaktion, indem z. B. automatisch eine Person gerufen und die helfende Person über programmierbare LED-Streifen zur gestürzten Person geführt wird. In Zukunft können aus den grundlegenden menschlichen Aktivitäten, dem Standort der Person und zusätzlichen Smart-Home-Sensoren übergeordnete Aktivitäten abgeleitet werden. Basierend auf diesen Aktivitäten kann sich die Wohnumgebung automatisch an die Anforderungen der Bewohner anpassen, z. B. die Lichtfarbe in Abhängigkeit von einer bestimmten Aktivität ändern.