Wie können interaktive Systeme das Gefühl von Verbundenheit erhalten, wenn Menschen getrennt leben? Forschende der Hochschule Flensburg entwickeln gemeinsam mit Partnern ein modulares Konzept, das Alltagsroutinen in emotionale Signale übersetzt.
Wenn Menschen zusammen in einem Raum sind, teilen sie mehr als Worte: Routinen, Gesten, kleine Rituale. Geht diese Alltäglichkeit verloren – etwa, weil Familien, Freunde oder Partner weit voneinander entfernt leben, fehlt etwas, das durch klassische digitale Kommunikation kaum zu ersetzen ist. Das Forschungsprojekt „Miteinander - Mit interaktiver Technologie in Alltagssituationen Nähe auf Distanz ermöglichen“ greift genau solche Situationen auf: nicht, um klassische digitale Kommunikation zu ersetzen, sondern um ergänzende, beiläufige Signale zu ermöglichen, die Präsenz und Verbundenheit spürbar machen, auch wenn Menschen räumlich getrennt sind.
„Die Idee dahinter ist eigentlich einfach: Alltagsroutinen, die sonst nur im geteilten Raum sichtbar werden, etwa das Licht, das man für den spät Heimkehrenden anlässt, das Fenster, das beim Morgenkaffee geöffnet wird, das Kochen, können über Distanz in kleine Signale übersetzt werden“, erklärt Prof. Dr. Torben Wallbaum. So könnte ein Bewegungssensor in Wohnung A ein Licht in Wohnung B einschalten, ein Feuchtigkeitssensor beim Kochen ein kurzes akustisches Signal auslösen oder ein Farbwechsel am „Moon Cube“ eine bestimmte Stimmung vermitteln.
Wallbaum, Professur für Human-Computer Interaktion, arbeitet zusammen mit Chantal Butenberg, die mit ihrer Masterarbeit einen wichtigen Beitrag zum Projekt geliefert hat, für die Hochschule Flensburg an dem Verbundprojekt mit. Koordiniert wird es von der Universität Siegen.
„Was reizt Sie persönlich an der Verbindung von Informatik, Gestaltung und Zwischenmenschlichkeit?“
Chantal Butenberg: „Ich interessiere mich dafür, Systeme für Menschen zu gestalten — nicht nur das technisch Mögliche, sondern das, was tatsächlich hilft und bedienbar ist. Wenn ein System super technisch ist, aber niemand weiß, wie er es nutzt, nützt es nichts.“
Ein zentraler Beitrag von Butenbergs Masterarbeit war die Idee der offenen Verbundenheits-Toolbox. „Statt starrer Input/Output-Voreinstellungen erlaubt das System freie Kombinationen. Nutzer*innen können wählen, welche Sensorik mit welchen Ausgabemedien verknüpft wird, welche Bedeutung ein bestimmtes Signal trägt und wie emotional aufgeladen eine Verbindung sein soll — bis hin zur Verknüpfung mit einem gemeinsamen Lieblingssong“, sagte die Informatikerin und UX-Forscherin. Das eröffne die Möglichkeit, eine ganz eigene „Sprache der Verbundenheit“ zu entwickeln.
Dabei sollen die Menschen selbst ihr System gestalten. Statt fertiger, starrer Lösungen bekommen Teilnehmende modulare Technik-Bausteine: Bewegungs- oder Türkontakte, smarte Steckdosen, Leuchten, Temperatur- oder Feuchtigkeitssensoren, kleine Trigger-Buttons oder sogar Duft-Diffusoren. Diese Bausteine lassen sich in einer intuitiven App zu persönlichen „Verbundenheitserlebnissen“ verknüpfen.
Technisch greift das Projekt bewusst auf handelsübliche Smart-Home-Komponenten zurück — damit das System auch später leicht erweiterbar ist. Wer möchte, kann zusätzliche smarte Lampen oder Geräte aus dem Handel integrieren und in die eigenen Szenarien einbinden.
„Wie genau funktionieren die Prototypen — ist das automatisch oder manuell ausgelöst?“
Torben Wallbaum: „Beides: Es gibt automatische Auslöser, etwa Präsenz oder Feuchtigkeit beim Kochen, und bewusstere Aktionen wie Buttons. Entscheidend ist: die Menschen bestimmen selbst, was wie reagiert.“
Mit Freiheiten kommt auch Verantwortung — und Risiken. Nicht alle Nutzer*innen sind mit kreativen Gestaltungsmustern vertraut. Manche brauchen Beispiele, Inspiration oder Hilfestellung, um sinnvolle Verknüpfungen zu entdecken. Zugleich tauchen klassische Fragen zur Privatsphäre und Kontrollierbarkeit auf: Kameras oder permanente Audio-Feeds werden von den meisten potenziellen Nutzer*innen abgelehnt. Es geht also um Regulierbarkeit: Wer sieht was, wann und in welchem Detaillierungsgrad? Diese Fragen nach Regulierung und Vertrauen beschäftigen das Team ebenso wie technische Aspekte.
Das Team experimentiert deshalb auch mit Assistenz-Tools — etwa Chatbots, die durch Fragen zu Beziehungstyp und Gewohnheiten Vorschläge für sinnvolle Technik-Kombinationen machen. Ziel ist, Gestaltungskompetenz zu stützen, ohne die Autonomie oder emotionale Sicherheit der Beteiligten zu gefährden.
„Welche Bedenken tauchen im Bereich Video und Audio auf?“
Torben Wallbaum: „Viele finden die Idee einer 24/7-Kamera in der Wohnung inakzeptabel. Wenn aber die Sicht begrenzt, filterbar oder zeitlich limitiert ist, verändert sich die Wahrnehmung — dann kann es ein bewusst eingesetztes, regulierbares Medium sein.“
Eine Besonderheit von „Miteinander“ ist die Langzeit-Perspektive: Prototypen bleiben über Wochen oder Monate in Alltagsumgebungen, sodass Forschende nicht nur Erstreaktionen, sondern die Entwicklung der Nutzung beobachten können. Ein überraschender Befund zeigte sich in der Verteilung von Gestaltungsentscheidungen: Teilnehmende gehen unterschiedlich mit Verantwortung um — manche verhandeln die Regeln miteinander, andere geben die Gestaltungsbefugnis an die Partnerin oder den Partner ab. Solche sozialen Dynamiken sind für die Projektteams genauso aufschlussreich wie technische Nutzungsdaten.
„Gab es Aha-Momente bei Teilnehmenden?“
Chantal Butenberg: „Ja — wir dachten, jede*r will selbst entscheiden, welche Signale ausgelöst werden. Tatsächlich sagte eine Testperson: ‚Nee, entscheide du das einfach.‘ Das war für uns eine richtungsweisende Erkenntnis über Verantwortung und Vertrauen.“
Die Projektbeteiligten sehen breite Anwendungsmöglichkeiten: Für pflegende Angehörige, Menschen in ländlichen Regionen oder auch Palliativpatient*innen können einfache, nicht-aufdringliche Signale ein großer Zugewinn sein, gerade dann, wenn die Technik bereits im Haus vorhanden ist und nur um soziale Funktionen erweitert wird. Eine einfache „künstliche Pflanze“, die via Netz verbunden Nähe signalisiert, klingt vielleicht banal — in einer Klinik oder auf der Palliativstation kann sie jedoch viel bedeuten.
„Was soll von Miteinander bleiben?“
Torben Wallbaum: „Dass wir zeigen: Informatik kann Emotionen unterstützen — wenn wir die Menschen ins Zentrum stellen und ihnen die Mittel geben, ihre eigene Sprache der Verbundenheit zu schaffen.“
Informationen: Das Projekt "MIteinander"
Das Verbundprojekt „ Miteinander - Mit interaktiver Technologie in Alltagssituationen Nähe auf Distanz ermöglichen“, koordiniert von der Universität Siegen und mit Partnern wie der Hochschule Flensburg, dem Technikpartner Netspace (naymspace) und Industriepartnern, wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Es läuft von Juni 2023 bis Mai 2026 und hat ein Gesamtvolumen von rund 1,43 Millionen Euro; die Hochschule Flensburg ist mit etwa 242.500 Euro Fördersumme beteiligt.