DFG-geförderte Projekte

Überwachungsvideos treffen tragbare Kameras in der Cloud
Laufzeit: 15.03.2019 - 14.03.2022
gefördert von der Deutschen Forschungsgemeinschaft
Partner: The Hebrew University of Jerusalem, Israel
Department of Computer Science and Information Technology, College of Science & Technology, Palästina
In diesem Projekt soll ein System entwickelt werden, das Personen und deren Aktivitäten auf statischen und beweglichen Überwachungskameras erkennen und verfolgen kann. Eine besondere Herausforderung stellen dabei Situationen dar, in denen eine Person den Aufnahmebereich der Kameras vorübergehend verlässt und bei Betreten eines Aufnahmebereichs wiedererkannt werden muss. Tragbare Kameras erschweren das Problem durch ihre abrupten Bewegungsmuster, die Veränderung ihrer Position und häufige Änderungen der Lichtverhältnisse. Darüberhinaus forschen wir in diesem Projekt an der simultanen Kalibrierung aller Kameras im System und entwickeln die vorherige Forschung der Video-Zusammenfassung für Mehrkameraszenarien weiter. Die vom System verarbeiteten Videostreams werden schließlich in einer modernen Cloud-Infrastruktur bereitgestellt.

Ereignisgesteuerte Zusammenfassung von Überwachungsvideos in Adaptiven Kamera-Netzwerken
Laufzeit: 1.10.2015 - 30.09.2017
gefördert von der Deutschen Forschungsgemeinschaft
Partner: The Hebrew University of Jerusalem
Department of Computer Science and Information Technology, College of Science & Technology, Palästina
In diesem Projekt soll ein neuartiges System entwickelt werden, das sich durch Kombination mehrerer moderner Verfahren zu intelligenter Videoüberwachung auszeichnen wird.
Durch die Kombination von Video-Zusammenfassung, Video-Event-Erkennung sowie der adaptiven Netzwerk-Infrastruktur wird ein einheitliches und umfassendes Überwachungs-Tool entstehen.

SynergiesOfTrackingAndGait
Synergien von Gangerkennung und Personenverfolgung
Laufzeit: 1.3.2015 - 28.2.2018
gefördert von der Deutschen Forschungsgemeinschaft
In diesem Projekt sollen Synergien aus zwei Forschungsbereichen genutzt werden, um völlig neue Erkenntnisse sowie neue Algorithmen und Verfahren zur Personenerkennung aus realistischen Szenarien zu erlangen. Die diesem Vorhaben zugrundeliegenden Forschungsbereiche sind zum einen die Personenidentifizierung anhand der Gangart sowie zum anderen Verfahren zur Personenverfolgung aus Videodaten. Die Kombination beider Forschungsschwerpunkte und die Synergien zwischen den beiden Themen sollen ausgenutzt werden, um neuartige Sicherheitssysteme zu ermöglichen.

Projekte gefördert durch Ministerien

e-freedom: Grundrechtskonforme Gesichtserkennung im öffentlichen Raum
Laufzeit: 01.10.2018 – 30.09.2020
Gefördert durch das Bayerisches Staatsministerium für Wirtschaft, Energie und Technologie
Partner: UNISCON GmbH, TÜV SÜD Digital Service GmbH, Axis Communications GmbH
Zentrales Ziel des Projektes: Die angespannte Situation der öffentlichen Sicherheit legt immer mehr Videoüberwachung im öffentlichen Raum nahe. Sogar die technischen Möglichkeiten der Gesichtserkennung werden erwogen um als sogenannte „Gefährder“ bezeichnete Verdächtigte automatisch erkennen zu können. Die anlasslose Speicherung und Verarbeitung von solchen Daten ist datenschutzrechtlich allerdings umstritten. Schon das Wissen um potentielle Überwachung beeinflusst das Verhalten der betroffenen Bürger. Je niederschwelliger Ermittlungsmethoden genutzt werden können, desto stärker die Einwirkung auf das Verhalten der Bürger. Im Projekt wird untersucht, wie Gesichtserkennung im öffentlichen Raum technisch gestaltet werden muss, dass nur anlassbezogen solche Erhebungen durchgeführt werden können und sich der unbescholtene Bürger so frei fühlen kann, als wären keine Digitalkameras vorhanden. Das Gesamtziel des Vorhabens ist zu erforschen, ob eine grundrechtskonforme Videoüberwachung mit Gesichtserkennung im öffentlichen Raum technisch möglich ist. Die technischen Forschungsziele sind die Klärung der Systematik und der Wirksamkeit einer technischen Versiegelung sowie der Erforschung der Möglichkeiten, wie Fehler bei der Erkennung von Personen („false-positive“) so unwahrscheinlich gemacht werden können, dass die Gewinne an Datenschutz, die durch die Versiegelung erzielt werden, nicht durch die Offenbarungen, zu denen es bei Fehlalarmen kommt, wieder verloren werden.


VR-basiertes Ausbildungstool für Kampfmittel-beseitigung VR-basiertes Ausbildungstool für Kampfmittelbeseitigung
Laufzeit: 01.09.2018 - 31.10.2020
Gefördert durch das Bundesministerium für Wirtschaft und Energie (BMWi),
Zentrales Innovationsprogramm Mittelstand (ZIM)
Partner: EMC Kampfmittelbeseitigungs GmbH
In diesem Projekt soll ein VR-basiertes Ausbildungstool für die Simulation einer realitätsnahen Kampfmittelbeseitigung durch die Modellierung aktueller Entschärfungsmethoden und Zündmechanismen entwickelt werden. Als virtuelle Umgebung soll dabei eine CAVE (Cave Automatic Virtual Environment) eingesetzt und mit Multi-User-Kapazität versehen werden, so dass Instruktor und Auszubildender mit den Objekten und untereinander multimodal interagieren können. Dazu werden Methoden der technischen Realisierung verschiedener Perspektiven (Projektionen) auf die virtuelle Welt als auch Methoden der Multi-User-Interaktion verschiedener Präzisionslevel erforscht und angewendet. Die zu entwickelnden Methoden können dabei als Teil einer CAVE-zu-HMD-Infrastruktur oder einer Multi-User-Cave integriert werden.

Datengetriebene Wertschöpfung von Multimedia Content Datengetriebene Wertschöpfung von Multimedia Content
Laufzeit: 01.01.2017 - 30.09.2018
Gefördert durch das Bayerische Staatsministerium für Wirtschaft und Medien, Energie und Technologie
Partner: ProSiebenSat.1 Media SE and munich media intelligence
Zentrales Ziel des Projekts ist die Entwicklung von Methoden im Bereich der datengetriebenen Verarbeitung von Multimedia Content. Dies geschieht durch die Erforschung, Anwendung und Anpassung von Methoden aus dem Bereich der künstlichen Intelligenz und des Maschinellen Lernens mit dem Ziel sie für datengetriebene Anwendungen im Multimedia Umfeld einsetzen zu können. Viele zentrale Algorithmen in dem Bereich von Multimodaler Bild- und Videoverarbeitung befinden sich derzeit in einem wenig ausgereiften Entwicklungsstadium. Für einen Einsatz in einem wirtschaftlichen Kontext ist daher eine vorangestellte industrielle Forschungsphase unumgänglich. Die zu entwickelnden Methoden können potentiell jedoch diverse Use Cases unterstützen, welchen allen eine automatisierte Identifikation, Metadatenextraktion und algorithmische Verwertung von Big Data Multimedia Content zugrunde liegt.

EU-Projekte

iHEARu : Intelligent systems' Holistic Evolving Analysis of Real-life Universal speaker characteristics
FP7 ERC Starting Grant
Duration: 01.01.2014 - 31.12.2018

The iHEARu project aims to push the limits of intelligent systems for computational paralinguistics by considering Holistic analysis of multiple speaker attributes at once, Evolving and self-learning, deeper Analysis of acoustic parameters - all on Realistic data on a large scale, ultimately progressing from individual analysis tasks towards universal speaker characteristics analysis, which can easily learn about and can be adapted to new, previously unexplored characteristics.


HOL-I-WOOD PR : Holonic Integration of Cognition, Communication and Control for a Wood Patching Robot
EU FP7 STREP
Duration: 01.01.2012 - 31.12.2014
Partners: Microtec S.R.L, Italy; Lulea Tekniska Universitet, Sweden; TU Wien, Austria; Springer Maschinenfabrik AG, Austria; Lipbled, Slovenia; TTTech Computertechnik AG, Austria
 Repair and patching of resin galls and lose dead knots is a costly and disruptive process of inline production in timber industry. The human workforce involved in these production tasks is hard to be replaced by a machine. Another request for human recognition and decision-making capabilities, occurring at a previous stage of the production line, is the detection and classification of significant artefacts in wooden surfaces. This project proposes a holonic concept that subsumes automated visual inspection and quality/artefact classification by a skilled robot visually guided and controlled by non-linear approaches that combine manipulation with energy saving in trajectory planning under real-time conditions – enabling the required scalability for a wide range of applications. The interaction of these holonic sub-systems is implemented in agent technology based on a real-time communication concept while fusing multi-sensoric data and information at different spatial positions of the production line. The feasibility of inter-linking independent autonomous processes, i.e. agents for inspection, wood-processing, transport (conveying) to repair by a patching robot, is demonstrated by a pilot in a glue lam factory. A mobile HMI concept makes interaction with the machine park easy to control, reliable and efficient, while at the same time increasing the safety for workers within a potentially dangerous working environment of a glue lam factories and saw mills.


ASC-Inclusion: Integrated Internet-based Environment for Social Inclusion of Children with Autism Spectrum Conditions (ASC)
EU FP7 STREP
Duration: 01.11.2011 - 31.12.2014
Role: Coordinator, Coauthor Proposal, Project Steering Board Member, Workpackage Leader
Partners: TUM, University of Cambridge, Bar Ilan University, Compedia, University of Genoa, Karolinska Institutet, Autism Europe
The ASC-Inclusion project is developing interactive software to help children with autism understand and express emotions through facial expressions, tone-of-voice and body gestures. The project aims to create and evaluate the effectiveness of such an internet-based platform, directed for children with ASC (and other groups like ADHD and socially-neglected children) and those interested in their inclusion. This platform will combine several state-of-the art technologies in one comprehensive virtual world, including analysis of users' gestures, facial and vocal expressions using standard microphone and webcam, training through games, text communication with peers and smart agents, animation, video and audio clips. User's environment will be personalized, according to individual profile & sensory requirements, as well as motivational. Carers will be offered their own supportive environment, including professional information, reports of child's progress and use of the system and forums for parents and therapists.


ALIAS: Adaptable Ambient Living Assistant
AAL-2009-2-049
Duration: 01.07.2010 - 30.06.2013
Partners: Cognesys, Aachen; EURECOM, Sophia-Antipolis, France; Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.; Guger Technologies, Graz, Austria; MetraLabs, Ilmenau; PME Familienservice GmbH, Berlin; Technische Universität Ilmenau; YOUSE GmbH, Berlin
The objective of the project Adaptable Ambient LIving ASsistant (ALIAS) is the product development of a mobile robot system that interacts with elderly users, provides cognitive assistance in daily life, and promotes social inclusion by creating connections to people and events in the wider world. ALIAS is embodied by a mobile robot platform with the capacity to monitor, interact with and access information from on-line services, without manipulation capabilities. The function of ALIAS is to keep the user linked to the wide society and in this way to improve her/his quality of life by combating loneliness and increasing cognitively stimulating activities.


CustomPacker: Highly Customizable and Flexible Packaging Station for mid- to upper sized Electronic Consumer Goods using Industrial Robots
EU FP7 - ICT
Duration: 01.07.2010 - 30.06.2013
Partners: FerRobotics Compliant Robot Technology GmbH, Austria; Loewe AG, Kronach; MRK-Systeme GmbH, Augsburg; PROFACTOR GmbH, Steyr-Gleink, Austria; Tekniker, Eibar, Gipuzkoa, Spain; VTT, Finland
The project Highly Customizable and Flexible Packaging Station for mid- to upper sized Electronic Consumer Goods using Industrial Robots (CustomPacker) aims at developing and integrating a scalable and flexible packaging assistant that aids human workers while packaging mid- to upper sized and mostly heavy goods. Productivity will be increased by exploiting direct human-robot cooperation overcoming the need and requirements of current safety regularities. The main goal of CustomPacker is to design and assemble a packaging workstation mostly using standard hardware components resulting in a universal handling system for different products.


PROMETHEUS: Prediction and inteRpretatiOn of huMan bEhaviour based on probabilisTic structures and HeterogEneoUs sensorS
EU SEVENTH FRAMEWORK PROGRAMME THEME ICT-1.2.1
Duration: 01.01.2008 - 31.12.2010
The overall goal of the project is the development of principled methods to link fundamental sensing tasks using multiple modalities, and automated cognition regarding the understanding of human behaviour in complex indoor environments, at both individual and collective levels. Given the two above principles, the consortium will conduct research on three core scientific and technological objectives:
- sensor modelling and information fusion from multiple, heterogeneous perceptual modalities,
- modelling, localization, and tracking of multiple people,
- modelling, recognition, and short-term prediction of continuous complex human behavior.


SEMAINE: Sustained Emotionally coloured Machine-humane Interaction using Nonverbal Expression
EU FP7 STREP, Duration: 01.01.2008 - 31.12.2010
Partner: DfKI, Queens University Belfast (QUB), Imperial College of Science, Technology and Medicine London, University Twente, University Paris VIII, CNRS-ENST.
The Semaine project aims to build a Sensitive Artificial Listener (SAL), a multimodal dialogue system which can: interact with humans with a virtual character, sustain an interaction with a user for some time, react appropriately to the user's non-verbal behaviour. In the end, this SAL-system will be released to a large extent as an open source research tool to the community.


AMIDA, Augmented Multi-party Interaction - Distance Access
EU-IST-Programm


AMI, Augmented Multi-party Interaction
EU-IST-Programm


FGNet, European face and gesture recognition working group
EU-IST-Programm


m4, Multi-Modal Meeting Manager
EU-IST-Programm


SAFEE, Security of Aircraft in the Future European Environment
EU Sixth Framework Programme
Finished: 30.4.2008
Das Projekt widmet sich der Aufgabe, das volle Vertrauen in die Sicherheit der europäischen Luftfahrt wiederherzustellen.

Exzellenzinitiative

Das Exzellenzcluster CoTeSys (was für "COgnition for TEchnical SYstems" steht) beschäftigt sich mit der Thematik der Kognition für technische Systeme, beispielsweise für Fahrzeuge, Roboter oder ganzen Fabriken. Kognitive technische Systeme sind typischerweise mit künstlichen Sensoren sowie Stellgliedern ausgestattet und werden in physikalische Systeme eingebettet um mit der realen Welt interagieren zu können. Von anderen technischen Systemen unterscheidern sie sich vor allem dadurch, dass sie sowohl kognitive Kontrollfähigkeiten als auch Wahrnehmungseigenschaften aufweisen. mehr Einzelprojekte: RealEYE (1.08-12.09), ACIPE (11.06-12.09), JAHIR (11.06-12.10).


Graduate School of Systemic Neurosciences Im Rahmen der Exzellenzinitiative, die vom Wissenschaftsrat und der Deutschen Forschungsgemeinschaft (DFG) gefördert wird, hat die Ludwig-Maximilians-Universität München die Graduiertenschule für Systemische Neurowissenschaften (Graduate School of Systemic Neurosciences, GSN-LMU) gegründet. Die Graduiertenschule bietet klar strukturierte Programme für PhD und MDPhD-Kandidaten. Enge Beziehungen bestehen zum Elitenetzwerk des Bayerischen Master-Programms "Neuroscience". mehr

Industrieprojekte

Intelligent Support for Prospective Action Projekt im Rahmen von CAR@TUM zwischen der BMW Forschung und Technik GmbH, der TU München und der Universität Regensburg Laufzeit: 1.4.2008 – 31.3.2010 Die Zahl der Anzeigen, auf denen im Auto Informationen angezeigt werden können, erstreckt sich vom Kombiinstrument über das CID bis hin zum HeadUp Display (HUD). Diese drei großen Anzeigeflächen können sowohl für unmittelbare, mittelbare als auch für langfristige Assistenz verwendet werden. Durch die Einführung des HUDs kommt die Fragestellung auf, welche Informationen dort sinnvoll angezeigt werden können. Auch die Möglichkeiten eines digitalen Kombiinstruments oder alternativer Technologien wie LED-Bänder werden genutzt. Zusammen mit Daten aus Car2X – Kommunikation soll ein Assistenzsystem zur Unterstützung vorausschauender Fahrweise erstellt werden.


TCVC ITalking Car and Virtual Companion
Kooperationsprojekt mit Continental Automotive GmbH
Laufzeit: 01.06.2008 - 30.11.2008
TCVC provides an expertise on emotion in the car with respect to a requirement analysis, potential and near-future use-cases, technology assessment and a user acceptance study.

ICRI IIn-Car Real Internet
Kooperationsprojekt mit Continental Automotive GmbH
Laufzeit: 01.06.2008 - 30.11.2008
ICRI aims at benchmarking of internet browsers on embedded platforms as well as at development of an integrated multimodal demonstrator for internet in the car. Investigated modalities contain hand-writing and touch-gestures and natural speech apart from conventional GUI interaction. The focus lies on MMI development with an embedded realisation.

cUSER2 IcUSER 2
Kooperationsprojekt mit Toyota
Laufzeit: 08.01.2007 - 31.07.2007
The aim of the cUSER follow-up project is to establish a system to interpret human interest by combined speech and facial expression analysis basing on multiple input analyses. Besides the aim of improved highest possible accuracy by subject adaptation, class balancing strategies, and fully automatic segmentation by individual audio and video stream analysis, cUSER 2 focuses on real-time application by cost-sensitive feature space optimization, graphics processing power utilization, and high-performance programming methods. Furthermore, feasibility and real recognition scenarios will be evaluated.

cUSER IcUSER
Kooperationsprojekt mit Toyota
Laufzeit: 01.08.2005 - 30.09.2006
The aim of this project was an audiovisual approach to the recognition of spontaneous human interest.

NaDia INaDia (Natürlichsprachliche Dialogführung für die Nutzung komplexer Informationsdienste im Automobil)
Kooperationsprojekt mit der BMW AG und CLT Sprachtechnologie GmbH
Laufzeit: 1.9.2001 - 31.5.2003 und 1.4.2004 - 31.9.2005

IFERMUS, Fehlerrobuste multimodale Sprachdialoge
Kooperationsprojekt mit der BMW AG, DaimlerChrysler AG und der SiemensVDO Automotive.
Laufzeit: 01.03.2000-30.06.2003
Die primäre Intention des FERMUS-Projekts war die Lokalisierung und Evaluierung verschiedener Strategien zur dedizierten Analyse potentieller Fehlermuster, die bei der Mensch-Maschine- Interaktion mit Informations- und Kommunikationssystemen in Fahrzeugen der Oberklasse auftreten können. Hierfür kamen zahlreiche fortschrittliche, hauptsächlich erkennungsbasierte Eingabemodalitäten zum Einsatz (wie Interfaces zur Erkennung natürlicher Sprache und dynamischer Gesten). Insbesondere wurden emotionale Muster des Fahrers untersucht und zur kontextadäquaten Generierung von Dialogstrukturen integriert.


ADVIA IADVIA, Adaptive Dialogverfahren im Automobil
Kooperationsprojekt mit der BMW AG.
Laufzeit: 01.07.1998-31.12.2000

SOMMIA ISOMMIA, Speech-Oriented Man-Machine Interface in the Automobile
Kooperationsprojekt mit der SiemensVDO Automotive.
Laufzeit: 01.06.2000-30.09.2001

Andere Projekte

AGMA IAGMA, Automatic Generation of Audio Visual Metadata in the MPEG-7 Framework (BMBF, Subcontractor of FHG-IMK)

MUGSHOT IMUGSHOT, Face profile recognition using hybrid pattern recognition techniques (DFG)

Robuste Spracherkennung

IRobuste Analyse, Erkennung und Interpretation gesprochener Eingaben auf der Basis eines 1-stufigen stochastischen Decodierungsverfahrens
Laufzeit: 01.04.2001-31.05.2004
gefördert von der Deutschen Forschungsgemeinschaft