VisIMon

“Vernetztes, intelligentes und interaktives System zur kontinuierlichen, perioperativen Überwachung und Steuerung einer Irrigationsvorrichtung sowie zum funktionellen Monitoring des unteren Harntraktes”

Die kontinuierliche Dauerspülung der Blase wird standardmäßig nach Operationen an Blase, Prostata, oder Nieren angewendet, um Komplikationen durch Blutgerinnsel zu vermeiden. Die Spülung sollte ständig überwacht werden, was jedoch im klinischen Alltag nicht zu leisten ist. Motivation von VisIMon ist es daher eine automatisierte Überwachung zu ermöglichen. Sie führt zu einer verbesserten Patientenversorgung bei gleichzeitiger Entlastung des Personals.

Ziel des Projekts VisIMon ist daher die Entwicklung eines kleinen, am Körper getragenen Moduls, wel-ches den Spülvorgang mit Hilfe unterschiedlicher Sensoren überwacht. Das System soll sich nahtlos an den als Standard etablierten Vorgang anlehnen. Durch den Zusammenschluss interdisziplinärer Partner aus Industrie und Forschung sollen die notwendigen Sensoren entwickelt und zu einem effektiven Überwachungssystem vereint werden. Moderne Kommunikationstechnologie ermöglicht die Entwick-lung völlig neuer Konzepte wie Medizingeräte mit einem Krankenhaus interagieren. Bei mehr als 200.000 Anwendungen im Jahr in Deutschland ist die Entwicklung nicht nur aus medizinischer, sondern auch aus wirtschaftlicher Sicht überaus attraktiv.

 

Partner :

  • Albert-Ludwigs-Universität Freiburg
  • Fraunhofer Gesellschaft zur Förderung der Angewandten Forschung E.V.
  • Lohmann & Birkner Health Care Consulting GmbH
  • Digital Biomedical Imaging Systems AG

 

Kontakt: Dipl.-Inf., Dr. Gerd Reis
E-Mail: reis@dfki.uni-kl.de
Telefon: +49 631 20575 2090
ENNOS

“Eingebettete Neuronale Netze für Optische Sensoren zur flexiblen und vernetzen Produktion”

 

Im Rahmen des Projekts ENNOS wird eine kompakte und energieeffiziente Farb- und Tiefenkamera entwickelt, also eine Kamera, die Farbbilder und gleichzeitig 3-dimensionale Informationen zum Abstand von Objekten liefert. Informationen zu Farbe und 3D-Daten werden mittels sogenannter „tiefer neuronaler Netze“ verknüpft, das sind sehr vereinfachte „künstliche Gehirne“: Es wird also „künstliche Intelligenz“ zur rechnergestützten Entscheidungsfindung genutzt.

Ziel ist ein besonders flexibles und leistungsfähiges optisches System, das viele neue Anwendungsmöglichkeiten im Bereich Produktion findet.

Die Auswertung geschieht über Field Programmable Gate Array-Chips (FPGA), das sind programmierbare Integrierte Schaltkreise, die sich an unterschiedliche Aufgaben anpassen lassen. Solche Prozessoren sind besonders flexibel und leistungsfähig, aber von begrenzter Kapazität.

Die Herausforderung liegt darin, die komplexe Struktur und Größe moderner neuronaler Netze effizient in eine passende und kompakte Hardware-Architektur umzuwandeln. Möglich wird dies durch Vorarbeit des Verbundkoordinators Bosch, der eine Vorreiterrolle für solche eingebetteten Lösungen einnimmt.

Unterstützt wird er dabei vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), das sich mit Entscheidungsalgorithmen sowie der Vereinfachung („Pruning“) von neuronalen Netzen beschäftigen wird.

Eine weitere wesentliche Innovation des Projekts ENNOS liegt in der Einführung von ultra-kompakten 3D-Kameras des Projektpartners PMD Technologies AG, der erfolgreich als erster Anbieter eine 3D-Kamera in ein Smartphone integriert hat. Für das Projekt ENNOS werden eine neue Beleuchtungseinheit sowie optische Komponenten für den Industrieeinsatz konzipiert. Dies soll ermöglichen, schwierige Beleuchtungsbedingungen sowie weitere Störeinflüsse aus dem Fertigungsumfeld (z. B. Kalibrierungsungenauigkeiten und Rauschen) zu kompensieren.

Um die große erwartete Leistungsfähigkeit des ENNOS-Konzepts zu demonstrieren, wird die neue (intelligente) Kameraplattform in drei verschiedenen Anwendungsszenarien bei den Verbundpartnern eingesetzt:

Bosch und das DFKI realisieren zusammen die Anwendungen „Ferndiagnose mit automatischer Unkenntlichmachung von Personen“ und „Intelligente Bilderkennung und -analyse mit dem Ziel rein maschinengebundener Produktion“. Die dritte Anwendung „Assistenzsystem für Bestandsaufnahmen“ in großen Anlagen wird von den Partnern ioxp GmbH und KSB AG realisiert.

Jedes dieser Szenarien adressiert bestehende Probleme, die durch bisherige Technologien nur bedingt oder gar nicht gelöst werden und daher ein hohes Innovationspotenzial bieten.

 

Partners :

 

  • Robert Bosch GmbH, Gerlingen-Schillerhöhe (Koordinator)
  • Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI), Kaiserslautern
  • KSB SE & Co. KGaA, Frankenthal
  • ioxp GmbH, Mannheim
  • pmdtechnologies ag, Siegen (assoziierter Partner)
  • ifm eletronic GmbH, Tettnang (assoziierter Partner)

 

Kontakt: Stephan Krauß
E-Mail: Stephan.Krauss@dfki.de
Telefon: +49 631 20575 3730

 

VIDETE

Generierung von Vorwissen mit Hilfe lernender Systeme zur 4D-Analyse komplexer Szenen

Motivation

Die künstliche Intelligenz beeinflusst aktuell viele Bereiche, so auch das maschinelle Sehen. Für Anwendungen in den Bereichen Autonome Systeme, Medizin und Industrie stellen sich dabei grundlegende Herausforderungen: 1) die Erzeugung von Vorwissen zur Lösung stark unterbestimmter Probleme, 2) die Verifizierung und Erklärung der von der KI berechneten Antwort und 3) die Bereitstellung von KI in Szenarien mit eingeschränkter Rechenleistung.

Ziele und Vorgehen

Ziel von VIDETE ist es, mit Hilfe von KI, Vorwissen durch Verfahren des maschinellen Lernens zu generieren und damit bisher unlösbare Aufgaben wie die Rekonstruktion dynamischer Objekte mit nur einer Kamera praktisch handhabbar zu machen. Durch geeignetes Vorwissen wird es leichter fallen allgemeine Szenen, zum Beispiel im Bereich Autonomer Systeme, mit Hilfe von Algorithmen zu analysieren und zu interpretieren. Weiter sollen Methoden entwickelt werden die es ermöglichen die berechneten Ergebnisse zu begründen bevor diese weiter benutzt werden. Im Bereich der Medizin wäre dies vergleichbar mit der Meinung eines Kollegen im Gegensatz zu der pauschalen Antwort aktueller KI-Methoden. Als Schlüsseltechnik wir die Modularisierung der Algorithmen angesehen, welche insbesondere auch die Verfügbarkeit von KI erhöhen wird. Modulare Komponenten lassen sich effizient in Hardware realisieren. Somit können Berechnungen (z.B. das Erkennen einer Geste) nahe am erzeugenden Sensor durchgeführt werden. Dies ermöglicht es im Gegenzug, semantisch angereicherte Informationen mit geringem Overhead zu kommunizieren, wodurch KI auch auf mobilen Geräten mit geringen Ressourcen verfügbar wird.

Innovationen und Perspektiven

Die künstliche Intelligenz findet in fast allen Bereichen des täglichen Lebens und der Arbeit Einzug. Die im Projekt VIDETE erwarteten Ergebnisse werden unabhängig von den definierten Forschungszenarien sein und können zum Fortschritt in vielen Anwendungsbereichen (Privatleben, Industrie, Medizin, Autonome Systeme, etc) beitragen.

 

Kontakt: Dipl.-Inf., Dr. Gerd Reis
E-Mail: reis@dfki.uni-kl.de
Telefon: +49 631 20575 2090
IMCVO

Inertial Motion Capture-system with Visual Odometry

IMCV project proposes a wearable sensory system, based on inertial motion capture device and visual odometry that can easily be mounted on a robot, as well as on the humans and delivers 3D kinematics in all the environments with an additional 3D reconstruction of the surroundings.

Its objective is to develop this platform for both Exoskeleton and bipedal robot benchmarking.

And it will develop a scenario-generic sensory system for human and bipedal robots and therefore two benchmarking platform will be delivered to be integrated into Eurobench facilities in Spain and Italy for validation tests.

It is planned to use recent advances in inertial measurement units based 3D kinematics estimation that does not use magnetometers and, henceforth, is robust against magnetic interferences induced by the environment or the robot.

This allows a drift-free 3D joint angle estimation of e.g. a lower body configuration or a robotic leg in a body-attached coordinate system.

To map the environment and to correct for possible global heading drift (relative to an external coordinate frame) of the magnetometer-free IMU system, it is planned to fuse the visual odometry stochastically with the IMU system. The recorded 3D point cloud of the stereo camera is used in the post-processing phase to generate the 3D reconstruction of the environment. Therefore a magnetometer-free wearable motion capture system with approximate environment mapping should be created that works for humans and bipedal robots, in any environment, i.e. indoors and outdoors.

To improve localization and measure gait events, a wireless foot pressure insoles will be integrated for measuring ground interaction. Together with the foot insole all the necessary data to reconstruct kinetics and kinematics will be delivered and fully integrated into Robot Operating System (ROS). A user interface will be developed for possible modifications of the skeleton. We also provide validation recordings with a compliant robot leg and with humans, including the computation of key gait-parameters.

 

Kontakt: Dr. Bertram Taetz
E-Mail: Bertram.Taetz@dfki.uni-kl.de
VIZTA

Vision, Identification with Z-sensing Technologies and key Applications

VIZTA project, coordinated by ST Micrelectronics, aims at developing innovative technologies in the field of optical sensors and laser sources for short to long-range 3D-imaging and to demonstrate their value in several key applications including automotive, security, smart buildings, mobile robotics for smart cities, and industry4.0. The key differentiating 12-inch Silicon sensing technologies developed during VIZTA are:

• Innovative SPAD and lock-in pixel for Time of Flight architecture sensors
• Unprecedent and cost-effective NIR and RGB-Z filters on-chip solutions
• complex RGB+Z pixel architectures for multimodal 2D/3D imaging For short-range sensors : advanced VCSEL sources including wafer-level GaAs optics and associated high speed driver.

These developed differentiating technologies allows the development and validation of innovative 3D imaging sensors products with the following highly integrated prototypes demonstrators:

• High resolution (>77 000 points) time-of-flight ranging sensor module with integrated VCSEL, drivers, filters and optics.
• Very High resolution (VGA min) depth camera sensor with integrated filters and optics.

For Medium and Long range sensing, VIZTA also adresses new LiDAR systems with dedicated sources, optics and sensors Technology developments of sensors and emitters are carried out by leading semiconductor product suppliers (ST Microelectronics, Philips, III-V Lab) with the support of equipment suppliers (Amat, Semilab) and CEA Leti RTO.

VIZTA project also include the developement of 6 demonstrators for key applications including automotive, security, smart buildings, mobile robotics for smart cities, and industry4.0 with a good mix of industrial and academic partners (Ibeo, Veoneer, Ficosa, Beamagine, IEE, DFKI, UPC, Idemia, CEA-List, ISD, BCB, IDE, Eurecat). VIZTA consortium brings together 23 partners from 9 countries in Europe: France, Germany, Spain, Greece, Luxembourg, Latvia, Sweden, Hungary, and United Kingdom.

 

Partners :

Universidad Politecnica Catalunya
Commisariat a l Energie Atomique et aux Energies Alternatives (CEA Paris)
Fundacio Eurecat
STMICROELECTRONICS SA
BCB Informática y Control
Alter Technology TÜV Nord SA
FICOMIRRORS SA
Philips Photonics GmbH
Applied Materials France SARL
SEMILAB FELVEZETO FIZIKAI LABORATORIUM RESZVENYTARSASAG
ELEKTRONIKAS UN DATORZINATNU INSTITUTS
LUMIBIRD
IEE S.A.
IBEO Automotive Systems GmbH
STMICROELECTRONICS RESEARCH & DEVELOPMENT LTD
STMICROELECTRONICS SA
IDEMIA IDENITY & SECURITY FRANCE
Beamagine S.L.
Integrated Systems Development S.A.
VEONEER SWEDEN AB
III-V Lab
STMICROELECTRONICS (ALPS) SAS
STMICROELECTRONICS GRENOBLE 2 SAS

 

Kontakt: Jason Rambach ; Bruno Mirbach
E-Mail: Jason.Rambach@dfki.de
Telefon: +49 631 20575 3740
Co2Team

 

“Cognitive Collaboration for Teaming”

Während einer Flugreise müssen Piloten komplizierte Situationen meistern – gleichzeitig sehen sie sich aufgrund der Menge und Art der verfügbaren Informationen mit einer zunehmenden Systemkomplexität konfrontiert. Co2Team (Cognitive Collaboration for Teaming) verfolgt die Idee, dass ein auf künstlicher Intelligenz basierendes System den Piloten durch den Einsatz von Cognitive Computing effizient unterstützen kann.

Hauptziel des Projekts ist es, einen technologischen und methodischen Übergang zu einem eigenständigeren Flugverkehr vorzuschlagen. Co2Team wird eine Roadmap für Cognitive Computing entwickeln, um den Piloten für den zukünftigen Luftverkehr zu unterstützen. Dieser Übergang basiert auf einem innovativen bidirektionalen Kommunikationsparadigma und einer optimierten gemeinsamen Kompetenz (Mensch-Maschine) unter Nutzung des Potenzials des kognitiven Rechnens (Pilotmonitoring, Umwelt- und Situationsverständnis, erweiterte Unterstützung, adaptive Automatisierung).

 

Partners :

 

  • Deutsche Lufthansa AG
  • Institut Polytechnique de Bordeaux (INP Bordeaux)

 

Kontakt: Dr.-Ing. Alain Pagani
E-Mail: Alain.Pagani@dfki.uni-kl.de
Telefon: +49 631 20575 3530

 

BIONIC

 

Fehlbelastungen des Stütz- und Bewegungsapparats, repetitive Bewegungsabläufe oder eine ergonomisch ungünstige Körperhaltung führen bei vielen Beschäftigten zu Beschwerden. Insbesondere ältere Arbeitnehmer leiden aufgrund ihrer langjährigen Tätigkeiten oftmals an Störungen des Muskel-Skelett-Systems oder anderen altersbedingten Einschränkungen. Im von der Europäischen Union (EU) geförderten Projekt BIONIC arbeitet das DFKI als Koordinator zusammen mit zehn internationalen Partnern an intelligenten Lösungen, die solche Gesundheitseinschränkungen reduzieren sollen.

Body Sensor-Netzwerk (BSN) analysiert Belastungen und korrigiert Fehlstellungen in Echtzeit

Durch ein Netzwerk von verschiedenen, am Körper getragenen Sensoren soll ein System entwickelt werden, das den gesundheitlichen Zustand von Arbeitern im Verlauf des Tages erfasst. Die Analyse wird auf einem intelligenten Chip am Körper stattfinden; die Rohdatenvorverarbeitung direkt an der „Quelle“ ermöglicht eine lokale Verarbeitung der Datenströme in Echtzeit. Neuartige Methoden der Risikoanalyse erlauben eine direkte Rückmeldung zu Belastungen und Fehlstellungen. Spielerische Anwendungen und eine Trainings-App motivieren dazu, einseitigen Belastungen entgegenzuwirken und geben personalisierte und medizinische Hilfestellungen für ein Training zuhause.

Weiterentwicklung der Anwendungen aus Vorgängerprojekt „EASY-IMP“

Ein Großteil der Partner hat bereits im EU Projekt „EASY-IMP“ erfolgreich an der Entwicklung eines BSN gearbeitet, das zur Analyse von Körperbewegungen kleine IMU-Sensoren verwendete (Beschleunigungs- oder Drehratensensoren), die in der Kleidung oder auf der Haut befestigt waren. Die leichte und modulare Bauweise des Systems wird in BIONIC weiterentwickelt, um eine einfachere Integration zu realisieren.

Biomechanische Modelle und Deep Learning zur ergonomischen Risikobewertung

Durch den Einsatz biomechanischer Modelle für altersbedingte und chronische Beeinträchtigungen werden Algorithmen zur ergonomischen Risikobewertung der physischen Belastungen entworfen. Zu den Eingangsparametern gehören Körperhaltung, Kräfte und Momente, sowie physiologische Parameter wie Herzfrequenz oder Körpertemperatur.

Verfahren, die auf objektiven sowie subjektiven Daten (Expertenkriterien) basieren, werden als Grundlage herangezogen und durch personalisierte Algorithmen ergänzt, für die Methoden des Deep Learning eingesetzt werden.Die erzeugten Daten werden entsprechend der EU Datenschutzrichtlinie gespeichert.

„BIONIC – Personalized Body Sensor Networks with Built-In Intelligence for Real-Time Risk Assessment and Coaching of Ageing workers, in all types of working and living environments “ ist ein interdisziplinäres Forschungsprojekt mit elf Partnern aus Medizin, Biotechnik, Elektronik, Informationstechnologie und Künstliche Intelligenz, bis hin zu Bau- und Fabrikarbeitern, die in Pilotversuchen die Ergebnisse validieren werden.

 

Partners :

  • Deutsches Forschungszentrum für Künstliche Intelligenz GmbH DFKI (Projektkoordination)
  • Technische Universität Kaiserslautern – wearHEALTH Group
  • Instituto de Biomechanica de Valencia, Spanien
  • Roessingh Research and Development, University of Twente, Niederlande
  • University of Piraeus – Systems Security Lab, Griechenland
  • Interactive Wear GmbH, München
  • Hypercliq IKE, Griechenland
  • ACCIONA Construcción S.A. – Spanien
  • Rolls-Royce Power Systems AG – Friedrichshafen
  • Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA), Dortmund
  • Fundación Laboral de la Construcción – Spanien

 

Website : https://bionic-h2020.eu/

 

Kontakt: Prof.Dr. Didier Stricker
E-Mail: Didier.Stricker@dfki.uni-kl.de
Telefon: +49 631 20575 3500
KI-Absicherung

 

Im Rahmen des Projektes „KI Absicherung“ werden erstmalig industrieübergreifend Methoden und Maßnahmen für die Absicherung von KI-basierten Funktionen für das automatisierte Fahren entwickelt. Es wird ein initialer und standardisierungsfähiger Industriekonsens angestrebt, der eine einheitliche und breit akzeptierbare Absicherung von KI basierten Wahrnehmungsfunktionen in der Automobilindustrie etabliert.

VISION UND MISSION DES PROJEKTS KI ABSICHERUNG

1. Vision
Wir wollen erreichen, dass hochautomatisierte Fahrzeuge mit abgesicherten KI-basierten Systemen ausgestattet werden können.

2. Mission
Im Rahmen des Forschungsprojektes KI Absicherung haben wir das Ziel, beispielhaft eine stringente und nachweisbare Argumentationskette aufzubauen, mit der sich KI-basierte Funktionsmodule (KI-Module) für das hochautomatisierte Fahren prinzipiell absichern und freigeben lassen.
Am Beispiel einer KI-basierten Funktion zur Fußgängererkennung werden wir Methoden, Maßnahmen und Metriken entwickeln, die messbare Leistungs- und Sicherheitsmaße liefern, die dazu geeignet sind, die Argumentationskette zur generellen Absicherung zu stützen. In Kommunikation mit Standardisierungsgremien und Zertifizierungsstellen soll mit Hilfe der im Projekt gewonnenen Erkenntnisse ein Industriekonsens bezüglich einer KI-Teststrategie aufgebaut werden.

Wir werden eine Prozesskette mit offenen standardisierten Schnittstellen zur skalierbaren und systematischen Generierung von qualitativ hochwertigen synthetischen Daten entwickeln und damit reproduzierbare Trainings- und Testdatensätze für unsere Algorithmen erzeugen.
Am konkreten Use Case der KI-basierten Perzeption von Fußgängern wollen wir konsensfähige Vorgehensweisen zu den folgenden Schwerpunkten erarbeiten und damit zur vorwettbewerblichen Vernetzung der verschiedenen Experten beitragen:

  • Entwicklung und Kombination von Methoden und Maßnahmen zur Bestimmung und Reduktion systematischer Unzulänglichkeiten der KI-Module.
  • Systematischer Aufbau einer Argumentationskette und Testmethodik zum Nachweis der hinreichenden Mitigation von systematischen Unzulänglichkeiten eines KI-Moduls.
  • Auswahl und Weiterentwicklung von KI-Algorithmen für die Fußgängerdetektion hinsichtlich ihrer Absicherbarkeit.
  • Synthetische Erstellung von Trainings- und Testdatensätzen zur Analyse und Bewertung von systematischen Unzulänglichkeiten KI-basierter Verfahren.

In der Entwicklung dieser Methoden, Maßnahmen und Metriken arbeiten wir auf dem aktuellen Stand von Wissenschaft und Technik. Dabei bestimmen die Teilprojekte des Projekts, welche Ansätze, Verfahren und Methoden zielführend sind. Dieser Auswahlprozess wird zur kontinuierlichen Verbesserung im Projektverlauf regelmäßig wiederholt. Die zeitlichen Abstände dieser Iterationen können je nach Themenschwerpunkt variieren.

Wir arbeiten fachübergreifend eng zusammen und stellen mit fünf TP-übergreifenden Prozessen sicher, dass die Anforderungen und Potentiale aller Projektpartner zielführend ineinandergreifen. Hierbei beziehen wir soweit wie möglich und sinnvoll auch projektexterne Partner aus den Schwesterprojekten der VDA-Leitinitiative und darüber hinaus mit ein. Unser Konsortium steht dabei für eine möglichst offene und transparente Arbeitsweise und Kommunikation nach innen und nach außen.

3. Partner

Automobilhersteller:
Volkswagen AG (Konsortialführer), AUDI AG, BMW Group, Opel Automobile GmbH

Zulieferer:
Continental Automotive GmbH, Hella Aglaia Mobile Vision GmbH, Robert Bosch GmbH, Valeo Schalter und Sensoren GmbH, Visteon Electronics Germany GmbH, ZF Friedrichshafen AG

Technologieprovider:
AID Autonomous Intelligent Driving GmbH, Automotive Safety Technologies GmbH, Intel Deutschland GmbH, Mackevision Medien Design GmbH, Merantix AG, Luxoft GmbH, umlaut systems GmbH, QualityMinds GmbH

Forschungspartner:
Fraunhofer IAIS (Stellv. Konsortialführer und Wissenschaftlicher Koordinator), Bergische Universität Wuppertal, Deutsches Forschungszentrum für Künstliche Intelligenz, Deutsches Zentrum für Luft- und Raumfahrt, FZI Forschungszentrum Informatik, TU München, Universität Heidelberg

Externe Technologiepartner:
BIT Technology Solutions GmbH, neurocat GmbH, understand ai GmbH

Projektmanagement:
European Center for Information and Communication Technologies – EICT GmbH

 

 

Kontakt:  Michael Fürst
E-Mail: David.Michael.Fuerst@dfki.de
Telefon: +49 631 20575 1073
Auroras

“Automotive Robust Radar Sensing”

The main objective of the project AuRoRaS is the research and development of intelligent methods to enable high-resolution automotive radar sensors of the latest generation algorithmically and software-wise for the first time for the purpose and requirements of highly automated to autonomous driving (level 4-5). The innovation consists in resolving various artifacts that radar sensors have physically caused by artificial intelligence methods.

 

 

Hauptziel des Projektvorhabens AuRoRaS ist die Erforschung und Entwicklung von intelligenten Methoden, um hochauflösende automotive Radarsensoren der neuesten Generation algorithmisch und softwareseitig erstmals für den Einsatzzweck und die Anforderungen des hochautomatisierten bis autonomen Fahrens (Level 4-5) zu befähigen. Die Innovation besteht darin verschiedene Artefakte, die Radar Sensoren physikalisch bedingt aufweisen, mit Methoden der Künstlichen Intelligenz aufzulösen.

 

 

Partner :

  • ASTYX GmbH (Dr. Georg Kuschk), Lise-Meitner-Straße 2a, 85521, Ottobrunn, DE
  • BIT Technology Solutions gmbH (Geschäftsleitung), Gewerbering 3, 83539 Pfaffing OT Forsting, DE

 

Kontakt: Jason Rambach ; Mahdi Chamseddine
E-Mail: Jason.Rambach@dfki.uni-kl.de
Telefon: +49 631 20575 3740
HyperCOG

 

 

The HyperCOG project proposes an innovative Cyber-Physical System (CPS) to cover industrial production needs in the current technological context of Industry 4.0. CPS is the technology that integrates computational and physical (devices, material, products, machinery and facilities) capabilities to provide useful information to operators. The system will have the ability to interact with humans and expand the capabilities of the physical world through computation, communication and control. The following 3 differentiating aspects will be assessed: (1) interconnection & interoperability among heterogeneous devices which ensure the real-time data acquisition from production environment and production commands feedback from the cyber space; (2) management, analysis of multi-source and heterogeneous big data (cognition systems); and (3) knowledge acquisition and learning methodology that supports intelligent decision-making to move towards the smart factory. In the HyperCOG project the CPS architecture will be validated in 3 pilots of 3 different manufacturing sectors such as steel, cement and chemical. The pilots will be located in Spain, Turkey and France.

The official website of the HyperCOG project is
https://www.hypercog.eu/

Partners :

  1. LORTEK S COOP ES
  2. FUNDACION TECNALIA RESEARCH & INNOVATION ES
  3. ECOLE SUPERIEURE DES TECHNOLOGIES INDUSTRIELLES AVANCEES France
  4. SIDENOR ACEROS ESPECIALES SL Spain
  5. CIMSA CIMENTO SANAYI VE TICARET ANONIM SIRKETI TR
  6. RHODIA OPERATIONS FR
  7. DEUTSCHES FORSCHUNGSZENTRUM FUR KUNSTLICHE INTELLIGENZ GMBH DE
  8. TECHNOLOGIE INITIATIVE SMARTFACTORY KL E.V. Germany
  9. MONDRAGON SISTEMAS DE INFORMACION SOCIEDAD COOPERATIVA ES
  10. UNIVERSITE PARIS XII VAL DE MARNE FR
  11. Cyber Services Plc HU
  12. EKODENGE MUHENDISLIK MIMARLIK DANISMANLIK TICARET ANONIM SIRKETI TR
  13. 2.-O LCA CONSULTANTS APS Denmark
  14. INSIGHT PUBLISHERS LIMITED UK

 

Kontakt: Dr.-Ing. Alain Pagani
E-Mail: Alain.Pagani@dfki.uni-kl.de
Telefon: +49 631 20575 3530