ARISE
ARISE

The ARISE project will support European SMEs in the uptake of Artificial Intelligence applied to manufacturing, with a specific focus on the use of AI-enabled applications at the edge. The key objective for applications is a reduction of waste and carbon footprint while ensuring the resilient operation of manufacturing. The consortium will create an eco-system where the project’s AI experts will support experimenting SMEs and connect them to Digital Innovation Hubs and commercial companies to achieve real-world applications. Open Calls will allow SMEs to easily access AI expert competence through first stage assessments that identify the status and potential and through further proposals that support them in running pilot applications and validation experiments. The ambition of the project is to support more than 500 cases from SMEs and mid-caps on key AI applications at the edge. Support from the consortium will be complemented on security and connectivity by involving external resources in cybersecurity and IoT and on smart working environments by offerings on operator interfaces and collaborative robots.

AI-Observer

AI-Observer

Artificial Intelligence (AI) has a major impact on many sectors and its influence is predicted to expand rapidly in the coming years. One area where there is considerable untapped potential for AI is in the field of Earth Observation, where it can be used to manage large datasets, find new insights in data and generate new products and services. AI is one of the missing core areas that need to be integrated in the EO capabilities of the ERATOSTHENES Centre of Excellence (ECoE). AI-OBSERVER project aims to significantly strengthen and stimulate the scientific excellence and innovation capacity, as well as the research management and administrative skills of the ECoE, through several capacity building activities on AI for EO applications in the Disaster Risk Reduction thematic area, upgrading and modernising its existing department of Resilient Society, as well as its research management and administration departments, and assisting the ECoE to reach its long-term objective of raised excellence on AI for EO on environmental hazards. A close and strategic partnership between the ECoE from Cyprus (Widening country) and two internationally top-class leading research institutions, the German Research Centre for Artificial Intelligence (DFKI) from Germany and the University of Rome Tor Vergata (UNITOV) from Italy, will be achieved, leading to a research exploratory project on the application of AI on EO for multi-hazard monitoring and assessment in Cyprus. Moreover, CELLOCK Ltd. (CLK), the project’s industrial partner, will lead the commercialisation, exploitation and product development aspects of AI-OBSERVER and its exploratory project outputs. All outputs will be disseminated and communicated to stakeholders, the research community, and the public, assisting the ECoE to accomplish its exploitation goals, by creating strong links with various stakeholders from academia and industry in Cyprus and beyond, that ECoE will capitalise on, long after the end of the project.

Contact

Dr. Gerd Reis

OrthoSuPer

Bekanntmachung „Medizintechnische Lösungen für eine digitale Gesundheitsversorgung“

Verbundprojekt: Sichere Datenplattform und intelligente Sensorik für die Versorgung der Zukunft in der Orthopädie (OrthoSuPer)

Rücken- und Knieleiden sind eine Volkskrankheit und verursachen massive Kosten, sowohl für das Versicherungs- und Gesundheitswesen als auch den Arbeitsmarkt. Betroffene Patient:innen leiden nicht nur unter Schmerzen, sondern müssen sich langwierigen Diagnostik- und Therapieprozessen aussetzen, die wiederum an zahlreiche Behandlungstermine und Überweisungen zu den jeweiligen behandelnden Ärzt:innen und Physiotherapeut:innen geknüpft sind. In OrthoSuPer wird ein intelligentes Wearable sowie ein kamerabasiertes System für orthopädische Fälle wie Knie-Rehabilitation und bei orthopädietechnischen Versorgungen mit entsprechender Anbindung an eine Datenplattform entwickelt. Letztere richtet sich als Service in Form einer App oder Benutzeroberfläche sowohl an Ärzt:innen, Physiotherapeut:innen, Orthopädietechniker:innen als auch an Patient:innen. Durch die Integration einer mobilen Bewegungsanalyse mittels eines Wearables, sowie eines markerlosen kamerabasierten Systems in die digitale Prozesskette ergeben sich enorme Vorteile für Diagnostik, Monitoring des Krankheitsverlaufs – von Behandlungsfortschritten und Therapiezyklen, bis hin zum Therapieende. Darüber hinaus kann auch die Nachsorge in Form von Rehabilitation, Kontrollen und Prävention wesentlich verbessert werden. Patient:innen profitieren von einem wesentlich geringeren Aufwand sowie höchster Präzision in Bezug auf Diagnostik, Therapie und Nachsorge. Zusätzlich gewinnen sie maßgeblich an Kontrolle und Unabhängigkeit.
Der Forschungsbereich Augmented Vision fokussiert auf die Erforschung und Entwicklung neuartiger Ansätze der künstlichen Intelligenz und des maschinellen Lernens für die empirische Analyse von Bewegungen, unabhängig von dem Aufnahmemedium.
Das Konsortium vereint alle relevanten Bereiche wie Medizintechnik, Diagnostik, Industrie sowie Forschung in den Bereichen künstliche Intelligenz und Wearables.

Partners

  • Ottobock SE & Co. KGaA
  • SIMI Reality Motion Systems GmbH
  • Rheinland-Pfälzische Technische Universität
  • Routine Health GmbH
  • Orthopädisches Krankenhaus Schloss Werneck
ExtremeXP

ExtremeXP – EXPerimentation driven and user eXPerience-oriented analytics for eXtremely Precise outcomes and decisions

ExtremeXP will provide:

  • Specification and semantics for modelling complex user-experience-driven analytics.
  • Automated and scalable data management for complex analytics workflow.
  • Scenario-driven and opportunistic machine learning to design and develop AutoML mechanisms for performing scenario-based algorithm and model selection considering on-demand user-provided constraints (performance, resources, time, model options).
  • User-experience- and experiment-driven optimization of complex analytics to design the architecture of the framework for experiment-driven optimisation of complex analytics.
  • Transparent decision making with interactive visualisation methods to explore how augmented reality, visual analytics, and other visualisation techniques and their combinations can enhance user experience for different use cases, actors, domains, applications, and problem areas
  • Extreme data access control and knowledge management
  • Test and validation framework and application on different impactful real-life use cases to incorporate the ExtremeXP tools, methods, models, and software into a scalable, usable, and interoperable integrated framework for complex experiment-driven analytics

Partners

  1. Athena Research Center (coordinator) [Greece]
  2. Activeeon [France]
  3. Airbus Defense and Spaces SLC [France]
  4. BitSparkles [France]
  5. Bournemouth University [United Kingdom]
  6. CS-Group [France]
  7. Charles University of Prague [Czech Republic]
  8. Deutsches Forschungszentrum für Künstliche Intelligenz [Germany]
  9. Fundacio Privada I2cat, Internet I Innovacio Digital A Catalunya [Spain]
  10. Institute of Communications and Computer Systems [Greece]
  11. IDEKO [Spain]
  12. INTERACTIVE4D [France]
  13. INTRACOM TELECOM [Greece]
  14. IThinkUPC [Spain]
  15. MOBY X [Cyprus]
  16. SINTEF [Norway]
  17. Technical University of Delft [Netherlands]
  18. University of Ljubljana [Slovenia]
  19. Universitat Politècnica De Catalunya [Spain]
  20. Vrije Universiteit Amsterdam [Netherlands]

Contact

Dr. Mohamed Selim

Sharespace


SHARESPACE – Embodied Social Experiences in Hybrid Shared Spaces

SHARESPACE will demonstrate a radically new technology for promoting ethical and social interaction in eXtended Reality (XR) Shared Hybrid Spaces (SHS), anchored in human sensorimotor communication. Our core concept is to identify and segment social sensorimotor primitives and reconstruct them in hybrid settings to build continuous, embodied, and rich human- avatar experiences.

To achieve this, three interconnected science-towards-technology breakthroughs will be delivered: – novel computational cognitive architectures, – a unique self-calibrating body sensor network, and – a fully mobile spatial Augmented Reality (AR) and virtual human rendering.

We will create a library of social motion primitives and use them to design AI-based architectures of our artificial agents. SHARESPACE mobile capturing technologies combine loosely-coupled visual-inertial tracking of full body kinematic, hand pose and facial expression, incorporating novel neural encoding/decoding functionalities, together with local context-aware animations and highly realistic neural rendering.

Our technology will be iteratively tested in 2 Proofs-of-principles involving human and artificial agents interacting in SHS, and 3 real-world use case scenarios in Health, Sport and Art. We will demonstrate a fully functional prototype of SHARESPACE tailored to the agents’ personalized characteristics (gender, culture, and social dispositions). SHARESPACE will support community-building and exploitation with concrete initiatives, including (i) public engagement around our research and innovation, (ii) promoting high-tech innovation and early transfer to our deep-tech companies, as premises for the consolidation of human-centric and sovereign European market areas such Industry AR and SHS, eHealth and tele-Health. Our long-term vision is to bring XR to a radically new level of presence and sociality by reconstructing sensorimotor primitives that enable ethical, trusted and inclusive modes of social interaction.

SHARESPACE wird eine radikal neue Technologie zur Förderung ethischer und sozialer Interaktion in eXtended Reality (XR) Shared Hybrid Spaces (SHS) demonstrieren, die in der menschlichen sensomotorischen Kommunikation verankert ist. Unser Kernkonzept besteht darin, soziale sensomotorische Grundeinheiten zu identifizieren, zu segmentieren und sie in hybriden Umgebungen zu rekonstruieren, um kontinuierliche, verkörperte und reichhaltige Erfahrungen zwischen Mensch und Avatar zu ermöglichen.

Um dies zu erreichen, werden drei miteinander verbundene Wissenschaft-zu-Technologie-Durchbrüche erzielt: – neuartige computergestützte kognitive Architekturen, – ein einzigartiges selbstkalibrierendes Körpersensornetz und – eine vollständig mobile räumlich-eingebundene Augmented Reality (AR) und virtuelles Rendering von Menschen.

Wir werden eine Bibliothek sozialer Bewegungsprimitive erstellen und diese nutzen, um KI-basierte Architekturen für unsere künstlichen Agenten zu entwerfen. Die mobilen Erfassungstechnologien von SHARESPACE kombinieren eine lose gekoppelte visuell-inertiale Verfolgung der Ganzkörperkinematik, der Handhaltung und des Gesichtsausdrucks mit neuartigen neuronalen Kodierungs-/Dekodierungsfunktionen sowie lokale kontextabhängige Animationen und hochrealistisches neuronales Rendering.

Unsere Technologie wird iterativ in 2 Proofs-of-principles mit menschlichen und künstlichen Agenten, die in SHS interagieren, und 3 realen Anwendungsszenarien in den Bereichen Gesundheit, Sport und Kunst getestet. Wir werden einen voll funktionsfähigen Prototyp von SHARESPACE demonstrieren, der auf die persönlichen Eigenschaften der Agenten (Geschlecht, Kultur und soziale Neigungen) zugeschnitten ist. SHARESPACE wird das Community-Building mit konkreten Initiativen unterstützen, einschließlich (i) des öffentlichen Engagements rund um unsere Forschung und Innovation, (ii) der Förderung von High-Tech-Innovationen und des frühzeitigen Transfers zu unseren Deep-Tech-Unternehmen, als Voraussetzungen für die Konsolidierung von menschenzentrierten und souveränen europäischen Marktbereichen wie Industrie-AR und SHS, eHealth und Tele-Health. Unsere langfristige Vision ist es, XR auf eine radikal neue Ebene der Präsenz und Sozialität zu bringen, indem wir sensomotorische Primitive rekonstruieren, die ethische, vertrauenswürdige und inklusive Formen der sozialen Interaktion ermöglichen.

Partners

  • DEUTSCHES FORSCHUNGSZENTRUM FUR KUNSTLICHE INTELLIGENZ GMBH (DFKI), Germany
  • UNIVERSITE DE MONTPELLIER (UM), France
  • CRDC NUOVE TECNOLOGIE PER LE ATTIVITA PRODUTTIVE SCARL (CRdC), Italy
  • UNIVERSITAETSKLINIKUM HAMBURG-EPPENDORF (UKE), Germany
  • ALE INTERNATIONAL (ALE), France
  • UNIVERSITAT JAUME I DE CASTELLON (UJI), Spain
  • GOLAEM SA (GOLAEM), France
  • SIA LIGHTSPACE TECHNOLOGIES (LST), Latvia
  • CYENS CENTRE OF EXCELLENCE (CYENS), Cyprus
  • RICOH INTERNATIONAL BV (RICOH), Netherlands
  • INSTITUT NATIONAL DE RECHERCHE EN INFORMATIQUE ET AUTOMATIQUE (INRIA), France
  • ARS ELECTRONICA LINZ GMBH & CO KG (AE), Austria
  • FUNDACIO HOSPITAL UNIVERSITARI VALL D’HEBRON -INSTITUT DE RECERCA (VHIR), Spain

Contact

Prof. Dr. Didier Stricker

HERON

HERON – Self-referenced Mobile Collaborative Robotics applied to collaborative and flexible production systems

Im Rahmen des Projekts wird eine neuartige mobile, bildverarbeitungsgesteuerte Roboterlösung zur Automatisierung der Montage und Verschraubung von Endmontagen entwickelt, die derzeit manuell durchgeführt werden. Die Lösung umfasst eine Roboterzelle mit Echtzeit-Prozesssteuerung zur Gewährleistung der Prozessqualität, einschließlich einer digitalen Zwillingsplattform für eine genaue Prozesssimulation und Bahnoptimierung zur Minimierung der Rüstzeit und Erhöhung der Flexibilität. Für die Systemvalidierung wird ein Demonstrator gebaut, der Qualitätskontrollverfahren und die Verschraubung von Automobilteilen am Chassis eines Fahrzeugs durchführt.

Partners

Aldakin S.L (Spain)
Simumatik A.B (Sweden)
Visometry GmbH (Germany)

Contact

Dr.-Ing. Alain Pagani

HAIKU

HAIKU – Human AI teaming Knowledge and Understanding for aviation safety

Sowohl für einen sicheren Betrieb als auch für die Gesellschaft im Allgemeinen ist es von entscheidender Bedeutung, dass die Menschen, die derzeit für die Sicherheit in der Luftfahrt sorgen, mit diesen KI-Systemen arbeiten, sie schulen und überwachen können und dass künftige autonome KI-Systeme Urteile und Entscheidungen treffen, die für Menschen akzeptabel wären. HAIKU wird den Weg für eine menschenzentrierte KI ebnen, indem es neue KI-basierte “digitale Assistenten” und damit verbundene Praktiken für die Zusammenarbeit zwischen Mensch und KI, Anleitungen und Sicherheitsprozesse durch die Erforschung interaktiver KI-Prototypen in einem breiten Spektrum von Luftfahrtkontexten entwickelt.

Daher wird HAIKU:

  1. Entwurf und Entwicklung einer Reihe von KI-Assistenten, die in verschiedenen Anwendungsfällen demonstriert werden.
  2. Entwicklung umfassender Human Factors Design Guidance and Methods Capability (HF4AI) zur Entwicklung sicherer, effektiver und vertrauenswürdiger digitaler Assistenten für die Luftfahrt, unter Einbeziehung und Erweiterung bestehender State-of-the-Art Guidance.
  3. Durchführung von kontrollierten Experimenten mit hoher operationeller Relevanz – zur Veranschaulichung der Aufgaben, Rollen, Autonomie und Teamleistung des digitalen Assistenten in einer Reihe von normalen und Notfallszenarien
  4. Entwicklung neuer Sicherheits- und Validierungsmethoden für digitale Assistenten, um die frühzeitige Integration in Luftfahrtsysteme durch Luftfahrtakteure und Regulierungsbehörden zu erleichtern
  5. Erstellung von Leitlinien für sozialverträgliche KI im sicherheitskritischen Betrieb und für die Aufrechterhaltung der starken Sicherheitsbilanz der Luftfahrt.

Partners

1. Deep Blue Italy DBL
2. EUROCONTROL Belgium ECTL
3. FerroNATS Air Traffic Services Spain FerroNATS
4. Center for Human Performance Research Netherlands CHPR
5. Linköping University Sweden LiU
6. Thales AVS France TAVS
7. Institute Polytechnique de Bordeaux France Bordeaux INP
8. Centre Aquitain des Technologies del’Information Electroniques France CATIE
9. Deutsches Forschungszentrum für Künstliche Intelligenz Germany DFKI
10. Engineering Ingegneria Informatica SpA Italy ENG
11. Luftfartsverket, Air Navigation Service Provider Sweden Sweden LFV
12. Ecole Nationale De L’aviation Civile France ENAC
13. TUI Airways Ltd United Kingdom TUI
14. Suite5 Data Intelligence Solutions Limited Cyprus Suite5
15. Airholding SA Portugal EMBRT
16. Embraer SA Brazil EMBSA
17. Ethniko Kentro Erevnas Kai Technologikis Anaptyxis Greece CERTH
18. London Luton Airport Operations Ltd United Kingdom LLA

Contact

Dr.-Ing. Alain Pagani

CORTEX2

CORTEX2 – Cooperative Real-Time Experience with Extended reality

The consortium of CORTEX2 — “COoperative Real-Time EXperiences with EXtended reality” — is proud to announce the official start of this European initiative, funded by the European Commission under the Horizon Europe research and innovation programme.

The COVID-19 pandemic pushed individuals and companies worldwide to work primarily from home or completely change their work model in order to stay in business. The share of employees who usually or sometimes work from home rose from 14.6% to 24.4% between 2019 and 2021. In Europe, the proportion of people who work remotely went from 5% to 40% as a result of the pandemic. Today, all the signs are that remote work is here to stay: 72% of employees say their organization is planning some form of permanent teleworking in the future, and 97% would like to work remotely, at least part of their working day, for the rest of their career. But not all organizations are ready to adapt to this new reality, where team collaboration is vital.

Existing services and applications aimed at facilitating remote team collaboration — from video conferencing systems to project management platforms — are not yet ready to efficiently and effectively support all types of activities. And extended reality (XR)-based tools, which can enhance remote collaboration and communication, present significant challenges for most businesses.

The mission of CORTEX2 is to democratize access to the remote collaboration offered by next-generation XR experiences across a wide range of industries and SMEs.

To this aim, CORTEX2 will provide:

Full support for AR experience as an extension of video conferencing systems when using heterogeneous service end devices through a novel Mediation Gateway platform. – Resource-efficient teleconferencing tools through innovative transmission methods and automatic summarization of shared long documents. – Easy-to-use and powerful XR experiences with instant 3D reconstruction of environments and objects, and simplified use of natural gestures in collaborative meetings. – Fusion of vision and audio for multichannel semantic interpretation and enhanced tools such as virtual conversational agents and automatic meeting summarization. – Full integration of internet of things (IoT) devices into XR experiences to optimize interaction with running systems and processes. – Optimal extension possibilities and broad adoption by delivering the core system with open APIs and launching open calls to enable further technical extensions, more comprehensive use cases, and deeper evaluation and assessment.

Overall, we will invest a total of 4 million Euros in two open calls, which will be aimed at recruiting tech startups/SMEs to co-develop CORTEX2; engaging new use-cases from different domains to demonstrate CORTEX2 replication through specific integration paths; assessing and validating the social impact associated with XR technology adoption in internal and external use cases.

The first one will be published on October 2023 with the aim to collect two types of applications: Co-development and Use-case. The second one will be published on April 2024, targeting only Co-development type projects.

The CORTEX2 consortium is formed by 10 organizations in 7 countries, which will work together for 36 months. ​​The German Research Center for Artificial Intelligence (DFKI) leads the consortium.

Partners

1 – DFKI – Deutsches Forschungszentrum für Künstliche Intelligenz GmbH Germany
2 – LINAGORA – GSO France
3 – ALE – Alcatel-Lucent Entreprise International France
4 – ICOM – Intracom SA Telecom Solutions Greece
5 – AUS – AUSTRALO Alpha Lab MTÜ Estonia
6 – F6S – F6S Network Limited Ireland
7 – KUL– Katholieke Universiteit Leuven Belgium
8 – CEA – Commissariat à l’énergie atomique et aux énergies alternatives France
9 – ACT – Actimage GmbH Germany
10 – UJI – Universitat Jaume I De Castellon

Contact

Dr.-Ing. Alain Pagani

Fluently

Fluently – the essence of human-robot interaction

Fluently leverages the latest advancements in AI-driven decision-making process to achieve true social collaboration between humans and machines while matching extremely dynamic manufacturing contexts. The Fluently Smart Interface unit features: 1) interpretation of speech content, speech tone and gestures, automatically translated into robot instructions, making industrial robots accessible to any skill profile; 2) assessment of the operator’s state through a dedicated sensors’ infrastructure that complements a persistent context awareness to enrich an AI-based behavioural framework in charge of triggering the generation of specific robot strategies; 3) modelling products and production changes in a way they could be recognized, interpreted and matched by robots in cooperation with humans. Robots equipped with Fluently will constantly embrace humans’ physical and cognitive loads, but will also learn and build experience with their human teammates to establish a manufacturing practise relying upon quality and wellbeing.

FLUENTLY targets three large scale industrial value chains playing an instrumental role in the present andfuture manufacturing industry in Europe, that are: 1) lithium cell batteries dismantling and recycling (fullymanual); 2) inspection and repairing of aerospace engines (partially automated); 3) laser-based multi-techs forcomplex metal components manufacturing, from joining and cutting to additive manufacturing and surfacefunctionalization (fully automated in the equipment but strongly dependent upon human process assessment).

Partners

  • REPLY DEUTSCHLAND SE (Reply), Germany,
  • STMICROELECTRONICS SRL (STM), Italy,
  • BIT & BRAIN TECHNOLOGIES SL (BBR), Spain,
  • MORPHICA SOCIETA A RESPONSABILITA LIMITATA (MOR), Italy,
  • IRIS SRL (IRIS), Italy,
  • SYSTHMATA YPOLOGISTIKIS ORASHS IRIDA LABS AE (IRIDA), Greece,
  • GLEECHI AB (GLE), Sweden,
  • FORENINGEN ODENSE ROBOTICS (ODE), Denmark,
  • TRANSITION TECHNOLOGIES PSC SPOLKA AKCYJNA (TT), Poland,
  • MALTA ELECTROMOBILITY MANUFACTURING LIMITED (MEM), Malta,
  • POLITECNICO DI TORINO (POLITO), Italy,
  • DEUTSCHES FORSCHUNGSZENTRUM FUR KUNSTLICHE INTELLIGENZ GMBH (DFKI), Germany,
  • TECHNISCHE UNIVERSITEIT EINDHOVEN (TUe), Netherlands,
  • SYDDANSK UNIVERSITET (SDU), Denmark,
  • COMPETENCE INDUSTRY MANUFACTURING 40 SCARL (CIM), Italy,
  • PRIMA ADDITIVE SRL (PA), Italy,
  • SCUOLA UNIVERSITARIA PROFESSIONALE DELLA SVIZZERA ITALIANA (SUPSI), Switzerland,
  • MCH-TRONICS SAGL (MCH),Switzerland,
  • FANUC SWITZERLAND GMBH (FANUC Europe), Switzerland,
  • UNIVERSITY OF BATH (UBAH), United Kingdom
  • WASEDA UNIVERSITY (WUT), Japan

Contact

Dr.-Ing. Alain Pagani

HumanTech

HumanTech – Human Centered Technologies for a Safer and Greener European Construction Industry

Die europäische Bauindustrie steht vor drei großen Herausforderungen: Verbesserung der Produktivität, Erhöhung der Sicherheit und des Wohlbefindens der Arbeitskräfte und Umstellung auf eine grüne, ressourceneffiziente Industrie. Um diese Herausforderungen angemessen zu bewältigen, schlägt HumanTech einen auf den Menschen ausgerichteten Ansatz vor, der bahnbrechende Technologien wie Wearables für die Sicherheit und Unterstützung der Arbeiter und intelligente Robotertechnologien umfasst, die harmonisch mit den menschlichen Arbeitern koexistieren und gleichzeitig zum ökologischen Wandel der Branche beitragen können.

Unser Ziel ist es, bei all diesen Technologien bedeutende Fortschritte zu erzielen, die über den derzeitigen Stand der Technik hinausgehen und die Art und Weise, wie das Bauwesen durchgeführt wird, verändern können.

Zu diesen Fortschritten gehören:

Einführung von Robotern, die mit Bildverarbeitung und Intelligenz ausgestattet sind, damit sie autonom und sicher in einer sehr unstrukturierten Umgebung navigieren, mit Menschen zusammenarbeiten und einen semantischen digitalen Zwilling der Baustelle dynamisch aktualisieren können.

Intelligente, unauffällige Schutz- und Unterstützungsausrüstung für Arbeiter, die von Exoskeletten, die durch tragbare Körperpositions- und Belastungssensoren ausgelöst werden, bis hin zu tragbaren Kameras und XR-Brillen reicht, um die Arbeiter in Echtzeit zu lokalisieren und zu führen, damit sie ihre Aufgaben effizient und genau erfüllen können.

Eine völlig neue Art dynamisch-semantischer digitaler Zwillinge (DSDT) von Baustellen, die den aktuellen Zustand einer Baustelle auf geometrischer und semantischer Ebene detailliert simulieren, basierend auf einer erweiterten BIM-Formulierung (BIMxD)

Partners

Hypercliq IKE Technische Universität Kaiserslautern Scaled Robotics SL Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Sci-Track GmbH SINTEF Manufacturing AS Acciona construccion SA STAM SRL Holo-Industrie 4.0 Software GmbH Fundacion Tecnalia Research & Innovation Catenda AS Technological University of the Shannon : Midlands Midwest Ricoh international BV Australo Interinnov Marketing Lab SL Prinstones GmbH Universita degli Studi di Padova European Builders Confederation Palfinger Structural Inspection GmbH Züricher Hochschule für Angewandte Wissenschaften Implenia Schweiz AG Kajima corporation