Künstliche Intelligenz

Die Zukunftslabore des ZDIN beschäftigen sich auf vielseitige Weise mit dem Thema Künstliche Intelligenz (KI); eine Technologie, die immer stärker in den Arbeitsalltag und in Arbeitsprozesse involviert wird. Künstliche Intelligenz analysiert umfangreiche Datensätze und leitet daraus konkrete Empfehlungen oder Informationen für den Menschen ab. Sei es die Auswertung medizinischer Proben oder die Analyse eines Produktionsverfahrens. Auf dieser Seite finden Sie Informationen darüber, welche Partner des ZDIN sich mit Künstlicher Intelligenz beschäftigen, welche Digitalisierungsprojekte Bezug zur Künstlichen Intelligenz haben und welche Arbeitspakete der Zukunftslabore das Thema aufgreifen.


Arbeitskreis KI

Künstliche Intelligenz beeinflusst bereits heute zahlreiche Lebens- und Arbeitsbereiche. Doch das Potenzial ist noch längst nicht ausgeschöpft. Um die Chancen Künstlicher Intelligenz für Niedersachsen auszubauen und Anwendungen in Zukunftsbranchen zu fördern, hat das Direktorium und die Koordinierungsstelle des ZDIN einen Arbeitskreis KI initiiert. Dieser trat am 26. Oktober 2020 erstmals zusammen, bestehend aus hochkarätigen Professor*innen aller sieben Zukunftslabore.

Ziel des Arbeitskreises KI war es, technologische Problemfelder der KI, die zukünftig insbesondere in Niedersachsen relevant sein werden, zu identifizieren. Aus den identifizierten Problemfeldern wollte der Arbeitskreis eine KI-Roadmap erstellen, die der Landesregierung als Handlungsempfehlung dienen sollte.

Während die Mitglieder des Arbeitskreises bereits an ihrem Positionspapier arbeiteten, veröffentlichten die niedersächsischen Wissenschafts- und Wirtschaftsministerien im Mai 2021 ihr „KI-Working Paper Niedersachsen”. Darin formulierten die Ministerien ihre Positionen für eine niedersächsische KI-Strategie. Niedersächsische Akteure, die sich mit Künstlicher Intelligenz beschäftigen, wurden dazu aufgefordert, ihre Sichtweise zum Working Paper beizusteuern. Diesem Aufruf kam der Arbeitskreis KI des ZDIN nach und formulierte konkrete Maßnahmen in Hinblick auf die Wissenschaft in Niedersachsen. Die Handlungsempfehlungen des Arbeitskreises flossen in die "Strategie Niedersachsens zur Künstlichen Intelligenz“ ein, die die Ministerien im Mai 2022 veröffentlichte. Insbesondere Teile des Abschnitts „Wissensbasierte KI und Wissenschaft – Treiber von Innovationen“ gehen maßgeblich auf die KI-Roadmap des Arbeitskreises zurück.

Die KI-Roadmap des ZDIN-Arbeitskreises steht unten zum Download bereit. Die KI-Strategie der Landesregierung befindet sich auf dieser Seite.

KI-Kompetenzen

Zahlreiche Forschungs- und Praxispartner des ZDIN verfügen über wertvolle Kompetenzen im Forschungs- und Einsatzbereich der Künstlichen Intelligenz. Die Forschungslandkarte listet alle Personen auf, die sich intensiv mit diesem Thema beschäftigen. Klicken Sie hier, um zu erfahren, welche Personen über Kenntnisse der Künstlichen Intelligenz verfügen.

Nutzung Karten

Möchten Sie Inhalte von Google Maps laden?
Mehr dazu finden Sie in unserer Datenschutzerklärung.

KI-Forschung im ZDIN

Die geförderten Arbeiten innerhalb der Zukunftslabore des ZDIN beschäftigen sich ebenfalls mit Künstlicher Intelligenz und integrieren die Technologien in ihre Forschungstätigkeiten. In mehreren Arbeitspaketen finden sich Ansätze zur Entwicklung oder zum Einsatz Künstlicher Intelligenz. Erfahren Sie mehr über die Einsatzmöglichkeiten in den sechs Bereichen Agrar, Energie, Gesundheit, Gesellschaft und Arbeit, Mobilität, Produktion und Wasser:

Filtern nach Zukunftslaboren:

AGRAR
AI-Test-Field: Entwicklung semantischer Umgebungswahrnehmung

Der Pflanzenbau erfordert Wissen in Verbindung mit intelligenten Verfahren.

Die Zusammenführung räumlich und zeitlich hochaufgelöster Daten (insbesondere basierend auf bildgebenden Sensorsystemen) und deren Interpretation sind wesentliche Innovationstreiber für die Realisierung nachhaltigerer Prozesse. Die Potenziale gehen dabei über ökonomische Zielgrößen oder Steigerung der Automatisierungsgrade vor dem Hintergrund des Fachkräftemangels hinaus: Sie sind wesentliche Werkzeuge für ökologische Verbesserungen. Beispiele hierfür sind die Einsparung von Ressourcen (z. B. Pflanzenschutzmittel), selektive Prozesse (Ernte, Einzelpflanzenbehandlung), die Integration von Blühregionen in Pflanzenbestände oder Mischkulturen. Bereits heute ist das Potenzial hochautomatisierter Maschinen mit einer Vielzahl von sensorbasierten Assistenzsystemen zur Verbesserung von Leistungsfähigkeit, Effizienz und der Reduktion von Umweltbelastungen erkennbar. Darüber hinaus kann der Mensch – in seiner Rolle als Maschinenbediener – zunehmend den Arbeitsprozess optimieren. Erfahrungen aus dem Automobilbereich können in Teilbereichen hilfreich sein, jedoch beschränken sich die, in diesem Zusammenhang definierten Autonomie-Level auf die Navigation, während die erhebliche Komplexität der landwirtschaftlichen Arbeitsprozesse auf dem Feld nicht berücksichtigt ist. Neben der Systemintegration in die landwirtschaftliche Praxis, stellt die fehlende Verfügbarkeit robuster Sensorsysteme ein maßgebliches Hindernis zur Markteinführung nachhaltiger autonomer Systeme im Pflanzenbau dar. Angesichts der Vielzahl variabler (Stör)-Größen auf dem Feld (Wachstumsstadien, Bodeneigenschaften, Unkräuter/Beikräuter, Staub, Sonnenlicht, Feuchtigkeit, Vibrationen, Temperatur, Maschineneinfluss oder Hindernisse) sind die Herausforderungen an die Sensoren erheblich. Daher stellen robuste Algorithmen zur Interpretation der Sensordaten im Sinne von Handlungsanweisungen, einen wesentlichen Flaschenhals bei der Zulassung autonomer Systeme im Pflanzenbau dar. Gerade die große Variabilität der Randbedingungen bietet jedoch vielversprechende Chancen für Methoden der Künstlichen Intelligenz (KI). In dem Projekt soll daher die KI zwischen – möglichst reproduzierbaren – Sensorrohdaten und der Umsetzung in Handlungsanweisungen mit unterschiedlichen Landmaschinen stehen. Zur Generierung einer – relativ zu landwirtschaftlichen Verfahren – hohen Reproduzierbarkeit (und Vergleichbarkeit) der Sensoren, wird ein Outdoor-Versuchsfeld mit Schienensystemen und Datenkommunikation aufgebaut. Die Rohdaten unter variablen Feld-, Wetter- und Pflanzenbedingungen stehen damit zusammen mit Metadaten zur Anwendung und Evaluation von KI-Methoden zur Verfügung. Wesentlich ist dabei die Maschinenunabhängigkeit der Dateninterpretation, die der Methodik ein erhebliches Transfer- und Praxispotenzial ermöglicht. Erfolgversprechende Sensor-Algorithmus-Kombinationen werden dann gezielt auf verschiedenen Maschinen der Landtechnik-Projektpartner (Pflanzenbau, Grünland) und einem autonomen System exemplarisch hinsichtlich des zusätzlichen Einflusses maschinenspezifischer Störgrößen evaluiert.

Ansprechperson
Prof. Dr. Arno Ruckelshausen
kontakt aufnehmen
Anwendungsfall KI im Pflanzenbau

Es wird ein Demonstrator für den datenbasierten nachhaltigen Pflanzenbau, anhand der selektiven mechanischen Unkrautregulierung realisiert.

Es wird ein Demonstrator realisiert für den datenbasierten nachhaltigen Pflanzenbau, anhand der selektiven mechanischen Unkrautregulierung basierend auf Multisensorsystemen mit einem Feldroboter der Antragsteller (Boni-Rob). Die komplexe (ggf. „Remote Farming“) Mensch-Roboter-Interaktion und die Datenflüsse werden auf dem Feld und als digitaler Zwilling demonstriert und auch hinsichtlich der Übertragbarkeit auf andere Verfahren evaluiert. Die Demonstration wird auf dem im Bau befindlichen „Agro-Technicum“ der Antragsteller durchgeführt.

Ansprechperson
Prof. Dr. Arno Ruckelshausen
Hochschule Osnabrück
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Jens Karl Wegener ( Julius Kühn-Institut )
  • Prof. Dr. Robby Andersson ( Hochschule Osnabrück )
  • Prof. Dr. Ludger Frerichs ( TU Braunschweig )
Anwendungsfall KI in der Tierhaltung

Es wird ein Demonstrator für die datenbasierten nachhaltige Tierhaltung realisiert.

Es wird ein Demonstrator für die datenbasierten nachhaltige Tierhaltung realisiert. Für mindestens einen Prozess (bspw. Fütterung oder sensorische Tierwohlanalyse) wird ein realer Demonstrator ggf. mit digitalem Zwilling erstellt. Hierbei können neue Sensorlösungen integriert werden. Die Interaktion mit dem Menschen erfolgt z.B. alarmbasiert oder kontinuierlich. Die Demonstration wird auf einem kooperierenden landwirtschaftlichen Betrieb durchgeführt.

Ansprechperson
Prof. Dr. Arno Ruckelshausen
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Robby Andersson ( Hochschule Osnabrück )
  • Prof. Dr. Chadi Touma ( Universität Osnabrück )
Autonomie-Levels landwirtschaftlicher Prozesse

Die Fokussierung auf den nachhaltigen Nutzen von Daten und deren geschützter Transparenz auf adaptive autonome Prozesse in der Landwirtschaft

Die Fokussierung auf den nachhaltigen Nutzen von Daten und deren geschützter Transparenz auf adaptive autonome Prozesse in der Landwirtschaft ergibt einen direkten Bezug zum Thema „Autonomie-Levels“. Diese wurden im Automotive-Bereich für die Navigation entwickelt. Das „autonome Arbeiten“ stellt jedoch eine deutlich über die Navigation hinausgehende Herausforderung dar. Durch die erarbeiteten Konzepte, Ideen, Lösungen und Demonstratoren wird diese Thematik adressiert, so dass das Projekt hilfreiche Lösungsansätze zur Entwicklung und Definition von Autonomie-Levels landwirtschaftlicher Arbeitsprozesse entwickelt werden. Dies bietet Potenziale für die zukünftige konstruktive Weiterentwicklung dieser wichtigen Voraussetzung für den Praxiseinsatz.

Ansprechperson
Prof. Dr. Arno Ruckelshausen
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Robby Andersson ( Hochschule Osnabrück )
  • Prof. Dr. Chadi Touma ( Universität Osnabrück )
Cognitive Weeding: KI-basiertes Unkraut- und Beikrautmanagement

Das Projekt „Cognitive Weeding“ entwickelt ein Konzept, um Un- und Beikräuter voneinander zu unterscheiden.

Ziel ist es, den Einsatz von Pflanzenschutzmitteln zu senken oder gänzlich zu vermeiden bzw. die mechanische Unkrautregulierung zu erleichtern. Beikräuter werden so gezielt geschützt, um Lebensraum und Nahrungsquellen für Insekten und Bienen zu bieten. Das Beikrautmanagement soll mittels Künstlicher Intelligenz (KI) und Sensortechnologien an die Kulturpflanzenart und über Anbauperioden hinweg angepasst werden. Dazu werden die wichtigsten Kulturarten identifiziert und die häufigsten Beikräuter bzw. Unkräuter auf ihren potenziellen Nutzen und Schaden hin analysiert. Aus den pflanzenbaulichen Überlegungen werden in einem zweiten Schritt konkrete Anforderungen an die KI und Sensortechnik abgeleitet. Auf Basis von Sensorerfassungen, automatisierter Pflanzenbestimmungen und anderen gesammelten Daten, wie etwa dem Witterungsverlauf und Standorteigenschaften, kann ein KI-System kontextspezifische Empfehlungen zur Unkrautregulierung ableiten. Das Projekt bereitet die konkrete Entwicklung der KI-Anwendung vor.

Ansprechperson
Prof. Dr. Arno Ruckelshausen
kontakt aufnehmen
Cross-Industry Transformation in Agriculture and Health (CITAH)

"Zu den für eine Förderung durch die Europäische Union vorgesehenen Innovationszentren gehört das niedersächsische Vorhaben „Cross-Industry Transformation in Agriculture and Health“ – kurz CITAH – das durch das Informatikinstitut OFFIS in Oldenburg und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Osnabrück gemeinsam mit den Universitäten Oldenburg und Osnabrück sowie den Netzwerkpartnern GewiNet und Agrotech Valley Forum eingerichtet wird.

"Zu den für eine Förderung durch die Europäische Union vorgesehenen Innovationszentren gehört das niedersächsische Vorhaben „Cross-Industry Transformation in Agriculture and Health“ – kurz CITAH – das durch das Informatikinstitut OFFIS in Oldenburg und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Osnabrück gemeinsam mit den Universitäten Oldenburg und Osnabrück sowie den Netzwerkpartnern GewiNet und Agrotech Valley Forum eingerichtet wird. CITAH baut auf den erfolgreichen Arbeiten des 2019 vom Land Niedersachsen gegründeten Zentrums für Digitale Innovation in Niedersachsen (ZDIN) sowie des niedersächsischen Innovationsverbunds SmartHybrid auf. Durch die erstmalige Verknüpfung der zwei bedeutenden niedersächsischen Wirtschaftszweige erwarten die Initiatoren wertvolle Synergien für beide Branchen – und Lerneffekte für den breiten Mittelstand. CITAH wird Dienstleistungen in vier Bereichen anbieten: • Weiterbildung zu technologischen Kompetenzen, insbesondere in den Bereichen Künstliche Intelligenz, Interoperabilität und Cybersicherheit. • Innovationslabore an den Standorten Oldenburg und Osnabrück für prototypische „Test-before-Invest“-Anwendungen. • Beratung bei der Finanzierung von Digitalisierungsaktivitäten • Vernetzung der Agrar- und Ernährungswirtschaft sowie des Gesundheitswesens mit Unternehmen aus dem Bereich der Informationstechnik zur Bildung strategischer Allianzen und Ökosysteme. Die European Digital Innovation Hubs (EDIH) werden als zentrale Anlaufstellen fungieren, die Unternehmen dabei unterstützen, dynamisch auf die digitalen Herausforderungen zu reagieren und wettbewerbsfähiger zu werden.Durch den Zugang zu technischem Fachwissen und Experimenten sowie die Möglichkeit, vor Investitionen zu testen, helfen EDIH Unternehmen bei der Verbesserung von Geschäfts-/Produktionsprozessen, Produkten oder Dienstleistungen mithilfe digitaler Technologien. Sie bieten auch Innovationsdienstleistungen wie Finanzierungsberatung, Schulung und Kompetenzentwicklung an, die für einen erfolgreichen digitalen Wandel erforderlich sind. "

Ansprechperson
Prof. Dr. Andreas Hein
Carl von Ossietzky Universität Oldenburg
, OFFIS Institut für Informatik
Abteilung Assistenzsysteme und Medizintechnik , FuE-Bereich Gesundheit
kontakt aufnehmen
Beteiligte
  • Dr. Marco Eichelberg ( Carl von Ossietzky Universität Oldenburg )
Neue Pflanzenbausysteme

Die Digitalisierung ermöglicht eine Veränderung im Sinne einer den Standorteigenschaften und den Potenzialen angepassten Bewirtschaftung,

Die Digitalisierung ermöglicht eine Veränderung heutiger Produktionssysteme im Sinne einer den Standorteigenschaften und den Potenzialen angepassten Bewirtschaftung, indem Digitalisierung und Autonomisierung genutzt werden. Es wird die Anwendbarkeit von Produktionssystemen kleinräumiger Teilflächen („Spot-Farming“) in der Praxis unter verschiedenen Rahmenbedingungen theoretisch untersucht und anschließend in der Praxis erprobt. Für die Bewirtschaftung dieser kleinen Strukturen sind autonome Kleinmaschinen und eine Vielzahl an hochaufgelösten lokalen Daten notwendig, um die Anforderungen der Kulturpflanzen bedarfsgerecht zu erfüllen. Hiermit wird zu einer nachhaltigen Effizienzsteigerung in der Landwirtschaft beigetragen. Die Komplexität eines solchen neuen Pflanzenbausystems des Spot-Farming verknüpft hierbei Problemstellungen hinsichtlich Datenmanagement und -interpretation, Automatisierung und Autonomie sowie die Auswirkungen der Digitalisierung auf Ökologie, Ökonomie und Gesellschaft.

Ansprechperson
Prof. Dr. Jens Karl Wegener
Julius Kühn-Institut
kontakt aufnehmen
ENERGIE
DERIEL De-Risking Electrolyseur

DERIEL (De-risking Elektrolyseur) bildet das Bindeglied zwischen den beiden Aspekten der Serienproduktion von Wasserelektrolyseuren und der Anwendung in Serie produzierter Wasserelektrolyseure im industriellen Umfeld.

DERIEL (De-risking Elektrolyseur) bildet das Bindeglied zwischen den beiden Aspekten der Serienproduktion von Wasserelektrolyseuren und der Anwendung in Serie produzierter Wasserelektrolyseure im industriellen Umfeld. Voraussetzung für eine zuverlässige Serienproduktion und einen reibungsarmen Markthochlauf ist ein grundlegendes Verständnis der Degradations-, Fehler- und Schnittstellenmechanismen auf allen technischen und ökonomischen Ebenen. In DERIEL wird die technische Ebene grundlegend bezogen auf den Betrieb des Elektrolyseurs bis zur Einzelmodulgröße auf einer Skala von 0.75 – 1 MW untersucht. Dabei werden alle Komponenten des Elektrolyseurs beginnend von den Elektrokatalysatoren, über Membranelektrodeneinheit (MEA – Membrane Elektrode Assembly), Zelle, Zellstapel bis hin zur elektrolyseurspezifischen Verfahrenstechnik betrachtet. Ein ergänzendes Projekt zur Nutzung der Ergebnisse entlang einer ganzen Wertschöpfungskette (Strom zu Kerosin, Gesamtelektrolyseurgröße 8 MW) befindet sich in Planung (DERIVA – De-risiking Value Chain). Die Skalierung des Elektrolyseurs in die Anwendung erfolgt ausschließlich durch Parallelisierung von Einzelmodulen mit angepasster Gesamtverfahrenstechnik (8 Stück). Diese Art der Qualifizierung wird allgemein im industriellen Bereich als De-risking bezeichnet. Im Automobilbau werden derartige Vorserienmodelle Erlkönige genannt, die sich vor allem durch eine umfassende Sensorausstattung auszeichnen.

Ansprechperson
Prof. Dr.-Ing. Astrid Nieße
kontakt aufnehmen
Identifikation und Definition relevanter Quartiersversorgungsszenarien und Anwendungsfälle für die Untersuchung von IKT-Abhängigkeiten

Das Zukunftslabor Energie (ZLE) als Teil des ZDIN fokussiert die Digitalisierung des Energiesystems vor dem Hintergrund der Energiewende.

Das Zukunftslabor Energie (ZLE) als Teil des ZDIN fokussiert die Digitalisierung des Energiesystems vor dem Hintergrund der Energiewende. Hierbei werden zwei Ziele verfolgt: Zum einen die Erforschung und Entwicklung digitalisierter Energiesysteme und zum anderen die Digitalisierung der Energiesystemforschung und -entwicklung. Das Zusammenspiel digitaler Technologien mit unterschiedlichen Akteuren des Energiesystems innerhalb eines Quartiers steht dabei im Fokus. Die digitale Transformation von Energiesystemen bezieht sich dabei nicht nur auf IT, sondern auch auf die Informationsverarbeitungsprozesse, die Datenorganisation, das Datenmanagement, die Organisation der Akteure, Menschen als Komponenten der Energiesysteme und energiewirtschaftliche Geschäftsmodelle. Ein ebenfalls wichtiger Aspekt liegt ist der Forschungsbereich KI, zu dem im ZLE folgende Aspekte erforscht werden: -Verteilt-kooperatives Lernen von Gebotsstrategien -Agentenbasierte Optimierung dezentraler Flexibilität für das Engpassmanagement -Koordinierte Regelleistungsbereitstellung aus batterieelektrischen Fahrzeugen

Ansprechperson
Prof. Dr. Astrid Nieße
kontakt aufnehmen
GESELLSCHAFT & ARBEIT
Algorithmic Management: Formen und Prozesse des Organisierens in digitalen Kulturen

Kenntnisse über tatsächliche Praktiken rund um datengetriebene Entscheidungs- und Entwicklungsprozesse zur so genannten „Personalisierung“

In der aktuellen mediensoziologischen Literatur wird vor allem die soziale Macht von Algorithmen sowie die Regulierungsmacht von Algorithmen erörtert. Kenntnisse über tatsächliche Praktiken rund um datengetriebene Entscheidungs- und Entwicklungsprozesse zur so genannten „Personalisierung“ von digitalen Produkten sind jedoch gering. Diese Arbeit trägt dazu bei die Annahmen, Bewertungen, Hoffnungen und Ängste, welche dem so genannten „Algorithmic Management“ eingeschrieben sind, herauszuarbeiten, um ihren Einfluss auf Entscheidungen mit und über Daten besser verstehen zu können. Dies ermöglicht neue Perspektiven auf brennende politischen Fragen nach Anonymität sowie Diskriminierungen in Zeiten der vermehrten Datengetriebenheit zu erarbeiten. Dem wird sich in dieser Arbeit durch ethnographische Forschung mit Entwicklerteams von nachbarschaftsbezogenen Technologien gestellt, wobei das Thema der Nachbarschaft sowohl auf der inhaltlichen Ebene wie bei Social Media Nachbarschaftsservices eine Rolle spielt, wie auch auf der technischen Ebene als Model in den Data Science in den Blick genommen wird.

Ansprechperson
Prof. Dr. Andreas Bernard
kontakt aufnehmen
Erklärbarkeit und Risikoprognose multirelationaler Modelle mit einer Anwendung im Leasing-Geschäft

Geschäftsprozesse aus dem Bereich des Fahrzeug Leasings sollen durch den Einsatz von KI und Maschinellem Lernen automatisiert werden.

Geschäftsprozesse aus dem Bereich des Fahrzeug Leasings sollen durch den Einsatz von KI und Maschinellem Lernen zunächst grundlegend unterstützt bzw. automatisiert werden. Gemeinsam mit Praxispartnern sollen dafür dann Anforderungen an die Akzeptanz dieser Modelle entwickelt und Erklärungen und Risikoprognosen identifiziert werden, die sich akzeptanz-fördernd auswirken. Basierend auf den Anforderungen werden neue Methoden des Maschinellen Lernens entwickelt, die die Vorhersagen der Zielmodelle erklären können bzw. um geeignete Risikoprognosen erweitern. Insb. ein Szenario-basierter Ansatz, der für Vorhersagen in der Zeit Entwicklungen in der Zeit, etwa Preise, Nachfragen etc. in greifbaren Szenarien modelliert wird hier anvisiert. Die so entwickelten Methoden sollen dann mittels Experimenten hinsichtlich der Effekte auf die Akzeptanz bei Mitarbeitern bewertet werden. Auf Grundlage dieser Evaluation soll für mindestens einen weiteren Anwendungsfall aus einer anderen Domäne angewendet werden um somit die Verallgemeinerbarkeit nachzuweisen.

Ansprechperson
Prof. Dr. Lars Schmidt-Thieme
kontakt aufnehmen
HAISEM-LAB: KI-Labor zur Entwicklung von performanten KI-Anwendungen

HAISEM-Lab ist ein Qualifizierungsprojekt für Mitarbeiter der Industrie und wird vom Forschungszentrum L3S und vom Institut für Mikroelektronische Systeme der Leibniz Universität Hannover, wie auch von der Software Systems Engineering Gruppe der Universität Hildesheim durchgeführt.

HAISEM-Lab ist ein Qualifizierungsprojekt für Mitarbeiter der Industrie und wird vom Forschungszentrum L3S und vom Institut für Mikroelektronische Systeme der Leibniz Universität Hannover, wie auch von der Software Systems Engineering Gruppe der Universität Hildesheim durchgeführt. Schwerpunkt ist die Entwicklung von KI-Anwendungen unter Verwendungen von Software Engineering Methoden und Spezialhardware zur Beschleunigung der Berechnung.

Ansprechperson
Prof. Dr. techn. Wolfgang Nejdl
kontakt aufnehmen
Maschinelles Lernen Fähigkeiten für IKT-Fachleute

Das Maschinelle Lernen (ML) ist eine Untergruppe der Künstlichen Intelligenz (KI), die in verschiedenen wirtschaftlichen und sozialen Realitäten erheblich an Bedeutung gewonnen hat und zur Grundlage für eine Reihe von technologischen Entwicklungen wie automatisierte Übersetzungssysteme, medizinische Bildanalyse und virtuelle Assistenten geworden ist. ML wurde aus der Mustererkennung geboren, hat sich aber weiterentwickelt und bezieht sich auf die Verwendung von Daten & Lernalgorithmen, um Modelle zu erstellen, Ergebnisse vorherzusagen und Entscheidungen mit einem Minimum an menschlicher Intervention zu treffen.

Das Maschinelle Lernen (ML) ist eine Untergruppe der Künstlichen Intelligenz (KI), die in verschiedenen wirtschaftlichen und sozialen Realitäten erheblich an Bedeutung gewonnen hat und zur Grundlage für eine Reihe von technologischen Entwicklungen wie automatisierte Übersetzungssysteme, medizinische Bildanalyse und virtuelle Assistenten geworden ist. ML wurde aus der Mustererkennung geboren, hat sich aber weiterentwickelt und bezieht sich auf die Verwendung von Daten & Lernalgorithmen, um Modelle zu erstellen, Ergebnisse vorherzusagen und Entscheidungen mit einem Minimum an menschlicher Intervention zu treffen. Die rasante Expansion von ML, insbesondere in datengesteuerten Branchen (z. B. Banken, Einzelhandel), treibt die Nachfrage nach qualifizierten IKTFachkräften in der EU. Zwar ist die Nachfrage nach ML-Fachkräften besonders hoch, doch das Angebot hinkt stark hinterher. MACHINA ist ein Erasmus KA2-Projekt, das darauf abzielt, dieses MLFähigkeitsdefizit zu beheben, indem es die Relevanz von Continuing & Initial VET-Angeboten in diesem Sektor erhöht, um sicherzustellen, dass die bestehenden und zukünftigen IKT-Arbeitskräfte über die MLspezifischen Kompetenzen und transversale Fähigkeiten verfügen, die erforderlich sind, um auf moderne Arbeitsplatzanforderungen reagieren zu können und in einem wettbewerbsfähigen, schnell wachsenden Bereich erfolgreich zu sein. Das Projekt wird auch transnationale Bildungsmaterialien in Form von OER zur Verfügung stellen, um eine breite Akzeptanz zu gewährleisten und das Berufsbildungsangebot auf kosteneffiziente und flexible Weise zu unterstützen

Ansprechperson
Prof. Dr. techn. Wolfgang Nejdl
Leibniz Universität Hannover
Forschungszentrum L3S
kontakt aufnehmen
Rechtliche Anforderungen an die Erklärbarkeit, Nachvollziehbarkeit, Transparenz und Automatisierung von maschinellen Entscheidungen

Rechtlichen Anforderungen an die Erklärbarkeit und Transparenz von maschinellen Entscheidungen werden herausgearbeitet.

Diese Arbeit zielt darauf, die unsicheren und in der Entwicklung befindlichen rechtlichen Anforderungen an die Erklärbarkeit, Nachvollziehbarkeit, Transparenz und Automatisierung von maschinellen Entscheidungen herauszuarbeiten und für die Anwendungsbeispiele „Zivilprozessuale Beweisführung und künstliche Intelligenz“ sowie „KI-gestützte Darlehensentscheidungen aus zivilrechtlicher, datenschutzrechtlicher und aufsichtsrechtlicher Sicht“ zu konkretisieren. Darüber hinaus soll diese Arbeit die Umsetzung der Erkenntnisse in konkrete regulatorische Maßnahmen unterstützen.

Ansprechperson
Prof. Tim W. Dornis
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Rolf Sternberg ( Leibniz Universität Hannover )
  • Prof. Dr. Kilian Bizer ( Georg-August-Universität Göttingen )
Repräsentativität von Daten und Modellen in KI-Algorithmen

Diese Arbeit beschäftigt sich mit der Frage wie und wie sehr moderne KI-Algorithmen von Daten und darauf aufbauenden Modellen abhängen.

Diese Arbeit beschäftigt sich mit der Frage wie und wie sehr moderne KI-Algorithmen von Daten und darauf aufbauenden Modellen abhängen, auch unter Berücksichtigung wichtiger Faktoren wie Robustheit und Sicherheit. Es gilt einen geeigneten Begriff von Repräsentativität zu finden, um diese Abhängigkeiten so präzise wie möglich zu beschreiben und zu erkunden. Anhand von diversen Datensets zu verschiedenen Datentypen werden entsprechende Theorien verifiziert und veranschaulicht, um sie dann auf konkrete Szenarien anzuwenden.

Ansprechperson
Prof. Dr. techn. Wolfgang Nejdl
kontakt aufnehmen
Verhaltensökonomische Analyse digitaler Transformationsprozesse in der Arbeitswelt

Die Arbeit untersucht verhaltensbezogene Auswirkungen KI-intensiver Arbeits- und Kooperationsprozesse auf menschliches Verhalten.

Die Arbeit untersucht verhaltensbezogene Auswirkungen KI-intensiver Arbeits- und Kooperationsprozesse auf menschliches Verhalten. Anhand kontrollierter Experimente wird untersucht, wie Mitarbeitende KI-Systeme nutzen, ob Faktoren wie Transparenz vorteilhafte Synergien hervorrufen und inwiefern die zunehmende Dissemination digitalisierter Prozesse auf das Crowding Out von sozialen Variablen wirkt.

Ansprechperson
Prof. Dr. Kilian Bizer
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Nejdl ( Leibniz Universität Hannover )
  • Prof. Dr. Schmidt-Thieme ( Universität Hildesheim )
GESUNDHEIT
AI-enabled Procurement of Quality Endoprosthetics

Das Projekt AI-enabled Procurement of Quality Endoprosthetics (AIPOQUE) zielt darauf ab, für einzelne Krankenhäuser und Krankenhausverbünde eine Anwendungsumgebung aus Datenaufbereitung, Datenanalytik mittels Methoden der künstlichen Intelligenz und Entscheidungsstützung für den Strategischen Einkauf von Endoprothesen zu entwickeln, in einem realen Testumfeld zu erproben und zu evaluieren.

Das Projekt AI-enabled Procurement of Quality Endoprosthetics (AIPOQUE) zielt darauf ab, für einzelne Krankenhäuser und Krankenhausverbünde eine Anwendungsumgebung aus Datenaufbereitung, Datenanalytik mittels Methoden der künstlichen Intelligenz und Entscheidungsstützung für den Strategischen Einkauf von Endoprothesen zu entwickeln, in einem realen Testumfeld zu erproben und zu evaluieren. Die AIPOQUE Anwendungsumgebung besteht aus einem anpassbaren Paket aus Data Warehouse inklusive automatisierten ETL Prozessen, einem Satz von erprobten intelligenten Algorithmen und einem Dashboard, das die Ergebnisse der Algorithmen verständlich und transparent für den Einkauf und die Kliniker darstellt. Ein solcher Prototyp, im Folgenden AIPOQUE Anwendungspaket genannt, ist für eine Vielzahl von Krankenhäusern anpassbar und damit multiplizierbar. Die Innovation liegt in dem Ansatz, reliable und valide Prognosen für die Eignung bestimmter Produkte bei bestimmten Patientengruppen erstellen zu können. Das Innovationspotenzial einer solchen Anwendung kann erst jetzt entwickelt werden, da nunmehr Krankenhäuser in die Lage versetzt sind, umfassend elektronische Patientendaten über einen längeren Zeitraum zur Verfügung zu haben und diese mit Materialdaten verknüpfen zu können. Das Risiko eines solchen Unternehmens liegt in dem Zusammenspiel aus qualitätsgesicherten und relevanten Daten, geeigneten Algorithmen und der Akzeptanz der Anwender*innen für eine digitale Unterstützung der Kaufentscheidungen.

Ansprechperson
Prof. Dr. Ursula Hertha Hübner
Hochschule Osnabrück
Forschungsgruppe Informatik im Gesundheitswesen
kontakt aufnehmen
Automatische Überwachung von Bewegungsabläufen von Pflegekräften

Methoden der Bewegungserfassung von Pflegenden und Patient*innen auf Basis von RGB-Kameras, Tiefenbildkameras und IMUs

Es sollen Methoden der Bewegungserfassung von Pflegenden und Patient*innen auf Basis von RGB-Kameras, Tiefenbildkameras und IMUs miteinander kombiniert und hinsichtlich ihrer Eignung für die Bewertung von Haltungen, Bewegungen und Handlungen in der ambulanten Pflege untersucht werden. In den Laboren, die im Rahmen des Pflegeinnovationszentrums eingerichtet wurden, können Pflegehandlungen durch Pflegekräfte an Übungspuppen durchgeführt und durch erfahrene Pflegende bewertet werden. Dadurch können in realitätsnahen Umgebungen Haltungen und Bewegungen zusammen mit Interaktionskräften und in unterschiedlichen Kontexten untersucht werden.

Ansprechperson
Prof. Dr. Andreas Hein
kontakt aufnehmen
Beteiligte
  • Prof. Dr.-Ing. Bodo Rosenhahn ( Leibniz Universität Hannover )
Automatisches Vitalmonitoring durch Smarthome Sensoren

Im Fokus steht die Anwendung von KI Methoden zur Mustererkennung und physiologischen Bewertung im Kontext des Vitalmonitorings

Im Fokus steht die Anwendung von KI Methoden zur Mustererkennung und physiologischen Bewertung im Kontext des Vitalmonitorings in Smart Homes. Zum einen wird dabei überprüft inwieweit die Analyse der Messwerte von Sensoren der Gebäudeautomation verlässliche Informationen über die Mobilität von Bewohner*innen geben können. Zum anderen wird der Effekt von messbaren Umgebungsparametern auf das Wohlbefinden und die Gesundheit der Bewohner*innen untersucht. Des Weiteren wird die Erweiterung von Bus-basierten BACS mit medizinischer Sensorik erprobt. Diese erfassen Veränderungen des Körpergewichtes, der Körpertemperatur, Impedanz, Atem- und Herzfrequenz, Feinmotorik in körpernahen Umgebungen (Wohnung, Fahrzeug) und machen diese für die medizinische Versorgung und Forschung gleichermaßen nutzbar. In diesem Kontext ist von besonderem Interesse ob eine ausreichende Qualität der Messdaten durch die angewandten Methoden erreicht werden kann. Neben der Qualität der Messdaten gilt es die zuvor konzipierten und implementierten Mensch-Maschine Schnittstellen zu erproben. Dabei wird die Form der Repräsentation von physiologischen Bewertungen, Erinnerungen und Coaching-Anwendungen ausgewertet.

Ansprechperson
Prof. Dr. Frauke Koppelin
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Thomas M. Deserno ( Technische Universität Braunschweig )
  • Prof. Dr. Dagmar Krefting ( Universitätsmedizin Göttingen )
  • Dr. Klaus-Hendrik Wolf ( Medizinische Hochschule Hannover )
Digital Research on Ballistocardiography for Extraterrestrial And Terrestrial use

Das Projekt "DR.BEAT" setzt auf die ursprünglich in der Raumfahrt entwickelte Ballistokardiographie (BCG), die mittels moderner, digitaler Mikroelektronik die tatsächliche Herzfunktion erfassen kann.

Das Projekt "DR.BEAT" setzt auf die ursprünglich in der Raumfahrt entwickelte Ballistokardiographie (BCG), die mittels moderner, digitaler Mikroelektronik die tatsächliche Herzfunktion erfassen kann. Im Rahmen des Projektes wird ein hochpräzises und kostengünstiges BCG-Sensoriksystem entwickelt, das als "Wearable" am Körper getragen werden kann und ein kontinuierliches Gesundheitsmonitoring ermöglicht. Die umfangreiche Signalaufbereitung, Datenauswertung und Visualisierung wird mittels Künstlicher Intelligenz (KI) automatisiert und soll nicht nur neue Erkenntnisse in der Raumfahrtmedizin liefern, sondern auch eine alltagstaugliche Erfassung der dynamischen Herzaktivität ermöglichen.

Ansprechperson
Marie Wolf
Medizinische Hochschule Hannover
kontakt aufnehmen
Ein Lernendes und Interoperables, Smartes Expertensystem für die pädiatrische Intensivmedizin

Das Projekt „Ein Lernendes und Interoperables, Smartes Expertensystem für die pädiatrische Intensivmedizin“ (ELISE) widmet sich der Beantwortung der Frage, in wie weit digitale Entscheidungsunterstützungssysteme zur Optimierung des diagnostischen und therapeutischen Arbeitsablaufes in der pädiatrischen Intensivmedizin beitragen können.

Das Projekt „Ein Lernendes und Interoperables, Smartes Expertensystem für die pädiatrische Intensivmedizin“ (ELISE) widmet sich der Beantwortung der Frage, in wie weit digitale Entscheidungsunterstützungssysteme zur Optimierung des diagnostischen und therapeutischen Arbeitsablaufes in der pädiatrischen Intensivmedizin beitragen können.

Ansprechperson
Prof. Dr. Antje Wulff
Carl von Ossietzky Universität Oldenburg
kontakt aufnehmen
Ein partizipativer Ansatz zur fachübergreifenden Vermittlung datenzen- trierter Methoden- und Anwendungskompetenzen in Hochschulen

Künstliche Intelligenz gilt als eine der zentralen Schlüsseltechnologien der Zukunft. Deshalb soll das Thema Künstliche Intelligenz verstärkt auch in der Lehre und Weiterbildung an Universitäten und Hochschulen etabliert werden.

Künstliche Intelligenz gilt als eine der zentralen Schlüsseltechnologien der Zukunft. Deshalb soll das Thema Künstliche Intelligenz verstärkt auch in der Lehre und Weiterbildung an Universitäten und Hochschulen etabliert werden. Hierzu erarbeitet die Technische Universität Braunschweig im Verbundprojekt in Zusammenarbeit mit der TU Clausthal und der Ostfalia Hochschule digitale Lehrangebote. Gefördert wird das Projekt für vier Jahre im Rahmen der Bund-Länder-Förderinitiative „Künstliche Intelligenz in der Hochschulbildung“.

Ansprechperson
Prof. Dr. Tim Kacprowski
Medizinische Hochschule Hannover
, Peter L. Reichertz Institut für Medizinische Informatik
, Ostfalia Hochschule für angewandte Wissenschaften
, Technische Universität Clausthal
kontakt aufnehmen
Federated Machine Learning von Gesundheitsdaten

Es werden hier deshalb die Methoden untersucht, die eine verteilte Analyse der medizinischen Daten ermöglichen.

Bei medizinischen Daten ist Aufgrund der Größenordnung der Datenmengen sowie der Bedenken verschiedener Interessengruppen hinsichtlich der Privatsphäre die Verwendung einer zentralen Speicherung und Analyse nicht immer möglich. Es werden hier deshalb die Methoden untersucht, die eine verteilte Analyse der Daten ermöglichen. Konkret geht es hierbei um das Konzept des “Federated Learning”, das darauf abzielt, einen Algorithmus des maschinellen Lernens, z.B. tiefe neuronale Netze, auf mehreren lokalen Datensätzen, die in lokalen Knoten enthalten sind, zu trainieren, ohne Datenproben auszutauschen. Daraufhin werden die verfügbaren Technologien und Rahmenbedingungen für die Umsetzung des föderalen Lernens von medizinischen Daten untersucht und in einem Visionspapier für die zukünftige Entwicklung dieser Techniken speziell für die verfügbaren Anwendungsfälle veröffentlicht.

Ansprechperson
Prof. Dr.-Ing. Bodo Rosenhahn
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Dagmar Krefting ( Universitätsmedizin Göttingen )
  • Prof. Dr. Oliver J. Bott ( Hochschule Hannover )
  • Dr. Klaus-Hendrik Wolf ( Medizinische Hochschule Hannover )
  • Prof. Dr. Frauke Koppelin ( Jade Hochschule )
  • Prof. Dr. Ursula Hübner ( Hochschule Osnabrück )
  • Prof. Dr. Wolfgang Nejdl ( Forschungszentrum L3S )
  • Prof. Dr. Andreas Hein ( Universität Oldenburg )
Internationales Zukunftslabor für Künstliche Intelligenz

Wissenschaftliche Exzellenz lebt vom Austausch mit den Besten der Welt. Im Internationalen Zukunftslabor für Künstliche Intelligenz in Hannover entwickeln seit Sommer 2020 exzellente Forscher aus Australien, Neuseeland, Indien und Spanien, renommierte Kollegen vom L3S (Leibniz Universität und Medizinische Hochschule Hannover) und europäischen Partnerinstituten drei Jahre lang gemeinsam neue Themen der Künstlichen Intelligenz und erforschen intelligente Lösungen für die personalisierte Medizin.

Wissenschaftliche Exzellenz lebt vom Austausch mit den Besten der Welt. Im Internationalen Zukunftslabor für Künstliche Intelligenz in Hannover entwickeln seit Sommer 2020 exzellente Forscher aus Australien, Neuseeland, Indien und Spanien, renommierte Kollegen vom L3S (Leibniz Universität und Medizinische Hochschule Hannover) und europäischen Partnerinstituten drei Jahre lang gemeinsam neue Themen der Künstlichen Intelligenz und erforschen intelligente Lösungen für die personalisierte Medizin.

Ansprechperson
Prof. Dr. techn. Wolfgang Nejdl
Leibniz Universität Hannover
Forschungszentrum L3S
kontakt aufnehmen
KI basierte Überwachung von medizinisch bedenklichen Bewegungsmustern

Auf der Grundlage von Video und IMU Sensoren sollen Bewegungsabläufe analysiert und im kritischen Fall alarmiert werden.

Auf der Grundlage von Video und IMU Sensoren sollen Bewegungsabläufe analysiert und im kritischen Fall alarmiert werden. Dies soll zunächst ohne Heilungsverlauf statisch, dann auch mit Heilungsverlauf dynamisch erkannt werden. Erkannte kritische Bewegungsmuster sollen mithilfe einer semantischen Segmentierung nutzerfreundlich aufbereitet werden.

Ansprechperson
Prof. Dr. Frauke Koppelin
kontakt aufnehmen
Beteiligte
  • Prof. Dr.-Ing. Bodo Rosenhahn ( Leibniz Universität Hannover )
  • Prof. Dr. Andreas Hein ( Universität Oldenburg )
KI-THRUST: Prädiktion von Ereignissen bei Routinedaten

Das vom Innovationsfonds geförderte Forschungsprojekt KI-THRUST verfolgt das Ziel, die Vorhersagemöglichkeiten im Rahmen der gesundheitlichen Risiken der Patienten*innen durch die Anwendung unterschiedlicher Verfahren zu präzisieren.

Das vom Innovationsfonds geförderte Forschungsprojekt KI-THRUST verfolgt das Ziel, die Vorhersagemöglichkeiten im Rahmen der gesundheitlichen Risiken der Patienten*innen durch die Anwendung unterschiedlicher Verfahren zu präzisieren. Dabei wird eine exemplarische Abschätzung der Möglichkeiten von KI-gestützten Vorhersageverfahren auf Basis von Routinedaten den konventionellen Verfahren der Datenanalyse gegenübergestellt und hinsichtlich der Prädiktion von Ereignissen bei der Nutzung von Routinedaten erforscht. Mit Hilfe der KI-Verfahren soll es Experten ermöglicht werden, bedeutsame Determinanten einer Vorhersage auch im Einzelfall beurteilen und nachvollziehen zu können. Die Nachvollziehbarkeit einer Risikovorhersage wird zum Vertrauen der Vorhersage beitragen und kann zugleich ggf. helfen, fehlerhaft arbeitende Algorithmen zu er-kennen.

Ansprechperson
Thomas Grobe
kontakt aufnehmen
Künstliche Intelligenz in der Gesundheitsversorgung - Grundlagen, Anwendungen, Perspektiven

Der Einsatz von Künstlicher Intelligenz (KI) zieht weitreichende Veränderungen für die Gesundheitsversorgung nach sich und wird perspektivisch den Arbeitsalltag aller an der Gesundheitsversorgung direkt oder mittelbar beteiligten Berufsgruppen erreichen, so dass ein Erwerb von KI-Kompetenzen für zukünftige und bereits im Gesundheitswesen tätige Personen notwendig scheint.

Der Einsatz von Künstlicher Intelligenz (KI) zieht weitreichende Veränderungen für die Gesundheitsversorgung nach sich und wird perspektivisch den Arbeitsalltag aller an der Gesundheitsversorgung direkt oder mittelbar beteiligten Berufsgruppen erreichen, so dass ein Erwerb von KI-Kompetenzen für zukünftige und bereits im Gesundheitswesen tätige Personen notwendig scheint. Ziel des Projektes ist die Entwicklung eines Lernangebotes, das die umfassende gesundheitsbezogene Expertise der Hochschule Osnabrück und der Universität Osnabrück mit einem starken Profil im Bereich der KI und langjährigen Erfahrungen in Didaktik und digitaler Lehre verbindet. Das Lernangebot richtet sich als Weiterbildung an a) Führungskräfte im Gesundheitswesen, b) Health Professionals (Angehörige der Gesundheitsberufe) und c) Lehrkräfte im Bereich Gesundheit und Pflege sowie Studierende auf Masterniveau aus den dementsprechenden Studiengängen. Es vermittelt Grundlagen von KI, ihre Anwendungsfelder und –beispiele in der Gesundheitsversorgung sowie differenzierte Perspektiven der zukünftigen Entwicklung mit Blick auf verschiedene Berufsgruppen, ethische, rechtliche und soziale Aspekte. Das Angebot kombiniert in aufeinander folgenden Programmabschnitten einen MOOC, einen SPOC (Small Private Online Course mit in-hourse Lerngruppen) sowie ein blended learning ICM Szenario unter Verwendung von eduScrum

Ansprechperson
Prof. Dr. Ursula Hertha Hübner
Hochschule Osnabrück
Forschungsgruppe Informatik im Gesundheitswesen
kontakt aufnehmen
Network Medicine for Long-Term Consequences of Infectious Diseases

Die Behandlung von Infektionskrankheiten ist oft schwierig und besonders bei Virusinfektionen nicht immer erfolgreich. Bei einigen Patienten können Langzeitfolgen einer Virusinfektion trotz anfänglich erfolgreicher Behandlung fortbestehen. Die molekularen Mechanismen dahinter sind bisher jedoch kaum bekannt. Wir entwickeln eine Plattform für die Datenintegration und -analyse, die Netzwerkmedizin und KI-Methoden nutzt, um die Mechanismen von Infektionskrankheiten auf verschiedenen Ebenen zu entschlüsseln.

Die Behandlung von Infektionskrankheiten ist oft schwierig und besonders bei Virusinfektionen nicht immer erfolgreich. Bei einigen Patienten können Langzeitfolgen einer Virusinfektion trotz anfänglich erfolgreicher Behandlung fortbestehen. Die molekularen Mechanismen dahinter sind bisher jedoch kaum bekannt. Wir entwickeln eine Plattform für die Datenintegration und -analyse, die Netzwerkmedizin und KI-Methoden nutzt, um die Mechanismen von Infektionskrankheiten auf verschiedenen Ebenen zu entschlüsseln. Dabei betrachten wir Epigenom, Transkriptom, Immuno-Proteom und Metabolom, sowie verschiedene Krankheitsstadien bis hin zur Nachsorge. Als konkreten Anwendungsfall werden wir Hepatitis C untersuchen, eine Infektionskrankheit, die durch das Hepatitis-C-Virus (HCV) verursacht wird. Zunächst werden wir molekulare Signaturen extrahieren, die Unterschiede zwischen verschiedenen Krankheitsstadien im Vergleich zu Kontrollkohorten hervorheben. Dies wird uns Einblicke in omics- spezifische Biomarker geben und eine Subtypisierung der Krankheit ermöglichen. Wir werden patientenspezifische Multi-omics-Netzwerke identifizieren und dabei Vorwissen aus Datenbanken zu Metaboliten, Genen und genregulatorischen Interaktionen einbeziehen. Die daraus resultierenden patientenspezifischen Netzwerke bilden die Grundlage für die Unterscheidung zwischen verschiedenen Heilungsschicksalen (Long-HCV vs. geheilt) und können gleichzeitig mögliche Krankheitsmechanismen aufzeigen. Ferner werden wir auch Aberrationen hervorheben, die nur wenige oder einzelne Patienten betreffen, und somit personalisierte Therapieoptionen aufzeigen. Wir werden die nach einer erfolgreichen Behandlung fortbestehenden molekularen Veränderungen beleuchten und eine netzwerkmedizinische Perspektive auf die langfristigen Auswirkungen von HCV bieten. Die methodischen KI-Ansätze werden auf andere Infektionskrankheiten übertragbar sein und können helfen langfristige Folgen von Infektionen wie Long-COVID besser zu verstehen.

Ansprechperson
Prof. Dr. Tim Kacprowski
Medizinische Hochschule Hannover
, Peter L. Reichertz Institut für Medizinische Informatik
kontakt aufnehmen
Personalized, Predictive, Precise & Preventive Medicine for Major Depression

Depressive Störungen stellen ein großes Gesundheitsproblem dar und gehören zu den am weitesten verbreiteten Erkrankungen in Europa. Trotz der Vielzahl verfügbarer Therapieverfahren, kann bislang nur ein Teil der Betroffenen erfolgreich behandelt werden. Obwohl es zahlreiche Hinweise für die Existenz von Untergruppen gibt, die besonders gut auf spezifische Therapieoptionen ansprechen, wurden noch keine etablierten Marker für diese Untergruppen identifiziert. Das Verbundprojekt P4D verfolgt verschiedene Ziele, um die Diagnostik, Therapie und Prävention depressiver Störungen durch personalisierte Behandlungsansätze zu verbessern.

Depressive Störungen stellen ein großes Gesundheitsproblem dar und gehören zu den am weitesten verbreiteten Erkrankungen in Europa. Trotz der Vielzahl verfügbarer Therapieverfahren, kann bislang nur ein Teil der Betroffenen erfolgreich behandelt werden. Obwohl es zahlreiche Hinweise für die Existenz von Untergruppen gibt, die besonders gut auf spezifische Therapieoptionen ansprechen, wurden noch keine etablierten Marker für diese Untergruppen identifiziert. Das Verbundprojekt P4D verfolgt verschiedene Ziele, um die Diagnostik, Therapie und Prävention depressiver Störungen durch personalisierte Behandlungsansätze zu verbessern. Dafür sollen ein bereits identifizierter Blutmarker für das Ansprechen auf Antidepressiva klinisch überprüft werden, eine große Kohorte von Patientinnen rekrutiert werden, um mittels maschinellen Lernens neue Subtypen der Depression zu erkennen, innovative Entscheidungshilfen für Behandler entwickelt werden und eine webbasierte Plattform etabliert werden, über die die gewonnen Erkenntnisse öffentlich zugänglich gemacht werden.

Ansprechperson
Prof. Dr. Tim Kacprowski
Leibniz Universität Hannover
, Medizinische Hochschule Hannover
, Technische Universität Braunschweig
, Peter L. Reichertz Institut für Medizinische Informatik
kontakt aufnehmen
PosiThera: Kontext- und prozessbezogenen Entscheidungsunterstützung

PosiThera erzeugt einen signifikanten medizinischen Mehrwert innerhalb der Versorgungskette Diagnose-Therapie-Nachsorge/Rehabilitation durch die Bereitstellung einer kontextsensitiven und prozessbezogenen Entscheidungsunterstützung durch Informationskontinuität.

Denn Versorgungskontinuität in einer solchen Versorgungskette ist abhängig von Informationskontinuität beziehungsweise setzt diese voraus. Eine effektive und effiziente Therapie einer chronischen Erkrankung erfordert die Abstimmung der einzelnen intersektoralen und multiprofessionellen Behandlungsschritte aufeinander, damit eine wirksame medizinisch-pflegerische Versorgungskette entsteht. Mit PosiThera wird erstmalig Informationskontinuität durch ein gemeinsames Werkzeug zur Entscheidungsunterstützung für alle Beteiligten im Bereich der Diagnostik und Therapie von chronischen Wunden ermöglicht. PosiThera fertigt eine gleichnamige Softwarelösung zur Entscheidungsunterstützung und Simulation von Behandlungsansätzen auf Basis eines Regelwerkes und Expertensystems an. Die Softwarelösung ist als ein digitales Analogon eines realen Comprehensive Wound Centers (CWC) zu verstehen. Es folgt der Idee einer Wissenskooperation verschiedener medizinischer Fachrichtungen, mit dem Ziel einer interdisziplinären, multiprofessionellen, intersektoralen Zusammenarbeit und Koordination der Aktivitäten, als Grundlage einer problemorientierten Betreuung und medizinischen Versorgung der Patienten. Die Ergebnisse der Entscheidungsunterstützung und Simulation werden im Kontext des jeweiligen Prozessschrittes (Diagnose, Therapie und Nachsorge) und Akteurs (bspw. Hausärzte, Fachärzte, Pflegekräfte) präsentiert. Je nach Bedarf können diese Ergebnisse den anderen Akteuren zur Diskussion und gemeinsamen Abstimmung kommuniziert (gemeinsame Entscheidungsfindung) oder ihnen einfach zur Kenntnisnahme nach einer Entscheidung übermittelt werden (einzelne Entscheidungsfindung). Damit verbindet PosiThera drei wesentliche Elemente einer medizinischen Therapie, nämlich 1. die Entscheidungsfindung, 2. die Therapiebegleitung und 3. die Einbindung multipler Akteure einschließlich des Patienten und ggf. seiner Angehörigen in die Versorgungskette. Dieser konkrete Ansatz ist bislang in der Literatur weder angedacht noch in der Praxis realisiert worden. Entscheidungsunterstützende Systeme in der Medizin sind zwar in der wissenschaftlichen und praxisorientierten Diskussion anzutreffen, finden aber nur vereinzelt Einsatz im deutschen Gesundheitswesen, z.B. im Rahmen der Arzneimitteltherapiesicherheit oder im Rahmen von FuEProjekten, wie z.B. in der Behandlung von Patienten mit chronischen Lebererkrankungen. PosiThera greift entsprechende Erfahrungen mit digitaler Entscheidungsunterstützung auf und revolutioniert sie durch Kontextbezug, Prozessorientierung, Multiprofessionalität und Einbindung des Patienten.

Ansprechperson
Prof. Dr. Ursula Hertha Hübner
Hochschule Osnabrück
Forschungsgruppe Informatik im Gesundheitswesen
kontakt aufnehmen
Screen-Reject: Data Warehouse zur Nierentransplantationsdiagnostik

Mit der demografischen Entwicklung ist eine zunehmende Zahl schwerwiegender Nierenerkrankungen zu erwarten und damit auch ein zunehmender Bedarf an Nierentransplantationen (NTX).

Mit der demografischen Entwicklung ist eine zunehmende Zahl schwerwiegender Nierenerkrankungen zu erwarten und damit auch ein zunehmender Bedarf an Nierentransplantationen (NTX). Demgegenüber steht eine zu befürchtende relative Verknappung verfügbarer Spenderorgane. Umso wichtiger wird eine rechtzeitige Erkennung von Abstoßungsreaktionen, um durch Gegenmaßnahmen einen frühzeitigen Transplantatverlust zu verhindern. Das im Verbundprojekt „Screen-Reject: Ein Lateral Flow-Test zur Abstoßungsdiagnostik“ avisierte Diagnostikum soll Abstoßungsreaktionen bei NTX-Patienten feststellen helfen. Im Teilprojekt „Screen-Reject: Data Warehouse zur Nierentransplantationsdiagnostik“ der HsH wird ein Klinisches Data Warehouse (KDWH) und auf maschniellen Lernverfahren basierendes Expertensystem entwickelt, das die bei der Entwicklung des Diagnostikums gewonnenen Informationen aufbereitet und der Begleitforschung bereitstellt sowie die Abstoßungsdiagnostik u.a. durch Entwicklung eines Prädiktors für das Vorliegen einer NTx-Abstoßungsreaktion unterstützt.

Ansprechperson
Prof. Dr.-Ing. Oliver J. Bott
Hochschule Hannover
Abteilung Information und Kommunikation
kontakt aufnehmen
Sensornahe Datenverarbeitung für medizinische Sensoren

Für die Signalverarbeitung zur Ableitung von Vitaldaten in patientennaher Umgebungen soll eine on-board Verarbeitung der Sensorsignale erfolgen

Für die Signalverarbeitung zur Ableitung von Vitaldaten und Integration in patientennahe Umgebungen soll eine on-board Verarbeitung der Sensorsignale erfolgen und fehlerhafte Signale erkannt werden zur Prävention von Sensor-Ausfällen bzw. Ausfällen von Teilkomponenten. Hierbei soll auch explizit auf moderne Ansätze, wie Methoden des Machine Learning, zurückgegriffen werden. Teilaspekte dieser Forschungskooperation reichen von der sensorbasierten Detektion kritischer menschlicher Bewegungen, über die Artefakterkennung in den Sensordaten bis zur automatischen Detektion von Sensor- und Sensorkanalausfällen.

Ansprechperson
Prof. Dr.-Ing. Bodo Rosenhahn
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Melina Frenken ( Jade Hochschule )
  • Prof. Dr. Dagmar Krefting ( Universitätsmedizin Göttingen )
  • Prof. Dr. Andreas Hein ( Universität Oldenburg )
ZIEL: Verkürzte Zeit bis zur Heilung durch augmentierte Intelligenz

Das ZIEL-Projekt beantwortet die primäre Frage: Wie kann durch eine geeignete Mensch-KI- Schnittstelle das Vertrauen und die Akzeptanz in medizinische datengetriebene Entscheidungsunterstützung erhöht und der kritische Umgang damit erreicht werden?

Das ZIEL-Projekt beantwortet die primäre Frage: Wie kann durch eine geeignete Mensch-KI- Schnittstelle das Vertrauen und die Akzeptanz in medizinische datengetriebene Entscheidungsunterstützung erhöht und der kritische Umgang damit erreicht werden? Dabei soll die sekundäre anwendungsbezogene Frage beispielhaft beantwortet werden: Welche Therapieformen gehen bei welchen Krankheitskonstellationen mit einer Verkürzung der Heilung von chronischen Wunden einher (Evidenz) und welche Entscheidungen können daher empfohlen werden? Die komplexe interprofessionelle Versorgung von Menschen mit chronischen Wunden ist ein gutes Praxisbeispiel für die Chancen und Fallstricke von datengetriebener Versorgungsunterstützung in einem „Lernenden Gesundheitssystem“. Entwicklung eines Demonstrator-Werkzeugkastens bestehend aus einer (i) mobilen Applikation zur standardisierten, KI-gestützten interaktiven hochqualitativen Datenerhebung (standardisierte Wundfotografie), (ii) verifizierte und validierte KI- Prognosemodelle auf Basis künstlicher Intelligenz und maschinellen Lernens.

Ansprechperson
Prof. Dr. rer. nat. Ursula Hertha Hübner
Hochschule Osnabrück
kontakt aufnehmen
MOBILITÄT
5G Access to Public Spaces
Start-up Finanzierungs- und Trainingsprogramm mit Fokus auf Gründungen in Verbindung mit der 5G-Technologie

Start-up Finanzierungs- und Trainingsprogramm mit Fokus auf Gründungen in Verbindung mit der 5G-Technologie

Ansprechperson
Prof. Dr. Monika Sester
Leibniz Universität Hannover
kontakt aufnehmen
ASIMOV: KI-Training mit simulierten Instrumenten zur Optimierung und Überprüfung von Maschinen
Es soll anhand eines von der AVL Deutschland GmbH eingebrachten Anwendungsfalls „hochautomatisiertes Nutzfahrzeug” untersucht werden, wie eine KI einen digitalen Zwilling eines physischen Systems gefahrlos im virtuellen Raum konfigurieren/kalibrieren/optimieren kann und wie sich die Ergebnisse dieses Prozesses auf das physische System übertragen lassen.

Es soll anhand eines von der AVL Deutschland GmbH eingebrachten Anwendungsfalls „hochautomatisiertes Nutzfahrzeug” untersucht werden, wie eine KI einen digitalen Zwilling eines physischen Systems gefahrlos im virtuellen Raum konfigurieren/kalibrieren/optimieren kann und wie sich die Ergebnisse dieses Prozesses auf das physische System übertragen lassen.

Ansprechperson
Prof. Dr. Martin Fränzle
Carl von Ossietzky Universität Oldenburg
, OFFIS Institut für Informatik
kontakt aufnehmen
d-E-mand: Mobile Ladesäulen

Das Ziel des Projekts ist die Schaffung einer Geschäftsgrundlage für KMUs und Start-Ups für neuartige Dienstleistungen bezogen auf die Bedienung von erhöhtem räumlich-zeitlichen Ladebedarf von Elektrofahrzeugen und Eröffnung neuer Geschäftsfelder in diesem Bereich.

Das Ziel des Projekts ist die Schaffung einer Geschäftsgrundlage für KMUs und Start-Ups für neuartige Dienstleistungen bezogen auf die Bedienung von erhöhtem räumlich-zeitlichen Ladebedarf von Elektrofahrzeugen und Eröffnung neuer Geschäftsfelder in diesem Bereich.

Ansprechperson
Prof. Dr.- Ing. Monika Sester
Leibniz Universität Hannover
kontakt aufnehmen
HorseAID – Diagnostik mit Künstlicher Intelligenz

Weltweit werden Pferde zu kommerziellen und privaten Zwecken halten, darunter sind allein in Deutschland 1,2 Millionen Pferde. Insbesondere Erkrankungen des Herz-Kreislauf-Systems und Verletzungen des Bewegungsapparates, welche beim Reiten und Training von Pferden auftreten können und nicht zwingend sofort erkannt werden, können zum (temporären) Ausfall von Pferden führen und kostspielige Reha-Maßnahmen sowie medizinischen Behandlungen notwendig machen.

Weltweit werden Pferde zu kommerziellen und privaten Zwecken halten, darunter sind allein in Deutschland 1,2 Millionen Pferde. Insbesondere Erkrankungen des Herz-Kreislauf-Systems und Verletzungen des Bewegungsapparates, welche beim Reiten und Training von Pferden auftreten können und nicht zwingend sofort erkannt werden, können zum (temporären) Ausfall von Pferden führen und kostspielige Reha-Maßnahmen sowie medizinischen Behandlungen notwendig machen. Die Prävention und die Vermeidung von Reha-Maßnahmen hängen maßgeblich von der frühzeitigen Diagnose von Anzeichen auf nahende Verletzungen oder Krankheiten ab. Aufgrund langer Wegezeiten der auf Pferde spezialisierten Landtierärzte, geht der Trend zur Niederlassung in Tierkliniken oder Reha-Einrichtungen ohne „Hausbesuche“. Für Pferdebesitzer bedeutet das häufig einen intensiven zeitlichen und logistischen Aufwand zum Aufsuchen der Klinken und Rehaeinrichtungen. Zudem verzögert sich dadurch auch die Diagnose und Behandlung. Sowohl in der Reha als auch im Training werden bei Pferden häufig Laufbänder und Aquatrainer eingesetzt. Das Lauftraining erfolgt mit an die Leistungsfähigkeit des Pferdes angepasster Geschwindigkeit und Laufbandsteigung. Bei einem Aquatrainer handelt es sich um ein in einer wassergefüllten Wanne befindliches Pferdelaufband, welches durch den Auftrieb des Körpers durch einen individuell angepassten Wasserstand ein besonders gelenkschonendes Training ermöglicht. Die Anpassung von Geschwindigkeit und Steigung im Reha-Betrieb erfolgen bislang manuell durch den Bediener auf Grundlage seiner Einschätzung der Leistungsfähigkeit des Pferdes, sodass die Qualität der Reha-Maßnahme maßgeblich von der Einschätzung sowie der diagnostischen Erfahrung des Bedieners abhängt. Aufgrund der Schwierigkeiten und Probleme bei der Prävention von Verletzungen und der Reha von Pferden ist das Ziel des Projektes die Entwicklung des neuartigen, mobil einsetzbaren Systems HorseAID in Kooperation mit der Sandmann Innovation GmbH. Dieses intelligente mechatronische System soll für Pferde (Leistungs-/Breitensport) in folgenden Anwendungen eingesetzt werden: Überwachung des Gesundheitszustandes (Herz-Kreislauf-System, Bewegungsapparat), automatisierte Vordiagnose und Prävention zur Vermeidung von Verletzungen und Rehamaßnahmen. Unterstützung einer objektiven Diagnose durch Tierärzte/-kliniken mithilfe einer umfassenden Datengrundlage. Erweiterung des Funktionsumfangs von Trainings- und Rehageräten zur schnelleren Gesundung der Pferde durch eine vitaldatenbasierte, automatisierte Behandlung.

Ansprechperson
Prof. Dr.-Ing. Xiaobo Liu-Henke
Ostfalia Hochschule für angewandte Wissenschaften
kontakt aufnehmen
i.c.sens: Integrität und Kollaboration in dynamischen Sensornetzen
Das Graduiertenkolleg hat zum Ziel, Konzepte zur Sicherstellung der Integrität kollaborativ agierender Systeme in dynamischen Sensornetzen zu erforschen.

Das Graduiertenkolleg hat zum Ziel, Konzepte zur Sicherstellung der Integrität kollaborativ agierender Systeme in dynamischen Sensornetzen zu erforschen. Ausgangspunkt ist die Beobachtung, dass kollaborativ agierende und autonome Systeme in vielen Bereichen des (Arbeits-) Lebens Einzug halten: von der flexiblen Fabrikautomation über Service- und Haushaltsrobotik hin zu autonomen Fahrzeugen. Dies bedeutet, dass die Systeme sich nicht mehr abgeschirmt von den Menschen bewegen, sondern in ihrem direkten Umfeld bzw. sogar in direkter Interaktion mit ihnen, was ein großes Gefahrenpotential darstellt. Der Schlüssel zu dessen Beherrschung liegt in der Integrität der technischen Systeme, d.h. der rechtzeitigen Erkennung von Fehlern und Warnung des Umfelds. Die Koexistenz einer zunehmenden Anzahl autonomer Systeme eröffnet die Möglichkeit und Notwendigkeit der Abstimmung und Kollaboration.

Ansprechperson
Prof. Dr. Monika Sester
Leibniz Universität Hannover
kontakt aufnehmen
Intelligente Handhabung von Mobilitätsdaten

Daten sind Grundlage für den automatisierten Fahrbetrieb und die Umsetzung geeigneter Services und Geschäftsmodelle.

Daten sind Grundlage für den automatisierten Fahrbetrieb und Voraussetzung für die Entwicklung und Umsetzung geeigneter Services und Geschäftsmodelle. An diesem Beitrag sind WissenschaftlerInnen aus den Bereichen Kommunikationstechnik, Information Engineering und Software Engineering beteiligt, um Methoden für die sichere Erfassung, Auswertung und Fusionierung von Mobilitätsdaten zu erforschen. Es sollen Methoden für die sichere und zuverlässige (im Sinne von Safety, Security und Privacy) Erhebung und Verarbeitung von Daten und die Erfüllung rechtlicher Rahmenbedingungen (z.B. DSGVO) in allen Entwicklungs- und Betriebsphasen erarbeitet und demonstriert werden. Es sollen Ansätze für die Entwicklung sicherer Datenarchitekturen sowie Methoden und Ansätze zur Standardisierung der Datenhandhabung und –fusion und der Beurteilung und Sicherung der Datenqualität erprobt werden.

Ansprechperson
Prof. Gert Bikker
kontakt aufnehmen
Beteiligte
  • Prof. Dr.-Ing. Baum ( Georg-August-Universität Göttingen )
  • Prof. Dr.-Ing. Fidler ( Leibniz Universität Hannover )
  • Prof. Dr. Rausch ( Technische Universität Clausthal )
Intelligente Mobilitätssysteme und -technologien

Wesentlicher Teil zukünftiger Mobilität ist die (Hoch-)Automatisierung und Vernetzung von Fahrzeugen und Infrastruktur.

Wesentlicher Teil zukünftiger Mobilität ist die (Hoch-)Automatisierung und Vernetzung von Fahrzeugen und Infrastruktur. Dafür erarbeiten WissenschaftlerInnen aus Informatik, Fahrzeugmechatronik und Produktentwicklung Methoden zur modellbasierten Entwicklung und Absicherung von Verkehrssystemen und -funktionen für das kooperative, hochautomatisierte Fahren und wenden diese an. Fokus sind Ansätze zur Rekonfiguration, Evolution und Absicherung von Systemen und Funktionen über den gesamten Lebenszyklus. Hierbei werden genderspezifische kognitive und physische Anforderungen sowie Nutzerpräferenzen berücksichtigt.

Ansprechperson
Dr. David Inkermann
kontakt aufnehmen
Beteiligte
  • Prof. Dr. Fränzle ( Universität Oldenburg )
  • Prof‘in. Dr.-Ing. Liu-Henke ( Ostfalia Hochschule )
  • Prof‘in. Dr.-Ing. Schaefer ( TU Braunschweig )
KI für Industrie und Mobilität

In diesem Vorhaben wird angestrebt, fachspezifische sowie fachübergreifende Studien- und Lerninhalte zur Künstlichen Intelligenz besonders im Bereich des Maschinellen Lernens für alle Statusgruppen inHochschulen zu entwickeln und deren Nutzung hochschulübergreifend auch durch externe Stakeholder (i.e. interessierte Öffentlichkeit) zu ermöglichen.

In diesem Vorhaben wird angestrebt, fachspezifische sowie fachübergreifende Studien- und Lerninhalte zur Künstlichen Intelligenz besonders im Bereich des Maschinellen Lernens für alle Statusgruppen in Hochschulen zu entwickeln und deren Nutzung hochschulübergreifend auch durch externe Stakeholder (i.e. interessierte Öffentlichkeit) zu ermöglichen. Als dezentrale Plattform für diese koordinierten Entwicklungsaktivitäten wird ein KI-Hub etabliert, der eine abgestimmte Entwicklungs- und Nutzungsplanung sowie die Implementierung didaktisch abgesicherter und innovativer Lern- und Vermittlungskonzepte von Methoden und anwendungsnahen Werkzeugen im Kontext datengetriebener Modellierung, Analyse und Simulation für unterschiedliche Zielgruppen ermöglicht und durch partizipative Formate KI-basierte Innovationen fördert.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
KI4All: Vermittlung datenzentrierter Methoden und Kompetenzen

Verbundprojekt: Ein partizipativer Ansatz zur fachübergreifenden Vermittlung datenzentrierter Methoden- und Anwendungskompetenzen in Hochschulen

Verbundprojekt: Ein partizipativer Ansatz zur fachübergreifenden Vermittlung datenzentrierter Methoden- und Anwendungskompetenzen in Hochschulen - KI4All; Teilvorhaben: KI für Gesundheit, Mobilität und Energie

Ansprechperson
Prof. Dr. Steffen Herbold
kontakt aufnehmen
Mobility as a Solution

Das CRF Mobility as a Solution fokussiert die Entwicklung nutzerorientierter Mobilitätslösungen.

Das CRF Mobility as a Solution fokussiert die Entwicklung nutzerorientierter Mobilitätslösungen. Ausgehend von den formulierten Anwendungsfällen sollen bspw. intermodale Mobilitätsketten oder ein effizienter Gütertransport untersucht und demonstriert werden. Für die Planung der Mobilitätslösungen wird ein System-of-System (SoS) Ansatz zugrunde gelegt. Dieser verknüpft Teilsysteme verschiedener Verkehrsträger von Fahrzeugfunktionen, über Fahrzeug und den Menschen bis hin zum Gesamtsystemverkehr. Ziel der Forschungsarbeiten ist es, Digitalisierung als Grundlage eines integrierten, intermodalen und umwelt- und sozialverträglichen Verkehrssystems zu nutzen, das (konkurrierende) Anforderungen unterschiedlicher Stakeholder (Privatpersonen, Logistiker, professionelle Fahrzeugführer, Dienste-Anbieter, Hersteller, Infrastrukturverantwortliche, etc.) optimal erfüllt. An dem CRF sind WissenschaftlerInnen der Informatik, des Logistikmanagements und der Produktentwicklung beteiligt.

Ansprechperson
Prof. Frank Köster
kontakt aufnehmen
Beteiligte
  • Prof. Dr.-Ing. Hahn ( Deutsches Zentrum für Luft- und Raumfahrt e.V. (DLR) )
  • Prof. Dr.-Ing. Seifert ( Hochschule Osnabrück )
  • Prof. Dr.-Ing. Fidler ( Leibniz Universität Hannover )
Service-Driven Mobility

Am TP5 sind WissenschaftlerInnen der Disziplinen Dienstleistungsmanagement, Wirtschaftsinformatik und Geoinformatik beteiligt.

Am TP5 sind WissenschaftlerInnen der Disziplinen Dienstleistungsmanagement, Wirtschaftsinformatik und Geoinformatik beteiligt. Ausgehend von den Potentialen der hochgradigen Vernetzung intelligenter Fahrzeugsysteme und Infrastrukturen sollen neue Dienstleistungen und Geschäftsmodelle für intelligente Fahrzeuge und (intermodale) Mobilitätslösungen entwickelt, untersucht und demonstriert werden. Im Fokus steht die Anwendung von Methoden für die Exploration von Anforderungen, die Entwicklung und Bewertung von Dienstleistungen für die nutzerspezifische Mobilitätsplanung, Untersuchungen zur Akzeptanz sowie Methoden zur Konzeption, Implementierung und Evaluation digitaler Geschäftsmodelle und hybrider Dienste.

Ansprechperson
Prof. Jörg Müller
kontakt aufnehmen
Beteiligte
  • Prof‘in. Dr.-Ing. Sester ( Leibniz Universität Hannover )
  • Prof. Dr.-Ing. Woijetschläger
Sichere Freigabe und zuverlässiger Serienbetrieb durch kontinuierliches echtzeitfähiges Monitoring der Umgebungswahrnehmung autonomer Fahrzeuge

Ziel des Projekts SafeWahr ist Verstöße gegenüber sicherheitskritischen Spezifikationen und Unsicherheiten von KI-basierten Umgebungswahrnehmungssystemen von autonomen Fahrzeugen rechtzeitig zu erkennen.

Umgebungswahrnehmungssysteme autonomer Fahrzeuge verwenden heutzutage umfangreiche KI-basierte Algorithmen. Etablierte Techniken und Methoden zum Nachweis der Safety stoßen hierbei an ihre Grenzen. Auch wenn viele Fahrszenarien definiert wurden und Millionen von Kilometern zum Testen abgefahren wurden, ist eine umfassende Gewährleistung der Safety während der Design Time nicht möglich. Ziel des Projekts SafeWahr ist Verstöße gegenüber sicherheitskritischen Spezifikationen und Unsicherheiten von KI-basierten Umgebungswahrnehmungssystemen von autonomen Fahrzeugen rechtzeitig zu erkennen. Im Falle einer erkannten Verletzung, setzt das autonome Fahrzeug dann seine Fahraufgabe mit eingeschränkter Funktionalität in einem sogenannten Fail-Operational-Modus fort.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
SocialCars: Kooperatives dezentrales/zentrales Verkehrsmanagement

Bei der Forschung des Graduiertenkollegs SocialCars geht es um die maßgebliche Verbesserung der Stadtverträglichkeit des zukünftigen Straßenverkehrs durch kooperative Ansätze.

Bei der Forschung des Graduiertenkollegs SocialCars geht es um die maßgebliche Verbesserung der Stadtverträglichkeit des zukünftigen Straßenverkehrs durch kooperative Ansätze. „Wie können die einzelnen Akteure im Straßenverkehr die Verkehrsinfrastruktur optimal nutzen, so dass sich die Sicherheit erhöht und Staus und Umweltbelastungen vermieden werden?“ lautet die Kernfrage, die das Zusammenwirken von zentraler (systemoptimaler) Steuerung sowie dezentralem (nutzeroptimalem) Handeln untersucht.

Ansprechperson
Prof. Dr.-Ing. Jörg P. Müller
Technische Universität Clausthal
kontakt aufnehmen
TP4 Use Case - Produktion im Bereich Automotive

GAIA-X 4 KI ist in seiner Struktur an die bereits entwickelte Konzeptarchitektur aus der GAIA-X Initiative angepasst und erfüllt diese vollständig.

GAIA-X 4 KI ist in seiner Struktur an die bereits entwickelte Konzeptarchitektur aus der GAIA-X Initiative angepasst und erfüllt diese vollständig. Die Teilprojekt Struktur berücksichtigt dabei die technische Grobarchitektur von GAIA-X. Dabei zielen die Teilprojekte 1 – 3 auf die Entwicklung von Bausteinen in den Bereichen der Services, der Infrastruktur und des Datenraums und damit die Anbindung an GAIA-X und den Aufbau des grundlegenden Ökosystems ab. Die Teilprojekte 4 und 5 adressieren jeweils die zwei Use Cases des Projekts, während das TP 6 das Projektmanagement sowie die Aktivitäten zu TP-X umfasst. Mit einem Use Case-basierten Ansatz werden die grundlegenden generischen Lösungsbausteine für verschiedene Anwendungsbereiche der Mobilität identifiziert und Anforderungen an diese abgeleitet. Dabei dienen diese Ansätze als Ausgangsbasis für die Projekte der Projektfamilie „GAIA-X 4 Future Mobility“, wo die praxisnahe Entwicklung flexibler Lösungsmodule stattfinden soll.

Ansprechperson
Dr. -Ing. Sandra Hellmers
kontakt aufnehmen
PRODUKTION
Entwurf einer Referenzplattform für KI im Edge Computing

Für neuartige Steuer- und Regelvorgänge z.B. basierend auf Bildverarbeitung und/oder KI wird erheblich mehr Rechenkapazität benötigt.

Für neuartige Steuer- und Regelvorgänge z.B. basierend auf Bildverarbeitung und/oder KI wird erheblich mehr Rechenkapazität und Kommunikationsbandbreite benötigt als bisher. Hierfür wird eine moderne Referenz-Hardware-/Softwareplattform für Industriesteuerungsgeräte entworfen. Die Schwerpunkte liegen auf schnellen E/A-Schnittstellen (z.B. für HD-Kameras) und hoher Rechenleistung bei gleichzeitig bestmöglicher Vorhersagbarkeit des Zeitverhaltens. Dazu werden auch neuartige Rechenelemente erprobt (KI-Beschleuniger, FPGAs). Echtzeiteigenschaften sollen auch für datenintensive Anwendungen gewährleistet werden können, die über mehrere Geräte hinweg im Verbund arbeiten. Hierfür wird die Nutzung aktueller Protokolle und Technologien integriert (Ethernet TSN mit OPC-UA PubSub). Die Plattform soll ein Konzept bieten, wie bestehende Anlagen(teile) auf die Referenzplattform umgerüstet oder an sie angeschlossen werden können. Eine modellbasierte Entwurfsmethodik auf Basis der IEC 61499-kompatiblen Open-Source-Software „4diac“ soll dazu dienen, diese unterschiedlichen und teilweise konkurrierenden Anforderungen für Entwickler handhabbar zu machen.

Ansprechperson
Dr. Frank Oppenheimer
kontakt aufnehmen
Erklärbare KI-basierte Prozessmodelle in der spanenden Fertigung

Das Ziel ist die Entwicklung und Anwendung von Methoden der künstlichen Intelligenz auf ein Prozessmodell für die spanende Fertigung.

Das Ziel ist die Entwicklung und Anwendung von Methoden der künstlichen Intelligenz auf ein Prozessmodell für die spanende Fertigung. Zu diesem Zweck werden entsprechende Prozess- und Simulationsdaten, sowie anschließende Qualitätsmessungen erhoben. Mithilfe der Methoden des maschinellen Lernens werden mit diesen Daten Modelle erstellt, die in der Lage sind resultierende Qualitätsmerkmale aus anfallenden Prozessdaten abzuleiten und vorherzusagen. Neben Genauigkeit, Zuverlässigkeit und Generalisierbarkeit werden an die KI-basierte Prozessoptimierung zusätzliche Anforderungen gestellt. In einem weiteren Schritt soll daher untersucht werden, wie sich diese Modelle selbstständig adaptieren können. Weitere Arbeitsschritte beschäftigen sich dann mit der Erklärbarkeit der KI-Modelle. Ein Fokus liegt – neben der Ausgabe der Vorhersagekonfidenz – auf der Nachvollziehbarkeit der Ergebnisse. Die Informationen aus den Modellen können an die Prozessplanung geliefert und sowohl zur Umplanung, als auch zur Erkennung von Prozessanomalien verwendet werden.

Ansprechperson
Dr. Claudia Niederée
kontakt aufnehmen
Identifikation der Wertschöpfungspotenziale von KI in der Produktion am Beispiel der Druckgussindustrie

Das Ziel dieses Arbeitspaketes besteht in der Identifikation der Wertschöpfungspotenziale von Künstlicher Intelligenz (KI) in der Produktion

Das Ziel dieses Arbeitspaketes besteht in der Identifikation der Wertschöpfungspotenziale von Künstlicher Intelligenz (KI) in der Produktion am Beispiel der Druckgussindustrie. Zunächst werden Methoden und Einsatzfelder im Produktionsumfeld anhand von Fachliteratur systematisiert, und anschließend der Umsetzungsgrad anhand von qualitativen Experteninterviews in Unternehmen festgestellt. Neben der Anwenderebene richtet sich der zweite Teil der Befragung an Anbieter von Dienstleistungen, die produzierende Unternehmen bei der Durchführung von KI-Projekten unterstützen. Abschließend werden zusammen mit Partnerunternehmen mögliche Einsatzszenarien definiert und umgesetzt. Mithilfe einer zu entwickelnden Methode soll der Nutzen der Einsatzszenarien im Vorfeld erfasst und Aufwänden gegenüber gestellten werden.

Ansprechperson
Prof. Dr. Berend Denkena
kontakt aufnehmen
KI basierte Modellierung von Bauteilinformationen unter Prozessunsicherheiten

Bei der Erstellung eines digitalen Zwillings, der die Fertigungsqualität eines Bauteils aus den Prozessgrößen vorhersagt,

Bei der Erstellung eines digitalen Zwillings, der die Fertigungsqualität eines Bauteils aus den Prozessgrößen vorhersagt, gilt es, die Einflüsse der Unsicherheit und der prozessbedingten Abweichungen in eine prozessparallele Simulation einzubringen. Dazu muss die prozessparallele Simulation in der Lage sein, prozessgrößenbedingte Einflussfaktoren vorhersagen zu können, die sich auf die Bauteilqualität auswirken können. Um eine geeignete Modellierung vorzunehmen, werden hierbei verschiedene ML-Verfahren auf ihre Eignung untersucht. Neben den, mit geeigneten Modellen vorhersagbaren Einflüssen und Größen, spielen auch die zufallsbedingten Ausgangsgrößen eine Rolle. Diese gilt es zu analysieren, um auch die Schwankungsbreite der Ergebnisse zu beachten. Damit können auch unter Berücksichtigung der gewünschten Toleranz Abschätzungen über Konformitätswahrscheinlichkeiten getroffen werden.

Ansprechperson
Prof. Dr. Berend Denkena
kontakt aufnehmen
KI-basierte Qualitätsprognose im Gießprozess

Die Qualitätsprognose beschäftigt sich mit der Identifikation und Extraktion von Datenpunkten, die für die Qualität von Fertigteilen relevant sind.

Die Qualitätsprognose beschäftigt sich mit der Identifikation und Extraktion von Datenpunkten, die für die Qualität von Fertigteilen relevant sind. Durch die Erfassung und Analyse der während der Produktion anfallenden Prozess- und Teilequalitätsdaten werden Qualitätsprognosen der gefertigten Teile erstellt. Das erstellte Qualitätsmodell wird durch die Datenanalyse kontinuierlich verbessert und ist daher Produkt-unabhängig nutzbar. Hierzu sind die für die Prognosemodelle am besten geeigneten Merkmalsvektoren aus den Sensorsignalverläufen zu berechnen, die für den Gießprozess am besten geeigneten Klassifikations- und Regressionsverfahren zu bestimmen sowie die Struktur eines dynamischen Prozess- und Prognosemodells festzulegen. Die Verfahren zur Bestimmung der optimalen Algorithmen für die Merkmalsextraktion, Klassifizierung, Regression und Modelldynamik werden am Beispiel eines verwandten Produktionsprozesses mit anderem Maßstab (Mikropräzisionsspritzguss) validiert, um die Übertragbarkeit der Forschungsergebnisse auf andere Produktionsverfahren zu validieren.

Ansprechperson
Prof. Dr. Christoph Wunck
kontakt aufnehmen
KI-Entwicklung für Embedded-Systems mit Leitanwendungen in Sensorik

Das Gesamtziel des Vorhabens sind neuartige Verfahren zur Entwicklung, Modellierung und Regelung von Antriebssteuersystemen basierend auf KI-Technologie. In diesem Zusammenhang entwickelt OFFIS einen Compiler für neuartige Datenfluss-Prozessorarchitekturen.

Das Gesamtziel des Vorhabens sind neuartige Verfahren zur Entwicklung, Modellierung und Regelung von Antriebssteuersystemen basierend auf KI-Technologie. In diesem Zusammenhang entwickelt OFFIS einen Compiler für neuartige Datenfluss-Prozessorarchitekturen. Für diese Prozessoren soll ein Compiler Steuerungsalgorithmus von einer mathematisch-algorithmischen domänenspezifischen Sprache (domain specific language, DSL) in eine Konfiguration für diese Architektur umsetzen, was bei einem herkömmlichen Prozessor einem Programm entspräche. Die Datenflussarchitektur arbeitet - im Gegensatz zu anderen Prozessoren - nicht sequenzielle Instruktionen ab, sondern kann hochparallelisiert Datenströme verarbeiten. Dadurch lassen sich völlig neue datenflussbasierte Optimierungsverfahren erforschen. Die hierbei eingesetzten Technologien fokussieren sich auf den Compilerbau und High-Level-Synthese-Techniken. Anwendungsfelder im Projekt sind Künstliche Intelligenz und konventionelle Signalverarbeitungsalgorithmen.

Ansprechperson
Dr. Jörg Walter
kontakt aufnehmen
KI-Werkstatt: Austausch zwischen Industrie und Wissenschaft

Die KI-Werkstatt bildet eine Plattform für den fachlichen Austausch zwischen Industrie und Wissenschaft sowie zwischen Unternehmen untereinander im Kontext der Anwendung maschinellen Lernens in der Produktion. Als Basis dient der Gamification-Ansatz der Leuphana Lernfabrik.

Die KI-Werkstatt bildet eine Plattform für den fachlichen Austausch zwischen Industrie und Wissenschaft sowie zwischen Unternehmen untereinander im Kontext der Anwendung maschinellen Lernens in der Produktion. Als Basis dient der Gamification-Ansatz der Leuphana Lernfabrik.

Ansprechperson
Prof. Dr.-Ing. Matthias Schmidt
kontakt aufnehmen
LUTNet: energieeffizientes KI Netz aus elementaren Lookup-Tabellen

Die Projektpartner entwickeln einen innovativen Lösungsansatz für energieeffiziente Künstliche Intelligenz (KI) basierend auf künstlichen neuronalen Netzen in Field Programmable Gate Arrays (FPGAs).

Die Projektpartner entwickeln einen innovativen Lösungsansatz für energieeffiziente Künstliche Intelligenz (KI) basierend auf künstlichen neuronalen Netzen in Field Programmable Gate Arrays (FPGAs). Ziel des Projektes ist es, am Beispiel der 1-dimensionalen Streamverarbeitung (Artefakterkennung im EKG) für ein FPGA eine grundlegend neue KI-Struktur auf Basis klassischer CNN-Architekturen zu entwickelt. Mit Hilfe von Machine Learning Verfahren wird das Signal ausgewertet und das Ergebniss klassifiziert. Dabei muss eine vorgegebene Erkennungsrate erreicht und der Energiebedarf soweit wie möglich minimiert werden.

Ansprechperson
Dr. Frank Oppenheimer
kontakt aufnehmen
Optimierte Produktionsprozesse zur Verringerung des CO2-Abdruckes im Druckgießprozess mit Sekundär-Aluminium

Steigende Energie- und Rohstoffpreise sowie das Wachsen des internationalen Wettbewerbs sorgen dafür, dass interne Abläufe hinsichtlich des Ressourcen- und Energiebedarfs deutlich effizienter gestaltet werden müssen. Neben diesen ökonomischen Aspekten rücken gerade in der aktuellen Zeit die ökologischen Aspekte, wie z.B. die emittierten Treibhausgase immer mehr in den Focus. Aufgrund aktueller gesetzlicher Regulierungen auf nationaler und internationaler Ebene stellen die ökologischen Aspekte nunmehr eine wichtige Grundlage für strategische, unternehmerische Entscheidungen dar. Die Berücksichtigung der CO2-Äquivalente kann kein Unternehmen in der heutigen Zeit außer Acht lassen, möchte man sich auf dem Weltmarkt behaupten.

Steigende Energie- und Rohstoffpreise sowie das Wachsen des internationalen Wettbewerbs sorgen dafür, dass interne Abläufe hinsichtlich des Ressourcen- und Energiebedarfs deutlich effizienter gestaltet werden müssen. Neben diesen ökonomischen Aspekten rücken gerade in der aktuellen Zeit die ökologischen Aspekte, wie z.B. die emittierten Treibhausgase immer mehr in den Focus. Aufgrund aktueller gesetzlicher Regulierungen auf nationaler und internationaler Ebene stellen die ökologischen Aspekte nunmehr eine wichtige Grundlage für strategische, unternehmerische Entscheidungen dar. Die Berücksichtigung der CO2-Äquivalente kann kein Unternehmen in der heutigen Zeit außer Acht lassen, möchte man sich auf dem Weltmarkt behaupten. Das Ziel des Projekts kann in vier Hauptpunkte gegliedert werden: Entwicklung eines Lebenszyklusanalysemodells, das von den Unternehmen dieser Branche herangezogen werden kann Prozessoptimierung durch künstliche Intelligenz Werkstoffcharakterisierung zum Recyceln von Sekundäraluminium Entwicklung von geeigneten Wasserstoffbrennern für den Einsatz in der Gießerei Um eine hohe Praxisnähe zu gewährleisten, wird ein intensiver Austausch zwischen Wissenschaft und Wirtschaft in Form von projektbegleitenden Ausschüssen angestrebt. Die Zusammenarbeit reicht dabei von der Teilnahme an Ausschusstreffen bis hin zur aktiven Mitarbeiten an den Projektthemen oder der Bereitstellung von Testumgebungen für die im Projekt entwickelten Prototypen.

Ansprechperson
Dr.-Ing. Norbert Hoffmann
kontakt aufnehmen
Optimierung der Produktionsplanung und -steuerung durch Machine Learning Methoden

Es wird untersucht, wie Änderungen der Prozessketten innerhalb kürzester Zeit mit größtmöglicher Effizienz gestaltet werden können.

Es wird untersucht, wie Änderungen der Prozessketten innerhalb kürzester Zeit mit größtmöglicher Effizienz gestaltet werden können. Bezugspunkte sind dabei Produktionsplanung und -steuerung (PPS). Zu Beginn wird ein Datenmodell zur Gestaltung rekonfigurierbarer Prozessketten erstellt. Im Anschluss wird das Potenzial von ML-Methoden für die Automatisierung von PPS-Aufgaben identifiziert. Dazu werden für 4 Aufgabenstellungen beispielhaft konkrete Lösungen entwickelt. Diese entwickelten ML-Lösungen werden in einem Softwareprototyp umgesetzt und in der Praxis erforscht.

Ansprechperson
Prof. Dr. Matthias Schmidt
kontakt aufnehmen
Prozessüberwachung im Druckguss

Das Ziel ist eine prognosebasierte Prozessoptimierung unter Berücksichtigung der Erkenntnisse aus einer virtuellen Optimierung

Das Ziel ist eine prognosebasierte Prozessoptimierung unter Berücksichtigung der Erkenntnisse aus einer virtuellen Optimierung mittels Gießprozesssimulation zu einer wissensbasierten Prozessregelung zu verknüpfen. Ein dazu entworfenes und gefertigtes Druckgießwerkzeug mit integrierten Sensoren wird für den Gießbetrieb qualifiziert und eingesetzt. Es erfolgt eine Datenerfassung in zahlreichen, durchzuführenden Gießprozessen. Die erfassten Prozessdaten erfüllen zwei Funktionen: zum einen als unmittelbare Messgrößen zur Steuerung der Maschinenfunktion. Zum anderen ist das Ziel eine Sensor-to-the-Cloud-Konnektivität, um Sensordaten nahezu in Echtzeit in einem IT-System verfügbar zu machen und durch eine erweiterte Datenanalytik, beispielsweise basierend auf ML-Methoden, zu analysieren. Die daraus gewonnenen Erkenntnisse fließen zurück in die Gießprozessplanung. Weiteres Ziel ist die Etablierung einer autonomen, maschinenunabhängigen Prozessplanung unter Berücksichtigung der bereits gewonnenen Daten aus der Gießprozesssimulation. Die Methode soll eine direkte Übergabe der (Gieß-)Prozessdefinition an die Druckgießmaschine sowie den (zunächst noch manuellen) Start des Produktionsprozesses erlauben, um somit perspektivisch zu einer automatischen, personalreduzierten Inbetriebnahme von Druckgießwerkzeugen zu gelangen.

Ansprechperson
Prof. Dr. Prof. h. c. Klaus Dilger
kontakt aufnehmen
Quantifizierung zentraler Inputfaktoren zur Bestimmung von Plandurchlaufzeiten in der Werkstattfertigung

Die Bestimmung von Planauftragsdurchlaufzeiten ist in Unternehmen mit komplexen Produktionsstrukturen eine immer noch ungelöste Fragestellung. Folglich haben Unternehmen häufig Probleme, Kunden termintreu zu beliefern. Neben einer durch verspätete Arbeitsvorgänge unzureichenden Termintreue, führen verfrühte Arbeitsvorgänge zu einem vermeidbaren Bestand. Präzise Plan-Durchlaufzeiten sind dabei erforderlich, um den Kunden einen realisierbaren Termin zu bestätigen, die Kapazitäten in der Fertigung zu planen und die Beschaffung besser zu organisieren.

Die Bestimmung von Planauftragsdurchlaufzeiten ist in Unternehmen mit komplexen Produktionsstrukturen eine immer noch ungelöste Fragestellung. Folglich haben Unternehmen häufig Probleme, Kunden termintreu zu beliefern. Neben einer durch verspätete Arbeitsvorgänge unzureichenden Termintreue, führen verfrühte Arbeitsvorgänge zu einem vermeidbaren Bestand. Präzise Plan-Durchlaufzeiten sind dabei erforderlich, um den Kunden einen realisierbaren Termin zu bestätigen, die Kapazitäten in der Fertigung zu planen und die Beschaffung besser zu organisieren. In der Praxis finden jedoch oft starre Methoden für die Bestimmung der Plan-Durchlaufzeiten Anwendung, die nicht ausreichend auf sich verändernde Umwelteinflüsse reagieren. Mögliche Umwelteinflüsse sind z.B. kurzfristige Krankmeldungen oder Schwankungen der Belastung der Produktion. Als klassische Ansätze zur Bestimmung von Plan-ZDA zählen insbesondere die Verfahren, welche auf Schätzungen, Vergangenheitswerten, logistischen Modellen und der Simulation basieren. Diese Verfahren berücksichtigen bei der Bestimmung unterschiedliche Informationen und Daten. Die Grenzen der meisten klassischen Verfahren liegen besonders in zu vereinfachten Annahmen, welches eine hohe Planungsgüte erschwert. Daher ist es das Ziel dieses Vorhabens, aus Unternehmensdaten von Auftragsfertigern zentrale Inputfaktoren zur Bestimmung von Plan-Durchlaufzeit in der Werkstattfertigung zu identifizieren und zu quantifizieren. Im Vorhaben sollen maschinelle Lernverfahren (ML) genutzt werden, um in Daten Muster zu erkennen und generalisierte Annahmen ableiten zu können. Die Erkenntnisse über die zentralen Wirkbeziehungen helfen den untersuchten Unternehmen, die Prognose von Plan-Durchlaufzeiten zu präzisieren und somit die Termineinhaltung gegenüber ihren Kunden zu verbessen.

Ansprechperson
Thorben Green
Leuphana Universität Lüneburg
kontakt aufnehmen
WASSER
Anwendung der künstlichen Intelligenz (KI) für die Standortauswahl von tiefen geologischen Endlagern

Methoden der künstlichen Intelligenz (KI; Artificial Intelligence, AI), des maschinellen Lernens (ML), Deep Learning (DL) und Big Data Anwendungen können bei der Auswertung der großen Datensätze im Standortauswahlverfahren für ein Endlager eine entscheidende Rolle spielen, angefangen von der Bewertung der Datenqualität über die Analyse von Daten bis hin zu Fragen der Objektivierbarkeit von Entscheidungen.

Methoden der künstlichen Intelligenz (KI; Artificial Intelligence, AI), des maschinellen Lernens (ML), Deep Learning (DL) und Big Data Anwendungen können bei der Auswertung der großen Datensätze im Standortauswahlverfahren für ein Endlager eine entscheidende Rolle spielen, angefangen von der Bewertung der Datenqualität über die Analyse von Daten bis hin zu Fragen der Objektivierbarkeit von Entscheidungen. Im Rahmen des Vorhabens sollen die Möglichkeiten von KI aufgezeigt und deren Anwendung in geowissenschaftlichen Fragestellungen evaluiert werden. Durch die Rückbindung der Methoden auf die Anforderungen des SV soll der Stand von Wissenschaft und Technik zu den Möglichkeiten des Einsatzes künstlicher Intelligenz zur Identifikation und Bewertung potentieller Endlagerstandorte und der Entwicklung eines Endlagers abgebildet werden. Zugleich sollen Grenzen, notwendige Voraussetzungen und Risiken des Einsatzes von KI dargestellt und mit Blick auf das SV eingeordnet und bewertet werden.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
Automatisierte Angebotsbearbeitung mit KI

Entwicklungsziel ist eine IT-Lösung als lernendes System (Machine Learning), das bei Texteingabe über Suchalgorithmen in der Lage ist, assoziativ Zusammenhänge zu erkennen und in Sekundenbruchteilen passende Lösungen aus großen Datenbanken herauszufiltern.

Entwicklungsziel ist eine IT-Lösung als lernendes System (Machine Learning), das bei Texteingabe über Suchalgorithmen in der Lage ist, assoziativ Zusammenhänge zu erkennen und in Sekundenbruchteilen passende Lösungen aus großen Datenbanken herauszufiltern. Es geht also um eine Applikation, die sich in die Prozesssteuerungssoftware der STRABAG AG integriert und im Prinzip nach dem gleichen Muster funktioniert wie die etablierten Suchfenster etwa bei Amazon und Google. Das neue Software-Tool soll aus eingelesenen elektronischen Leistungsverzeichnissen von Auftraggebern automatisch Kalkulationsentwürfe als Arbeitsgrundlage generieren und die Kalkulatoren in der Folge auch bei der Wahl der passenden Angebotsbausteine und deren Details assoziativ unterstützen.

Ansprechperson
Univ.-Prof. Dr.-Ing. habil. Jorge Marx Gómez
Carl von Ossietzky Universität Oldenburg
kontakt aufnehmen
Collaborative Machine Learning for Data Value Creation

Das Ziel des ersten Themas im Projekt CoLDa (Collaborative Machine Learning for Data Value Creation) besteht in der Erforschung, Konzeption und prototypischen Entwicklung eines Vorgehensmodells für den Einsatz von Federated Machine Learning entlang des Datenintegrationsprozesses.

Das Ziel des ersten Themas im Projekt CoLDa (Collaborative Machine Learning for Data Value Creation) besteht in der Erforschung, Konzeption und prototypischen Entwicklung eines Vorgehensmodells für den Einsatz von Federated Machine Learning entlang des Datenintegrationsprozesses.

Ansprechperson
"Gerrit Schumann Jan-Philipp Awick "
Carl von Ossietzky Universität Oldenburg
kontakt aufnehmen
Graduiertenkolleg Stärkung Batteriecluster Region Braunschweig

Dieses Projekt ist Teil des Graduiertenkollegs CircularLIB zur kreislauforientierten Produktion von Lithium-Ionen-Batterien. In diesem Programm kooperieren die drei Universitäten TU Braunschweig, TU Clausthal und die Leibnitz Universität Hannover zusammen mit dem Fraunhofer-Institut für Schicht- und Oberflächentechnik IST.

Dieses Projekt ist Teil des Graduiertenkollegs CircularLIB zur kreislauforientierten Produktion von Lithium-Ionen-Batterien. In diesem Programm kooperieren die drei Universitäten TU Braunschweig, TU Clausthal und die Leibnitz Universität Hannover zusammen mit dem Fraunhofer-Institut für Schicht- und Oberflächentechnik IST. Ziel ist die Erforschung eines hybriden KI-basierten Modellierungsansatzes für Lithium-Ionen-Batterien. In jüngster Zeit kommt auch im Kontext der klassischen Ingenieurdisziplinen vermehrt maschinelles Lernen zum Einsatz. Insbesondere Deep-Learning-Ansätze bieten schnelle und relativ genaue Modellierungsansätze, die auf dem Lernen bestimmter Aufgaben aus Beispielen basieren. Dies ist vor allem im Zusammenhang mit hochdimensionalen komplexen Systemen, bei denen die zugrunde liegende Physik nicht vollständig bekannt ist oder der Rechenaufwand für die Simulation mit herkömmlichen numerischen Methoden hoch ist, von entscheidendem Interesse. Ein weiterer Aspekt, der den Einsatz von Deep-Learning-Ansätzen fördert, ist der Bedarf an schnellen Modellen, die in iterativen Aufgaben wie Optimierung und Steuerung eingesetzt werden können. Bei datengesteuerten Modellen handelt es sich jedoch in der Regel um Black-Box-Ansätze, die nur auf der Grundlage von Daten entwickelt werden und physikalisches Wissen oder Randbedingungen nicht explizit in die Modellentwicklung einbeziehen. Dies kann dazu führen, dass es solchen Modellen an Robustheit und Genauigkeit mangelt, insbesondere bei begrenzten Trainingsdaten.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
Hybride, KI-basierte Modelle für die Entwicklung von Brandschutzlösungen

Das Ziel des Projektes ist es, die Ergebnisse aus den Brandversuchen und den FEM Simulationen durch hybride KI-Modelle zu verbinden, umso über die durchgeführten Versuche sowie die gerechneten Simulationsszenarien hinaus generalisierend, beliebige Szenarien und individuelle Lösungen in kürzester Zeit vorhersagen zu können.

Das Ziel des Projektes ist es, die Ergebnisse aus den Brandversuchen und den FEM Simulationen durch hybride KI-Modelle zu verbinden, umso über die durchgeführten Versuche sowie die gerechneten Simulationsszenarien hinaus generalisierend, beliebige Szenarien und individuelle Lösungen in kürzester Zeit vorhersagen zu können. Gleichzeitig können Ansätze aus dem Bereich der erklärbaren Künstlichen Intelligenz (XAI) genutzt werden, um Hinweise auf die Ursachen z.B. für das Versagen einzelner Elemente eines Feuerschutzabschluss zu identifizieren und so dem Planer/Entwickler wertvolle Hinweise liefern.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
KI-basiertes Kanalinstandhaltungsmanagement

Der Einsatz von KI im Kontext der prädiktiven Instandhaltung von Abwasserkanälen birgt Vorteile, sowohl im Sinne der Kostenersparnis als auch der Vorbeugung von Totalausfällen und daraus ggf. resultierenden Verunreinigungen des Grundwassers.

Der Einsatz von KI im Kontext der prädiktiven Instandhaltung von Abwasserkanälen birgt Vorteile, sowohl im Sinne der Kostenersparnis als auch der Vorbeugung von Totalausfällen und daraus ggf. resultierenden Verunreinigungen des Grundwassers. Ziel ist es hierbei, bisher analog ausgeführte Tätigkeiten, so beispielsweise die Klassifikation von Schäden am Kanal, in Zukunft automatisiert erfolgen zu lassen. Darauf aufbauend lässt sich insbesondere eine Strategie ableiten, mit der sich der zukünftige Instandhaltungsprozess optimieren lässt. Zum Zwecke der Nutzerfreundlichkeit wird zusätzlich ein 3D-Modell des gesamten Netzes entwickelt, mit der sich sowohl die Klassifikation, als auch die Prognose des Zustandes visuell einsehen lässt. Die geplanten Schritte hierbei reichen von der theoretischen Erarbeitung eines Konzepts, bis hin zu einem einsatzfähigen Prototypen. Die eingesetzten Techniken umfassen klassische statistische Methoden, bis hin zu maschinellen Verfahren im Sinne des Predictive Maintenance und der Klassifikation.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
Pilotprojekt "KI basiertes Hochwasserfrühwarnsystem für die Altstadt Goslar"

Das Projekt "KI basiertes Hochwasserfrühwarnsystem" ist eine praktische Anwendung der KI-Prognosesysteme auf Sicherheitskritische Alltagsbereiche.

Das Projekt "KI basiertes Hochwasserfrühwarnsystem" ist eine praktische Anwendung der KI-Prognosesysteme auf Sicherheitskritische Alltagsbereiche. Die praktische Anwendungsdomäne ist der Raum Goslar mit der vorhandenen Sensorinfrastruktur und den darüber hinnaus erhobenen historischen Daten. Hierbei soll die Künstliche Intelligenz die empirischen Daten wie Niederschlag, Bodenfeuchtigkeit, Sonneneinstrahlung über einen vergangenen Zeitraum observieren und in Verhältnis mit dem aktuellen Wasserpegel setzen. Es wird eine mögliche Korrelation vorausgesetzt, so dass gefährliche Spitzenwerte frühzeitig vorausgesagt werden können. Das Prognoseverfahren ist damit ein Kernstück für Koordination einer Reihe baulicher Maßnahmen zur Prävention von Hochwasser und Überflutungsereignissen.

Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering
kontakt aufnehmen
WIBU

Die inkrementelle Blechumformung (IBU) ist ein Fertigungsverfahren, das sich durch seine hohe Flexibilität auszeichnet und daher insbesondere für die Kleinserienfertigung geeignet ist.

Die inkrementelle Blechumformung (IBU) ist ein Fertigungsverfahren, das sich durch seine hohe Flexibilität auszeichnet und daher insbesondere für die Kleinserienfertigung geeignet ist. Ohne eine feste Gegenform, zum Beispiel eine Patrize oder ein zweites Werkzeug, können in der IBU jedoch keine komplexen Geometrien mit einer guten Geometriegenauigkeit erzeugt werden. Damit die Modellierung sämtliche Abhängigkeiten abbilden kann, ist eine fachübergreifende Kooperation mit dem maschinellen Lernen erforderlich. Das Ziel der Kooperation im Rahmen des Vorhabens ist die Entwicklung eines Online-Regelkreises, um die Soll-Geometrie robust und reproduzierbar zu erreichen. Der geregelte Umformprozess wird durch Gestaltungsrichtlinien ergänzt, die eine automatisierte Verarbeitung von CAD-Dateien einschließen und eine Kompensation von Geometrieabweichungen durch Anpassung der Fertigungsreihenfolgen und des Werkzeugpfads ermöglichen.

Ansprechperson
Prof. Dr.-Ing. Jens Heger
Leuphana Universität Lüneburg
kontakt aufnehmen

KI-Projekte

Die Partner des ZDIN sind an verschiedenen Digitalisierungsprojekten beteiligt, die sich mit der Entwicklung, Anwendung oder Bereitstellung Künstlicher Intelligenz beschäftigen. Erfahren Sie mehr über die Vielseitigkeit dieser Projekte und die unterschiedlichen Einsatzmöglichkeiten dieser spannenden Technologie. Mit einem Klick auf diesen Link gelangen Sie zu den Forschungsprojekten mit KI-Bezug.

FORSCHUNGSPROJEKTE MIT KI-BEZUG ÜBERSICHT

Nutzung und Produktkreisläufe in der Circular Economy

MEHR

Digitale Zwillinge und Produktpässe in der Circular Economy

MEHR

Factory-X

MEHR

MEHR ZU KI

Plattform Lernende Systeme

Die Plattform Lernende Systeme der acatech, Deutsche Akademie der Technikwissenschaften, bringt deutschlandweit Expertinnen und Experten für Künstliche Intelligenz und Lernende Systeme zusammen, um Rahmenbedingungen für die Entwicklung und die verantwortungsbewusste Anwendung dieser Technologien zu entwickeln. Auch die Kompetenzen der ZDIN Partner sind dort verzeichnet, um die Forschung mit der Wirtschaft und Praxis zu vernetzen. Ziele der Plattform sind insbesondere, Lernende Systeme für die gesellschaftliche Zusammenarbeit zu gestalten, Kompetenzen im Umgang mit Künstlicher Intelligenz zu fördern und den gesellschaftlichen Dialog zum Thema KI anzuregen.

Fonts updating...


Kontaktieren Sie uns telefonisch
+49 441 9722-222

A A
Beiträge in einfacher Sprache