Deutsches Forschungszentrum

Labor 4.0 – Digitalisierung und Automatisierung

#CONCEPT

#CODE

#CLOUD

#CARE

Zusammenfassung

Die Digitalisierung und Automatisierung eines Labors stellt einen komplexen Vorgang dar – es gilt die Hardwarekomponenten zusammenzuführen, die M2M-Kommunikation zu sichern und schlussendlich eine einheitliche Datenbasis zu schaffen. Die Gewährleistung einer reibungslosen Kausalkette unter Ausschluss bzw. Minimierung von Fehlerquellen garantiert sichere Ergebnisse bei den Laborauswertungen. Durch die schnelle Identifikation eines betroffenen Personenkreises liefert die Softwarelösung einen wichtigen Beitrag zur Gesundheit und dem Schutz der Gesellschaft.

Die InterFace AG wurde von einem Forschungszentrum mit der Konzeption und Entwicklung einer zukunftsfähigen Softwarelösung beauftragt – Ende-zu-Ende-Entwicklung: von der Aufnahme der Requirements, über die Gestaltung der Weboberfläche und Backend-Services, bis hin zur Datenbank sowie Wartungs- und Supportleistungen. Alle im Labor vorhandenen Geräte, Systeme und internen Prozesse wurden intelligent miteinander verbunden, um einen automatisierten Analyseprozess zu ermöglichen.

Wir schaffen Freiräume durch IT-Lösungen

Diese Freiräume wurden geschaffen:

  • Kostenreduktion:
    Reduzierung der Verwaltungs- und Personalkosten durch die Automatisierung und Verkürzung der internen Vorgänge
  • Effizienzsteigerung:
    Digitalisierung ohne Medienbruch, Beschleunigung der internen Abläufe – Datenverwaltung, Qualitätskontrolle, Anbindung an interne und externe Schnittstellen, Dateiexport
  • Wettbewerbsvorteil:
    Reduzierung der Fehleranfälligkeiten, sichere Ergebnisse mit höherer Qualität bei Laborauswertungen, Verringerung des Verwaltungsaufwands

Hintergrund

Kunde und Partner war ein Forschungszentrum, das in der Diabetes- und Covid-Forschung tätig ist. Ziel war die Automatisierung von Prozessen zur Analyse von Körperflüssigkeiten, primär Speichel und Blut, die zu großen Teilen manuell abgebildet wurden. Die Pilotierung unserer Software war aufgrund der herrschenden epidemiologischen Lage von großer Bedeutung.

Herausforderung

Labore und Forschungseinrichtungen funktionieren häufig analog, da die beteiligten Hardwarekomponenten (z.B. Analyse von Flüssigkeitsproben) nicht standardisiert sind. Die Vielzahl an modernen und spezialisierten Einzelgeräten unterschiedlicher Hersteller bietet oft keine Möglichkeit zum Datenaustausch; unterschiedliche Dateiformate und Schnittstellen erschweren die M2M-Kommunikation. Das Fehlen einer einheitlichen Datenbasis und eines Prozessmonitorings behindern das Sammeln, Aggregieren, Konsolidieren und Auswerten von Daten.

Ziel des Projekts war die Digitalisierung des Labors bzw. der im Labor existierenden Prozesse – ausgehend von der Planung und Verwaltung bis hin zur Automatisierung:

  • Konzeption und Entwicklung einer individuellen Webapplikation
  • Implementierung einer zentralen Datenbank
  • Vernetzung der existierenden Zielsysteme und Prozesse
  • Einbindung von Optimierungsmodellen
  • Simulationen zur Auswertung der gesammelten Daten
  • Integration in die bestehende IT-Infrastruktur
  • Automatisierung der bestehenden Prozesse

Durch diese Maßnahmen wurden Fehleranfälligkeiten reduziert. Effizienz und Qualität der einzelnen Abläufe und generierten Daten wurden gesteigert und ein Wettbewerbsvorteil wurde gesichert.

Lösung

Das Projekt wurde ursprünglich aufgrund der Mehrbelastung durch Covid-Tests gestartet. Weiterführend ist die Anwendung für Analysen (z.B. Blut) im Kontext der verschiedenen vom Labor geleisteten Studien geplant.

Aufgrund der stetig steigenden Anzahl der durchgeführten Tests war das manuelle Verfahren nicht länger zeitgemäß. Gerade die Übertragung der Ergebnisse „per Hand“ in die zentrale Datenbank war aufwendig und fehleranfällig, was eine Automatisierung dieses und weiterer Prozessschritte dringend notwendig machte.

Die InterFace AG entwickelte eine webbasierte Oberfläche zur Visualisierung der gesammelten und nutzbar gemachten Daten. Ihr Aufgabengebiet umfasste zudem die Konzeption und Implementierung aller anderen Anwendungskomponenten wie Frontend, Backend, Datenbankstruktur und zusätzliche Services.

In der Datenbank werden nun die Ergebnisse in den Messgeräten generiert, automatisch erfasst und im Anschluss zur Verfügung gestellt. Sie bietet eine zentrale Ablagemöglichkeit aller Messergebnisse, die dann über das webbasierte Dashboard visualisiert und für den Nutzer strukturiert ausgegeben werden.

Das ursprünglich manuell durchgeführte Pipettierverfahren war zeitintensiv und fehlerbehaftet. Ein vollautomatisierter und sich selbst reinigender Pipettierroboter übernimmt jetzt die Generierung der Quell- und Zielplates – Vorgehensweise: Die einzelnen Proben befinden sich in Tubes (kleinen Glasröhrchen), die auf Plates (Platten) angeordnet sind. Für einen Assay wird nur ein Teil der verfügbaren Probe verwendet – Pipettierung von einem Quelltube in ein Zieltube. Dieser Vorgang erfolgt plattenweise oder listenweise. Für den weiteren Prozess wurden mehrere flexible Dateiformate definiert, die von der Anwendung problemlos eingelesen werden können, um die von den Messgeräten erzeugten Daten zu verwalten.

Hinter den durchgeführten Messungen stecken komplexe Berechnungen und eine systemgestützte Validierung der Ergebnisse. Sie werden parallel für mehrere Tubes erfasst, ausgewertet, zugeordnet und in einer Datenbank gespeichert – generisches Datenmodell. Es lassen sich Rückschlüsse ziehen, ob die Messungen valide sind oder noch einmal überprüft werden müssen. Eine manuelle Korrekturmöglichkeit der Ergebnisse ist auf der Weboberfläche gegeben: Die Daten des Assays werden geprüft und gegebenenfalls manuell korrigiert, zudem lassen sich einzelne Messungen ausschließen.

Hervorzuheben ist die konfigurierbare Qualitätskontrollansicht, die es dem Nutzer ermöglicht, sämtliche Kontrollwerte zu sichten. Die gemessenen Kontrollwerte werden zusammen mit den Messzeitpunkten aggregiert, statistischen Analyseverfahren (z.B. CUSUM, Moving Range) unterzogen und in entsprechenden Diagrammen dargestellt. Statistische Ausreißer und Tendenzen werden von der Anwendung automatisch markiert und können als Hinweis dienen, dass ein Defekt in der Hardware des Messgerätes vorliegt. Dadurch wird potenziellen Ausfällen und Messfehlern vorgebeugt.

Leistungen der Interface AG
#CONCEPT
  • Requirements: Erarbeitung des Anforderungskatalogs
  • IST-Analyse: Verständnis für den bisherigen Ablauf
  • SOLL-Analyse: Skizzierung des Zielszenarios – Abbildung des Prozesses mit zukunftssicherer IT
#CODE
  • Entwicklung der Weboberfläche: Design und Umsetzung eines iterativ verbesserten User-Interfaces
  • Konzeption und Implementierung: Planung neuer Features in enger Zusammenarbeit mit den Nutzern – Umsetzung durch Prototypen, Verfeinerung durch Nutzerfeedback
  • Softwarearchitektur und Architekturentscheidungen: Wahl von nachhaltigen und erweiterbaren Softwarestrukturen, Einbeziehung des Teams bei wichtigen Entscheidungen
  • Anbindung an externe Zielsysteme: Datenbanken, Datenverwaltungstools
  • Generisches Datenmodel: Verwaltung aller notwendigen Daten bezüglich der Tubes sowie des Messprozesses (Assay) – Speichern von Datentransfers und Konfigurationsaktionen zur klaren Nachvollziehbarkeit
#CLOUD
  • Entwicklung einer Cloud Native-Anwendung: Bauen der Anwendung in Form von eigenständigen, portablen und skalierbaren Containern zur einfachen Integration (On Premise oder externer Cloud Provider)
#CARE
  • Inbetriebnahme der Software: automatisierte Installation und Konfiguration
  • Prozessmonitoring: regelmäßige Absprachen und manuelle sowie automatisierte Reviews
  • Automatisierte Qualitätschecks: Sicherstellen von aktuellen Softwareversionen, getesteter Funktionalität und erweiterbarem Code mithilfe einer internen CI/CD-Pipeline
  • Coaching der Mitarbeiter: Scrum-Schulung, Pair Programming und gemeinsame Reviews sowie Retrospektiven

Konkreter Kundennutzen

  • Umfassende Datenbankstruktur:
    automatische Erfassung und Ablage sämtlicher Messergebnisse
  • Übersichtlichkeit:
    Weboberfläche zur Visualisierung und strukturierten Ausgabe der gesammelten und ausgewerteten Daten
  • Nachvollziehbarkeit:
    automatische Protokollierung von Datenübertragungen und manuellen Verwaltungstransaktionen
  • Zeitersparnis:
    Verbesserung der Kernprozesse zur Analyse von Substanzen, Effizienz und Qualität der Abläufe führen zu schnellen und sicheren Messergebnissen
  • Anpassungsfähigkeit:
    Erhöhung der Flexibilität beim Festlegen der Laborprozesse
  • Qualitätskontrolle:
    zeitliches Tracken von Kontrollwerten zur Sicherstellung von korrekten Ergebnissen
  • Schutz der Gesundheit der Gesellschaft:
    Studie für die Erhöhung der Reaktionsfähigkeit im Krankheitsfall

Verwendete Technologien und Frameworks

  • Java
  • Quarkus
  • Spring Boot
  • PostgreSQL
  • Typescript
  • Javascript
  • Angular
  • HTML
  • SCSS

Und wie können wir Ihnen behilflich sein?

Starten Sie jetzt mit der Digitalisierung Ihres Unternehmens und erfahren Sie mehr in einem ersten unverbindichen Gespräch mit unseren Experten!