Dank Künstlicher Intelligenz können Industrieunternehmen effizienter und kostengünstiger produzieren, die Produktionsqualität erhöhen und Produktionsstörungen vermeiden – die Einsatzmöglichkeiten für smarte Anwendungen in der Branche sind nahezu unbegrenzt.
Doch wollen Unternehmen tatsächlich das volle Potenzial von KI ausschöpfen, benötigen sie dafür geeignete IT-Infrastrukturen. Dell Technologies erklärt, was diese bieten und leisten müssen.
KI ist das Herzstück der Smart Factory und vermag Produktionsumgebungen geradezu zu revolutionieren. Die Algorithmen machen Fertigungsroboter vielseitiger und sicherer, helfen bei der vorausschauenden Wartung von Maschinen und Anlagen und erkennen selbst kleinste Abweichungen von Produktionsparametern und Umgebungsbedingungen. Zudem helfen sie bei einer optimalen Produktionsplanung, die Leerlaufzeiten und Ressourcenverschwendung vermeidet. All das können sie allerdings nur, wenn die digitalen Infrastrukturen den hohen Anforderungen, die KI-Anwendungsfälle stellen, gewachsen sind. Dell Technologies nennt die entscheidenden Aspekte, auf die Industrieunternehmen achten müssen:
Datenverarbeitung am Edge
Ein Fertigungsroboter muss seine Umgebung in Echtzeit wahrnehmen, um Werkstücke korrekt zu bearbeiten oder zu montieren, und viele Steuersysteme müssen in Sekundenbruchteilen in die Produktion eingreifen, wenn sich Fertigungsparameter plötzlich verändern. Für eine Datenübertragung in die Cloud oder ein zentrales Rechenzentrum ist da schlicht keine Zeit – ausreichend niedrige Latenzen garantieren nur leistungsstarke Edge-Infrastrukturen, zu denen neben Server- und Storage-Systemen auch schnelle drahtlose Netzwerke zählen. In vielen KI-Anwendungsfällen ist der Mobilfunkstandard 5G die beste Wahl, da er hohe Bandbreiten und niedrige Latenzen bietet, problemlos tausende von Sensoren mit IT- und OT-Systemen verknüpft und eine synchronisierte Kommunikation zwischen diesen ermöglicht, damit alle Produktionsabläufe genau aufeinander abgestimmt werden können.
Leistungsstarke Systeme, die cool bleiben
KI-Anwendungen erfordern viel Rechenleistung, weshalb meist Server mit vielen GPUs und hoher Leistungsdichte zum Einsatz kommen. Diese Server setzen auf optimierte Kühlkonzepte, um die entstehende Abwärme effizient abzuleiten. Wo das mit der klassischen Luftkühlung nicht mehr funktioniert, werden CPUs und GPUs mit Flüssigkeiten gekühlt. Allerdings lassen sich die datenverarbeitenden Systeme am Edge nicht immer in geschützten und klimatisierten Räumlichkeiten unterbringen. In solchen Fällen sind Rugged-Server notwendig, die hohen Temperaturen, Staub, Erschütterungen und Vibrationen trotzen. Je nach Modell sind diese nur halb so tief wie Standard-Server und wahlweise von der Vorder- oder Rückseite zugänglich, sodass sie sich in kompakten Racks oder Schränken montieren lassen und Server-Techniker alle Anschlüsse und Komponenten gut erreichen.
Offene Schnittstellen und Standards
In der Smart Factory wachsen IT und OT zusammen. Damit die verschiedenen Systeme reibungslos miteinander kommunizieren können und die wertvollen Daten aus der Produktionsumgebung nicht in Silos feststecken, sind Unternehmen auf Plattformen angewiesen, die offene Schnittstellen und Standards unterstützen. Diese erleichtern es auch, Daten für die langfristige Aufbewahrung oder weiterführende Auswertungen, die nicht zeitkritisch sind, in die Cloud oder ein Rechenzentrum zu übertragen.
Zentralisierte und automatisierte Verwaltung
Nicht nur die Edge-Systeme selbst, sondern auch die darauf laufenden Anwendungen müssen sich zentralisiert und weitgehend automatisiert bereitstellen und verwalten lassen. Schließlich werden KI-Anwendungen kontinuierlich weiterentwickelt und müssen daher regelmäßig auf den Edge-Systemen aktualisiert werden – oder es kommen neue KI-Anwendungen für neue Anwendungsfälle hinzu. Ideal ist es, wenn Unternehmen die Anwendungen zunächst zentral paketieren und konfigurieren und dann nebst Ressourcendefinitionen, Netzwerkeinstellungen und individuellen Workflows in einem Schritt an die gewünschten Edge-Systeme der verschiedenen Standorte ausrollen. Auf diese Weise sind sie auch in der Lage, schnell neue Versionen für Tests oder spezielle Tools für einzelne Projekte bereitzustellen.
Zugriff auf ein großes Ökosystem aus fertigen Anwendungen
Unternehmen müssen nicht alle KI-Anwendungen selbst entwickeln, denn für Anwendungsfälle wie Predictive Maintenance, Machine Vision, Edge Analytics und OT-Security gibt es bereits zahlreiche fertige Lösungen. Viele Anbieter solcher Lösungen arbeiten eng mit den Anbietern von Infrastrukturlösungen zusammen, um sicherzustellen, dass sich ihre Anwendungen nahtlos in die Edge-Systeme integrieren und optimal funktionieren. Unternehmen sollten daher auf Infrastrukturanbieter setzen, die ein großes Partnerökosystem vorweisen können, um gängige KI-Anwendungen schnell und ohne großes Risiko einzuführen.
Hohe Sicherheit
KI-Anwendungen am Edge sind geschäftskritisch – fallen sie aus oder liefern fehlerhafte Ergebnisse, drohen Produktionsunterbrechungen oder Qualitätseinbußen. Moderne Edge-Systeme bringen deshalb fest integrierte Sicherheitsfunktionen wie UEFI Secure Boot und vTPM mit. UEFI Secure Boot stellt sicher, dass nur vertrauenswürdige und autorisierte Software auf Edge-Systemen bootet, sodass sich keine Malware einnisten kann. vTPM wiederum ist ein virtuelles Trusted Platform Module (TPM), das kryptografische Funktionen und einen sicheren Speicher für Schlüssel, Zertifikate und Passwörter bereitstellt, um virtuelle Maschinen zu verschlüsseln oder ihre Identität und Integrität zu überprüfen. Darüber hinaus können Unternehmen ihr Sicherheitsniveau erhöhen, indem sie Zero-Trust-Konzepte umsetzen, also nur unbedingt notwendige Berechtigungen vergeben und alle Zugriffe konsequent verifizieren. Plattformen, die Security-Features wie Multifaktor-Authentifizierung und rollenbasierte Zugriffskontrollen fest integrieren, können die Umsetzung von Zero Trust erheblich erleichtern.
„KI kann für produzierende Unternehmen ein echter Gamechanger sein, doch die Einführung ist nicht immer einfach“, betont Chris Kramar, Director & General Manager OEM DACH bei Dell Technologies in Deutschland. „Das liegt unter anderem an veralteten Infrastrukturen, die nicht für die Performance- und Latenzanforderungen von KI-Anwendungsfällen ausgelegt sind. Um den Erfolg ihrer KI-Initiativen nicht zu gefährden, sollten Unternehmen deshalb parallel zur Anschaffung und Entwicklung von KI-Anwendungen ihre Infrastrukturen modernisieren und dabei auf einfach zu verwaltende und integrationsfreundliche Systeme und Plattformen achten.“
(pd/Dell Technologies)