Beim Halbleiterhersteller Infineon ist Machine Learning bei der Entwicklung neuer Lösungen von hoher Relevanz. Die Expertise des Unternehmens spielt deshalb auch für das ML-Wiki von appliedAI, Europas größter Initiative für die Anwendung führender, vertrauenswürdiger KI-Technologie, eine wichtige Rolle. Simon Genot, Senior AI Strategist bei Infineon, und Muhammad Faizan Aslam, Senior Manager AI & Cloud Services bei Infineon, erklären im Interview, wie der ML-Lebenszyklus aussehen sollte, welche Fallstricke drohen und wie Unternehmen sie meistern können.
Welche Bedeutung hat Machine Learning bei Infineon?
Simon Genot: Wir sehen Künstliche Intelligenz und Machine Learning bei Infineon als Schlüssel für die Digitalisierung, aber auch für die Dekarbonisierung. Gleichzeitig werden Edge-AI-Lösungen in den nächsten Jahren an Bedeutung gewinnen – der Markt für Edge-AI-Komponenten soll bis zum Jahr 2025 den Cloud-AI-Markt überholen.
Wir nehmen dabei eine zweigeteilte Rolle ein. Einerseits nutzen wir KI und ML selbst, um Prozesse zu verbessern, Kosten und Ressourcen zu sparen, die Time-to-Market zu verkürzen oder Chips smarter zu designen. Andererseits entwickeln wir aber auch KI- und ML-basierte Lösungen und bringen sie auf den Markt. Dazu gehört etwa eine smarte Eingangslösung, die die Anzahl der Menschen zählt, die eine Location betreten oder verlassen. Das mag zunächst nicht weltbewegend klingen, kann aber beispielsweise helfen, Brandschutzvorgaben einzuhalten. Wir verfolgen dabei einen Product-to-System-Ansatz, das heißt, wir entwickeln die komplette Lösung, die Kunden direkt integrieren können.
Aus welchen Phasen und Komponenten besteht der ML-Lebenszyklus und wie kann man ihn am besten organisieren?
Simon Genot: Der Lebenszyklus besteht insgesamt aus vier entscheidenden Schritten. Der erste ist die „Business Feasibility“ – sprich: Unternehmen müssen definieren, welches Problem mithilfe von Machine Learning gelöst werden soll, und prüfen, ob dies machbar ist. Dieser Schritt klingt einfach – Probleme sind ja in der Regel schnell benannt – jedoch ist es im Detail durch die Rahmenbedingungen oft etwas komplexer. Und nicht jede gute Idee löst am Ende des Tages auch wirklich ein Problem. Deshalb ist hier ein sehr kritischer Blick gefragt.
Wenn beim ersten Schritt Klarheit herrscht, geht es an die „Technical Feasibility“. Jetzt müssen Unternehmen einen ersten Proof of Concept erstellen, um sicherzugehen, dass ihr Vorhaben auf technischer Ebene überhaupt durchführbar ist. Danach folgt die eigentliche Entwicklung der Lösung. Dabei sollten die Verantwortlichen aber immer wieder auf den ersten Schritt zurückblicken. Manchmal haben sich in der Zwischenzeit Anforderungen an Projekte oder der Use Case geändert, sodass sie natürlich auch ihre Lösung entsprechend anpassen müssen – sonst verschwenden sie zeitliche und finanzielle Ressourcen. Zuletzt steht dann die Bereitstellung der Lösung sowie die Wartung an, um sicherzustellen, dass sie langfristig ihren Zweck erfüllt.
Die Organisation eines Unternehmens kann auf unterschiedliche Weise erfolgen. Bei Infineon haben wir beispielsweise nicht ein großes, zentrales KI-Team, das alle Projekte umsetzt. Vielmehr sind wir dezentral aufgestellt, das heißt, wir haben KI in den einzelnen Teams und damit nah im tagtäglichen Geschäft eingebettet. Das hilft, Use Cases schneller und direkt in den geschäftsverantwortlichen Bereichen zu identifizieren und insgesamt agiler zu handeln. Schließlich hat jede Abteilung unterschiedliche Bedürfnisse und Anforderungen und kennt diese auch am besten. Doch auch die bereichsübergreifende Teamarbeit ist wichtig, denn oft ist die Notwendigkeit gegeben, Daten aus unterschiedlichen Bereichen zusammenzuführen. Insgesamt gibt die Organisation natürlich die generelle Richtung vor, in die sich das Unternehmen bewegt.
Mit welchen Herausforderungen müssen Organisationen in diesen Phasen rechnen und an welchen Best Practices können sie sich orientieren, um sie zu überwinden?
Simon Genot: Jede dieser Phasen ist mit einer Reihe von Herausforderungen verbunden. Zum Beispiel benötigen Organisationen bei der Business-Feasibility-Phase zwei verschiedene Arten von Expertise. Auf der einen Seite die der Machine-Learning-Spezialisten, auf der anderen Seite die der Domänenteams. Diese zusammenzubringen stellt sich manchmal als schwierig heraus. Es lässt sich allerdings lösen, indem der gesamte Prozess als gemeinsame Reise verstanden wird, die die Stakeholder beider Seiten zusammen gestalten. Schon bei der Konzeption wird der Use Case mit dem größten Nutzen definiert, basierend auf dem strategischen Potenzial und dem Schwierigkeitsgrad der Implementation.
Muhammad Faizan Aslam: Die Entwicklungsphase, das Solution Development, ist dann natürlich stark datengetrieben, da der Algorithmus trainiert werden muss. Hier stellt oft das Data Lifecycle Management eine Herausforderung dar, wenn die Daten aus verschiedensten Quellen stammen. Es ist mühsam herauszufinden, welche Daten für welches Training verwendet wurden, welches Training erfolgreich war, welches nicht. Das ist nicht nur in der Entwicklung selbst ein Problem, sondern auch aus einer geschäftlichen Perspektive, denn wir sind für die Lösungen verantwortlich, die an die Kunden gehen. Daher brauchen wir Transparenz, um Faktoren wie Sicherheit oder Effektivität gewährleisten zu können. Das lässt sich durch die Optimierung des Arbeitsablaufes und die Nutzung verschiedener automatisierter Tools sicherstellen, mit denen Experimente und Trainings getrackt werden.
An welcher Stelle des Lebenszyklus fehlen noch Tools und Funktionen und wie geht man damit um?
Muhammad Faizan Aslam: Die fehlende Verbindung zwischen der traditionellen Trainings- und Bereitstellungsinfrastruktur und den Geräten, in denen die ML-Lösungen zum Tragen kommen sollen, ist ein industriespezifisches Problem, das Halbleiterhersteller wie Infineon betrifft. Denn die KI soll in den Geräten der Verbraucher selbst sitzen und nicht in Servern. Das heißt, wir bieten nicht reinen Service, sondern sind Teil des Endprodukts. Die meisten Lösungen fokussieren sich jedoch auf ML-Modelle, die kontinuierlich lernen, um immer präzisere Vorhersagen zu treffen. Die dafür benötigten Daten sind allerdings nicht auf dem Gerät selbst, weshalb wir Lösungen zur Bereitstellung an der Edge entwickeln. Eine Inhouse-entwickelte Toolbox kann Trainingsmodelle für die Bereitstellung als eingebettete Lösung optimieren.
Wie können Teams die Tools und Best Practices wählen, die für ihre individuellen Zwecke am besten geeignet sind?
Muhammad Faizan Aslam: Das ist grundsätzlich von ihrem Use Case und den vorhandenen Daten abhängig, es gibt keinen allgemeingültigen Weg. Man sollte aber eher vom Workflow als von den Tools her denken, also nicht „Ich habe ein bestimmtes Tool, wie kann ich das einsetzen?“, sondern „Welches Tool kann mir an einer bestimmten Stelle wie helfen?“. Wichtig ist – bei aller notwendigen Flexibilität – eine einheitliche Arbeitsweise zu etablieren, die skalierbar ist.
Außerdem sollten Organisationen auch den sozialen Aspekt im Blick haben und den Austausch innerhalb ihrer Teams und darüber hinaus fördern. So können sie voneinander lernen, sich Best Practices abschauen und Fallstricke vermeiden. Hierfür eignen sich beispielsweise regelmäßige Trainings und verschiedene Möglichkeiten zum Austausch.
Blicken wir auf die persönliche Ebene: Wie arbeiten Teams erfolgreich zusammen?
Simon Genot:: Das entscheidende ist dabei, dass alle verstehen, was das Ziel über das Framework des ML-Lebenszyklus hinaus ist. Nämlich: die inhärenten Risiken von Künstlicher Intelligenz zu minimieren, ob das Geschäfts-, Implementierungs-, Bereitstellungs- oder Wartungsrisiken sind, und gleichzeitig so schnell und skalierbar wie möglich zu sein. Alle Bemühungen in dem gesamten Prozess müssen auf diese beiden Punkte ausgerichtet sein. Das kann keiner alleine bewerkstelligen. Stattdessen braucht es ein Team, in dem ganz verschiedene Rollen zusammenkommen – Data Engineers, Data Scientists, MLOps-Experten, ML Engineers – die Hand in Hand arbeiten, eine gemeinsame Vision verfolgen und über eine integrierte Sichtweise verfügen. Dann wird der gesamte ML-Lebenszyklus zum Erfolg.
Zum ML-Wiki von appliedAI
Der Unternehmensguide für Machine Learning der appliedAI Initiative wurde mit dem Ziel entwickelt, die Erfahrungen von Praktikern aus diesem Bereich zu bündeln und eine gemeinsame Wissensbasis zu schaffen. Hier werden die Herausforderungen, denen Unternehmen in der Praxis begegnen, diskutiert und erläutert. Der Leitfaden spiegelt das gemeinsame Bestreben der Partner von appliedAI wider, ihre Erfahrungen und Best Practices miteinander zu teilen, wenn diese über den Proof of Concept hinausgehen.
www.infineon.com/cms/de