Reinraum bei Infineon Villach.

Die Nadel im Heuhaufen

Jürgen Pilz und sein Team unterstützen die Infineon bei der Optimierung der Halbleiterproduktion.

Der Prozess der Herstellung von Halbleitern ist sehr komplex und setzt sich aus hunderten von einzelnen Arbeitsschritten zusammen. Ein wesentliches Merkmal der erfolgreichen Halbleiterproduktion ist es, den Prozess stabil zu gestalten und unerwünschte Prozessvariationen bestmöglich zu eliminieren. Jürgen Pilz und sein Team sammeln und analysieren im Rahmen des EU-Projekts „Integrated Development 4.0“ mit 38 europäischen Partnern, gemeinsam mit Infineon Austria und dem Kompetenzzentrum Automobil- & Industrie-Elektronik, Daten aus dem Produktionsprozess, um Schlüsselparameter für die Ursachen von Prozessvariationen und entsprechenden Ausbeuteverlusten in der Halbleiterproduktion zu identifizieren. Sie nutzen dabei komplexe Methoden von Statistical Learning, Deep Learning und Künstlicher Intelligenz. Ziel des drei Jahre dauernden Projekts ist die Erstellung und Implementierung eines Software-Tools, das imstande ist, auch in den komplexen Anforderungen des Halbleiter-Produktionsprozesses unerwünschte Prozessvariationen zu erkennen und klar einer Fehlerursache zuzuordnen.

Gemeinsames Forschen an Industrie 4.0 mit den Projektpartnern KAI und Infineon
Die Projektarbeitsgruppe vom Institut für Statistik der Universität Klagenfurt übernimmt im Projekt die gesamte Aufgabe der statistischen Datenanalyse. Hier kann das Institut auf die Erfahrung einer fast 20-jährigen Zusammenarbeit mit Infineon Austria (IFAT) und später mit dem Kompetenzzentrum Automobil- & Industrie-Elektronik (KAI) zurückgreifen.

Große Herausforderungen in der Datenanalyse
Der Prozess der Fertigung von Halbleitern gehört zu den drei komplexesten industriellen Fertigungsprozessen überhaupt. Die Fertigung besteht aus mehreren hundert Prozessschritten, jeder einzelne Prozessschritt ist wiederum in sich sehr komplex. Die Herausforderung für die Statistiker der Universität Klagenfurt ist es, diese verschiedenen Prozessschritte ineinander zu führen, zu untersuchen, auf welchen Prozessstufen welche Fehlerquellen entstehen, welche Auswirkungen diese Fehlerquellen haben und welche Möglichkeiten es gibt, diese wiederum auf vorherige Prozessstufen zurückzuverfolgen. Die Suche nach dem Ausgangspunkt eines möglichen Fehlers gleicht der Suche nach einer Nadel im Heuhaufen.

Die schwierige Aufgabe des Herausfilterns der richtigen Korrelationen
Aufgrund der langjährigen Zusammenarbeit kann das Projektteam schon auf umfangreiche Datenbanken zurückgreifen, die in vergangenen Projekten entwickelt wurden und deren Daten laufend vervollständigt werden. Dies bedeutet, dass über die Fehlerwirksamkeit der einzelnen Prozessschritte schon umfangreiches Know-how vorhanden ist. Was aber bisher wenig untersucht ist, sind die Folgewirkungen von Prozessschritt zu Prozessschritt. Hier können sich Fehler schnell aufsummieren. Bei der Modellierung achtet das Team darauf, dass die Fehlererscheinungen auch tatsächlich zurückkorreliert werden können und alle Prozessschritte berücksichtigt werden. Hierbei kommen sehr hoch entwickelte und komplexe Modelle zum Einsatz, so genannte Additive Gaußsche Prozesse, die sehr viele Variable beinhalten. In jeden einzelnen Prozessschritt fließen mehrere hundert Variable ein. Auch wenn das Team der Universität die Variablen aufgrund von Erfahrungswerten und Know-how reduzieren kann, sind die benötigten Rechenzeiten doch immens. Die Kunst dabei ist, unter all den Variablen die für das Modell entscheidenden herauszufiltern.

Die Rolle von Zuverlässigkeitskriterien im Rahmen der Nutzung der Chips im Feld
Diese Kriterien wurden in einem Vorgängerprojekt schon untersucht, und die entstandenen Daten können nun auch in dieses Projekt einfließen. In der Halbleiterbranche besteht den Kunden gegenüber eine sehr hohe Verantwortung, da die gelieferten Produkte ausfallsicher sein sollten und eine hohe Lebensdauer aufweisen müssen. Ausfälle, besonders Frühausfälle, sind möglichst zu vermeiden. In Zuverlässigkeitsanalysen unterscheidet man dann auch drei Phasen: die Phase der Frühausfälle, dann die lange Phase der Lebensdauer, in der das Gerät innerhalb normaler Parameter funktioniert. Schlussendlich folgt die Spätphase, in der sich die Fehlerhäufigkeit wieder mehrt, bis hin zum Totalausfall. Im Vorgängerprojekt hat das Team der Universität Klagenfurt versucht, die Frühphase der Ausfälle zu modellieren, um die entsprechenden Versuchsumfänge, die notwendig sind, um diese Frühausfallphase richtig beschreiben zu können, zu reduzieren.

Ein Software-Tool, das viel mehr kann, als Korrelationen zwischen Input und Output herzustellen
Das Team der Universität Klagenfurt steuert zum Projekt sehr komplexe Methoden bei, die allgemein unter dem Begriff Machine Learning zusammengefasst sind. Im eigentlichen Sinn wendet das Team aber Methoden des Statistical Learning an. Machine Learning liefert zwar viele Informationen, was aber fehlt, ist die Generalisierbarkeit der Ergebnisse im Rahmen entscheidungstheoretischer Modelle. Wenn sich Parameter ändern, über die Zeit und produktionstechnisch bedingt – und das ist im komplexen Produktionsprozess von Halbleitern der Fall –, dann liefern Methoden des klassischen Machine Learning kaum sinnvolle Vorhersage- und Interpretationsmöglichkeiten. Für die Statistiker der AAU kommt es aber gerade darauf an, auch Fehlerquellen und ungenaue Datenlagen exakt zu modellieren, um generalisierbare Aussagen treffen zu können: Hier kommt die eigentliche Kunst der Statistik zum Tragen. In den Modellen, die das Team durch Statistical Learning entwickelt, werden auch Variationsbreiten und komplizierte Sachverhalte erklärbar. Damit können die Produktionsprozesse dann tatsächlich optimiert werden.

Vom Projekt zum Prototyp
Das Ziel des Projektes ist die Erstellung eines Prototyps. Dies wird anhand so genannter Use Cases (UCs) gemacht. Damit ist sichergestellt, dass der Prototyp zum Ende der Projektdauer einsatzfähig ist. Vorstellbar ist das Ergebnis als eine Art komplexes Software-Tool, das von verschiedenen Datenbanken gespeist wird. All diese unterschiedlichen Datenbanken müssen miteinander integriert und harmonisiert werden. Komplex ist auch das Zusammenbringen der verschiedenen Daten in Echtzeit, um die unmittelbaren Einflüsse sofort verfolgen zu können.

Eine Herausforderung für die Klagenfurter Wissenschaftler ist, dass die Datenbanken teilweise unvollständig sind. Es gibt oft keine kompletten Datensätze, die die Modellierung vereinfachen würden. Deshalb besteht eine wesentliche Vorarbeit darin, die Datensätze zu komplettieren, oder, wenn dies nicht möglich ist, zu versuchen, mit den vorhandenen Teildaten auszukommen. Auch hier ist es dann wieder notwendig herauszufiltern, welche Indikatoren entscheidend dafür sind, um auch bei unvollständiger Datenlage Aussagen treffen zu können. In dieser Phase kommt das Know-how des AAU-Teams voll zum Tragen. Das Team arbeitet speziell mit Bayesschen Methoden, in denen Datensätze mit Expertenwissen kombiniert werden. Aber auch Expertenwissen ist unvollständig. Die Aufgabe der statistischen Modellierung ist es dann, alle Informationen so miteinander zu fusionieren, dass die Wahrscheinlichkeitsaussagen am Ende auch stimmig sind.

für ad astra: Annegret Landes

 

Zur Person

Jürgen Pilz ist Professor für Angewandte Statistik und forscht zu Bayes-Statistik, Räumlicher Statistik, Optimaler Versuchsplanung und Statistischen Lernmethoden.

Projekt: Data-driven root cause analysis for modeling variations in semiconductor manufacturing quality. Hauptpartner: Infineon Austria (IFAT), Kompetenzzentrum Automobil- & Industrie-Elektronik, Projektdauer: 36 Monate

Jürgen Pilz