Entwicklung einer modularen datengetriebenen Optimierungskette für Fertigungsprozesse am Beispiel der Gießereiindustrie
Die industrielle Produktion steht vor zahlreichen globalen Herausforderungen. Ein dynamischer Markt mit komplexen Kundenanforderungen sowie steigende Rohstoff- und Energiepreise sind nur einige der treibenden Faktoren intelligenter Prozesstechnologien. Digitalisierungsmaßnahmen zur Schaffung adaptiver und robuster Fertigungsumgebungen erfordern die effektive Nutzung von Prozessdaten. In der vorliegenden Dissertation wurde ein methodisches Grundkonzept entwickelt, das in der Lage ist, Fertigungsprozesse mit prädiktiven Modellen des maschinellen Lernens zu optimieren. Es besteht aus drei verketteten Modulen, die jeweils eine Funktion der Wissensgenerierung aus Daten zur Prozessoptimierung erfüllen und stufenweise eingesetzt werden können. Jedes Modul implementiert modellagnostische Verwertungsansätze, die sich mit substituierbaren Analyseund Optimierungsmethoden realisieren lassen.
Das Datenvorverarbeitungsmodul hat zur Aufgabe, eine ganzheitliche, mit maschinellem Lernen analysierbare Datenbasis zu schaffen und erste relevante Informationen zu extrahieren. Es liefert die Rahmenbedingungen der prozessspezifischen Aufbereitung, einer robusten Störgrößenkompensation und einer thresholdbasierten Verdichtung der Rohdaten auf Basis unüberwachten Lernens. Das Modellierungsmodul befasst sich mit der datengetriebenen Systemidentifikation komplexer Prozesse. Neben Ansätzen der Modellentwicklung und -evaluation wird die Nutzung empirischer Modellinterpretationsverfahren beschrieben, die der Plausibilitätsprüfung und der Verifizierung von Wirkzusammenhängen dienen. Abschließend erfolgt die Konzipierung des Optimierungsmoduls, das auf den vorangegangenen Ergebnissen fußt. Gradientenfreie Verfahren realisieren die systematische Optimierung. Sie nutzen Prinzipien der virtuellen DoE, die im Rahmen analytischer Modellierung Anwendung findet. Die zugrunde liegende Kostenfunktion enthält über die Zielkriterien und Nebenbedingungen hinaus Komponenten, die die synthetisierten Prozessvarianten mit der Grundverteilung der Daten vergleichen und so ihre Plausibilität
und verfahrenstechnische Umsetzbarkeit bewerten. Ferner wird die Optimierung insoweit mathematisch manipuliert, als die Zahl der anzupassenden Steuerungsgrößen für einen Prozesseingriff gelenkt werden kann.
Die entwickelte Optimierungskette wird am Beispiel eines Schleudergießprozesses verifiziert. Das Ziel der Optimierung ist die Variation der Prozessparameter zur Fertigung duktiler Gusseisenrohre mit einem möglichst homogenen Wandstärkenprofil. Als Störgrößenkompensation für prozessspezifische Einflüsse bei der Wandstärkenmessung dient die robuste Hauptkomponentenanalyse. Sie ist ferner in der Lage, Sensorausfälle
auszugleichen und die Prognosegenauigkeit signifikant zu verbessern. Die Wandstärken lassen sich mit einem CatBoost-Regressor positionsabhängig mit hoher Genauigkeit vorhersagen. Das datengetriebene Modell kann bis zu 96 % der Gesamtvarianz erklären. Verfahrensspezifische Stellgrößen und die Flüssigeisentemperatur konnten als Haupteinflüsse identifiziert werden. Die systematische Optimierung erfolgt durch die Variation von 15 Steuerungsgrößen. Ein Partikelschwarmalgorithmus liefert den besten Kompromiss aus der Erfüllung der Zielvorgabe und der Zuverlässigkeit der Konvergenz. Die Wandstärken können so im relevanten Bereich erheblich reduziert werden. Abschließend werden Regularisierungen der Kostenfunktionen angewandt. Hierdurch lassen sich dünnbesetzte
Handlungsempfehlungen generieren, die nur noch die Veränderung von drei Stellgrößen erfordern. Die Qualität des resultierenden Prozessergebnisses nimmt jedoch ab.
Das Datenvorverarbeitungsmodul hat zur Aufgabe, eine ganzheitliche, mit maschinellem Lernen analysierbare Datenbasis zu schaffen und erste relevante Informationen zu extrahieren. Es liefert die Rahmenbedingungen der prozessspezifischen Aufbereitung, einer robusten Störgrößenkompensation und einer thresholdbasierten Verdichtung der Rohdaten auf Basis unüberwachten Lernens. Das Modellierungsmodul befasst sich mit der datengetriebenen Systemidentifikation komplexer Prozesse. Neben Ansätzen der Modellentwicklung und -evaluation wird die Nutzung empirischer Modellinterpretationsverfahren beschrieben, die der Plausibilitätsprüfung und der Verifizierung von Wirkzusammenhängen dienen. Abschließend erfolgt die Konzipierung des Optimierungsmoduls, das auf den vorangegangenen Ergebnissen fußt. Gradientenfreie Verfahren realisieren die systematische Optimierung. Sie nutzen Prinzipien der virtuellen DoE, die im Rahmen analytischer Modellierung Anwendung findet. Die zugrunde liegende Kostenfunktion enthält über die Zielkriterien und Nebenbedingungen hinaus Komponenten, die die synthetisierten Prozessvarianten mit der Grundverteilung der Daten vergleichen und so ihre Plausibilität
und verfahrenstechnische Umsetzbarkeit bewerten. Ferner wird die Optimierung insoweit mathematisch manipuliert, als die Zahl der anzupassenden Steuerungsgrößen für einen Prozesseingriff gelenkt werden kann.
Die entwickelte Optimierungskette wird am Beispiel eines Schleudergießprozesses verifiziert. Das Ziel der Optimierung ist die Variation der Prozessparameter zur Fertigung duktiler Gusseisenrohre mit einem möglichst homogenen Wandstärkenprofil. Als Störgrößenkompensation für prozessspezifische Einflüsse bei der Wandstärkenmessung dient die robuste Hauptkomponentenanalyse. Sie ist ferner in der Lage, Sensorausfälle
auszugleichen und die Prognosegenauigkeit signifikant zu verbessern. Die Wandstärken lassen sich mit einem CatBoost-Regressor positionsabhängig mit hoher Genauigkeit vorhersagen. Das datengetriebene Modell kann bis zu 96 % der Gesamtvarianz erklären. Verfahrensspezifische Stellgrößen und die Flüssigeisentemperatur konnten als Haupteinflüsse identifiziert werden. Die systematische Optimierung erfolgt durch die Variation von 15 Steuerungsgrößen. Ein Partikelschwarmalgorithmus liefert den besten Kompromiss aus der Erfüllung der Zielvorgabe und der Zuverlässigkeit der Konvergenz. Die Wandstärken können so im relevanten Bereich erheblich reduziert werden. Abschließend werden Regularisierungen der Kostenfunktionen angewandt. Hierdurch lassen sich dünnbesetzte
Handlungsempfehlungen generieren, die nur noch die Veränderung von drei Stellgrößen erfordern. Die Qualität des resultierenden Prozessergebnisses nimmt jedoch ab.
Industrial production faces numerous global challenges. A dynamical market with complex customer demands alongside rising prices for raw materials and energy are among the driving factors for intelligent production technologies. Measures for digitalization to create adaptive and robust manufacturing environments require efficient usage of process data.
In this dissertation, a methodical concept is developed that optimizes manufacturing processes with predictive machine learning models. It consists of three interconnected modules that each represent a functionality to extract knowledge from data for optimization and can be used gradually. Each module implements model-agnostic approaches and can be put into practice with multiple techniques for analysis and optimization.
The data preprocessing module’s task is to generate a data pool that can be analyzed with machine learning and to extract relevant information. It provides the general framework of process-specific data-preparation, robust disturbance handling and a thresholdbased compression of the data by means of unsupervised learning. The modelling module addresses data-driven system-identification of complex processes. Besides model development and evaluation, empirical procedures for model-interpretation are described that serve as an assessment of plausibility and verification of cause-effect correlations. Finally, an optimization module is engineered that is based on the previously obtained results. The systematic optimization is implemented with gradient-free methods. They utilize principles of a virtual design of experiments that are usually applied in analytical modelling. The
underlying cost-function consists of target entities and constraints, but also measures that project generated process variants onto the distribution of the data to classify anomalies and assess whether they are physically feasible and technically viable. Moreover, the costfunction is manipulated mathematically to attain the ability to lower the amount of control variables necessary for a manual process adjustment.
The optimization chain is verified using data from a centrifugal casting process. To this end, process parameters are to be varied so that ductile cast iron pipes with a homogeneous wall thickness distribution are produced. Process specific disturbances affecting the measurements are handled with a robust principal component analysis. It also renders the possibility to counterbalance sensor outages and thus significantly improve the prediction
performance. Wall thicknesses along the pipes can be highly accurately predicted with a CatBoost regressor. The data-driven model explains up to 96 % of the variance. Process related control inputs and the iron temperature at entry into the mould were identified as the main influencing factors. The systematic optimization was performed with 15 control variables. A particle swarm optimization yields the best compromise between the quality
of the obtained solution and the reliability of convergence. A substantial reduction of wall thickness in relevant areas was attained. Finally, regularizations were applied to the cost-function. These mathematical modifications yield sparse adjustments to the process that only require three control variables to be changed. However, compromises regarding
the quality of the output must be tolerated
In this dissertation, a methodical concept is developed that optimizes manufacturing processes with predictive machine learning models. It consists of three interconnected modules that each represent a functionality to extract knowledge from data for optimization and can be used gradually. Each module implements model-agnostic approaches and can be put into practice with multiple techniques for analysis and optimization.
The data preprocessing module’s task is to generate a data pool that can be analyzed with machine learning and to extract relevant information. It provides the general framework of process-specific data-preparation, robust disturbance handling and a thresholdbased compression of the data by means of unsupervised learning. The modelling module addresses data-driven system-identification of complex processes. Besides model development and evaluation, empirical procedures for model-interpretation are described that serve as an assessment of plausibility and verification of cause-effect correlations. Finally, an optimization module is engineered that is based on the previously obtained results. The systematic optimization is implemented with gradient-free methods. They utilize principles of a virtual design of experiments that are usually applied in analytical modelling. The
underlying cost-function consists of target entities and constraints, but also measures that project generated process variants onto the distribution of the data to classify anomalies and assess whether they are physically feasible and technically viable. Moreover, the costfunction is manipulated mathematically to attain the ability to lower the amount of control variables necessary for a manual process adjustment.
The optimization chain is verified using data from a centrifugal casting process. To this end, process parameters are to be varied so that ductile cast iron pipes with a homogeneous wall thickness distribution are produced. Process specific disturbances affecting the measurements are handled with a robust principal component analysis. It also renders the possibility to counterbalance sensor outages and thus significantly improve the prediction
performance. Wall thicknesses along the pipes can be highly accurately predicted with a CatBoost regressor. The data-driven model explains up to 96 % of the variance. Process related control inputs and the iron temperature at entry into the mould were identified as the main influencing factors. The systematic optimization was performed with 15 control variables. A particle swarm optimization yields the best compromise between the quality
of the obtained solution and the reliability of convergence. A substantial reduction of wall thickness in relevant areas was attained. Finally, regularizations were applied to the cost-function. These mathematical modifications yield sparse adjustments to the process that only require three control variables to be changed. However, compromises regarding
the quality of the output must be tolerated
Preview
Cite
Rights
Use and reproduction:
This work may be used under aCreative Commons Attribution - NoDerivatives 4.0 License (CC BY-ND 4.0)
.