Werkzeuge, die auf künstlicher Intelligenz basieren, bieten zwar einen leistungsstarken Ansatz zur Erstellung von Modellen komplexer Systeme, ihr Black-Box-Verhalten ist jedoch ein gravierender Nachteil. Dies ist vor allem dann relevant, wenn die Ergebnisse im Rahmen der Entscheidungsfindung bei kritischen Prozessen verwendet werden sollen. Daher ist die Entwicklung von Methoden zur Verbesserung der Transparenz dieser Black-Box-Modelle für praktische Anwendungen unerlässlich. [1]. Obwohl es viele Bereiche in der Eisen- und Stahlerzeugung gibt, in denen KI-Lösungen zum Einsatz kommen, werden wir unseren Ansatz anhand von Beispielen aus den energieintensivsten Prozessschritten der Stahlerzeugung illustrieren: KI-Anwendungen in Eisenhüttenwerken.
Transparenz ist eine große Herausforderung [9] und die Voraussetzung für die Akzeptanz von datengesteuerten Methoden in der Produktion. Dies gilt insbesondere für unternehmenskritische Prozesse und Anwendungsfälle, bei denen die Prozessstabilität entscheidend ist, wie z. B. bei der Eisenerzeugung. Die Erhöhung der Transparenz der ML-Modelle ermöglicht ein besseres Verständnis des Modells, der Abhängigkeiten zwischen den Prozessvariablen und eine Erweiterung der Kontrollstrategien und der Prozesswissensbasis. Wie in einer früheren Studie [17] gezeigt wurde, ist die Einbeziehung von Endanwendern der ML-Modelle und Domänenexperten in den Entwicklungsprozess entscheidend für die Erhöhung der Akzeptanz dieser Modelle. Um die Lücke in der Akzeptanz von ML-Modellen in Produktionssystemen zu schließen und die Transparenz in der algorithmischen Entscheidungsfindung zu erhöhen, wurde ein mehrstufiger Ansatz vorgeschlagen. Der entwickelte Ansatz zielt darauf ab, das Wissen und die Erkenntnisse von Domänenexperten in den Entwicklungs- und Bewertungsprozess von ML-Modellen zu integrieren, die Stabilität von ML-Modellen in der Einsatzphase zu gewährleisten und Einblicke in die Argumentation während des Modellbetriebs zu geben.
Der Cross Industry Standard Process for Data Mining (CRISP-DM) [18] (Bild 1) ist das am weitesten verbreitete Analysemodell und der De-facto-Industriestandard für die Entwicklung von datengesteuerten Lösungen. Unser Ansatz zielt darauf ab, Domänenexperten in den ML-Entwicklungsprozess zu integrieren, indem ausgewählte Methoden in den letzten drei Schritten des CRISP-DM-Prozesses, nämlich Modellierung, Bewertung und Einsatz, eingesetzt werden. Im CRISP-DM-Prozess sind Fachexperten vor allem in den Anfangsphasen involviert, wie z.B. Business Understanding und Data Understanding. Dies führt oft zu einem Mangel an Einsicht in den späteren Entwicklungsphasen, was neben anderen identifizierten Herausforderungen zu einer geringen Akzeptanz von zu komplexen, nicht transparenten Vorhersagemodellen führt.
Durch den Einsatz von xAI, Causal Discovery und Datenmonitoring-Methoden in den verschiedenen Phasen der ML-Modellentwicklung werden die Experten der Prozessdomäne einbezogen und mit Entscheidungshilfen versorgt, sowohl durch ML-Modellergebnisse in ihrer Anwendung als auch durch Metainformationen über die Gründe für die Ergebnisse. Wie in Bild 1 dargestellt, durchläuft der entwickelte Ansatz die drei letzten Phasen der CRISP-DM-Methodik. Aufgrund der Besonderheiten des Eisenhüttenwesens besteht unser Ansatz aus vier Gruppen von Methoden, die in vier verschiedenen Phasen des Lebenszyklus der Entwicklung von ML-Modellen angewandt werden, nämlich: Modellierung, Bewertung, Einsatz – vor der Vorhersage, Einsatz – nach der Vorhersage (Post Hoc).
In der ersten Phase unseres Ansatzes werden kausale Entdeckungs- und globale Erklärungsmethoden auf die Daten und das Modell angewendet, um kausale Informationen zu extrahieren und die Interaktion der wichtigsten Merkmale (Charakteristika) zu erklären. Darauf folgt die Evaluierungsphase, in der zusätzliche Qualitätsmaße entwickelt und angewendet werden. Diese Qualitätsmaße werden den Fachleuten zur Verfügung gestellt und dazu verwendet, die Leistung verschiedener Modelle zu vergleichen und einen akzeptablen Kompromiss zu finden. Zum Beispiel werden Modelle, die den Endzustand des Aggregats für die Eisenerzeugung genauer vorhersagen, mit Modellen verglichen, die einen genaueren Trend des Status des Eisenerzeugungsprozesses vorhersagen.
Sobald ein akzeptables Modell ausgewählt wurde, folgt auf die Bewertungsphase die Einführungsphase – vor der Vorhersagephase. In dieser Phase werden Techniken zur Überwachung der Eingabedaten auf die eingehenden Daten angewandt, um sicherzustellen, dass die Eingabedaten innerhalb der Betriebsbereiche liegen, für die das Modell trainiert wurde. Wenn die Eingabedaten überprüft wurden, kann das Modell eine Vorhersage treffen, die dann durch lokale xAI-Methoden zerlegt wird, um die Gründe für die Vorhersage in der letzten Phase des vorgestellten Ansatzes, d. h. Einsatz – Post Hoc, zu liefern.
Hybrid Modelling
Ein entscheidender Schritt auf dem Weg zu einem vertrauenswürdigen maschinellen Lernmodell ist die Integration von Fachwissen. Durch die Kombination von metallurgischem Verständnis, Prozess-Know-how und Datenanalysekompetenz können relevante Eingabedaten ausgewählt werden. Zeitverschiebungen für verschiedene Prozessschritte, Datenvalidierung, Ausschluss von Ausreißern und Datenimputationen können in der ersten Phase durchgeführt werden. So kann eine erste Validierung der Eingabedaten durchgeführt und als Qualitätsmaßstab für die Modellergebnisse verwendet werden. Die Integration dieser zusätzlichen „Metainformationen“ ermöglicht es, die Qualität der Ergebnisse des maschinellen Lernmodells zu bewerten [31].
Darüber hinaus sind klassische Modellierungsansätze, die auf ersten Prinzipien oder empirischen Modellen basieren, immer noch eine wichtige und erfolgreiche Methode zur Integration bekannter Prozessbeziehungen oder metallurgischer Abhängigkeiten. Durch die Integration solcher Ergebnisse oder ihrer Abhängigkeiten können bekannte physikalische und/oder chemische Gesetze als Wissensinput genutzt werden. Diese „Meta-Information“ ermöglicht es uns, entsprechend den gewonnenen Erkenntnissen Einschränkungen zu finden. Sie kann auch zur Interpretation und Validierung der Ergebnisse von Modellen der künstlichen Intelligenz verwendet werden [2].
Zusammenfassend lässt sich sagen, dass sich der hybride Modellierungsansatz auf metallurgisches und verfahrenstechnisches Know-how, erste Prinzipien und empirische Modelle sowie auf den Bereich der Datenwissenschaft stützt. So können aus den Eingabedaten modifizierte oder kombinierte sogenannte Features (Feature Engineering) abgeleitet werden, um die Modellleistung zu unterstützen und zu verbessern [3]. Die Integration von Metainformationen macht die Entscheidungen und Ergebnisse der Modelle transparenter.
Hybride Entscheidungsfindung
Die Kombination von maschinellem Lernen und KI-Modellen mit erklärbarer KI, Kausalität und Expertensystemen ermöglicht die Entwicklung einer hybriden Entscheidungsfindung. Die Inferenzlogik wird in der transparenten Wissensbasis des XPS definiert. Die Eingabedaten werden mit Prognosen aus KI-Modellen, Erklärungen aus erklärbaren KI-Modellen und Metainformationen wie Kausalität und Zuverlässigkeit einzelner Messungen und Modellvorhersagen angereichert.
Meta Information

Bild 2: Modellkonfidenzintervall
Metainformationen werden verwendet, um die Transparenz des ML-Modells zu erhöhen. Außerdem bieten sie Vertrauen und Argumente für die Vorhersagen des Modells. Mit diesen Methoden können Verfahrenstechniker entscheiden, ob sie die Vorhersagen akzeptieren oder ignorieren wollen und welche Maßnahmen während des Hochofenbetriebs ergriffen werden müssen. Diese Methoden erleichtern die Integration von ML-Modellen in Expertensysteme in einer laufenden Anlage, da sie eine schlüssige Metrik für die Modellzuverlässigkeit liefern.
Bild 2 zeigt Vorhersagen für die Roheisen-Temperatur in 20, 40, 60, 80, 100 und 120 Minuten. Der orangefarbene Bereich zeigt das 75 %-Konfidenzintervall, der grüne Bereich das 90 %-Konfidenzintervall. Das Modell sagt einen Rückgang der Temperatur voraus. Unter Berücksichtigung der Konfidenzintervalle können wir sehen, dass, obwohl der gemessene Wert vom vorhergesagten abweicht, da es sich um ein Regressionsmodell handelt und es sehr wahrscheinlich ist, dass die Vorhersage bis auf die letzte Stelle korrekt ist, die Grenzen der Konfidenzintervalle darauf hindeuten, dass es höchstwahrscheinlich einen Temperaturrückgang geben wird.
Erklärbarkeit
Betrachtet man nun Bild 2, so stellt sich als erstes die Frage, warum die Temperatur sinkt.
Es gibt zwei Kategorien von Ansätzen, um die Erklärbarkeit von KI (xAI) zu gewährleisten: Transparenz oder Post-hoc-Interpretation. Ersteres macht die definierten KI-Modelle transparent und zeigt somit, wie das Modell intern funktioniert. Der zweite Ansatz liefert Erklärungen für das Modellverhalten. Dadurch wird der Mensch in die Lage

Bild 3: SHAP-Wasserfalldiagramm (Quelle: Primetals)
versetzt, z. B. zu verstehen, was das Modell vorhergesagt hat und warum.
Die größte Herausforderung für xAI besteht jedoch darin, Erklärungen zu liefern, die von Menschen interpretierbar sind. Im Falle einer Post-hoc-Interpretation kann diese Herausforderung durch lokale Erklärungen/Annäherungen oder Visualisierungen und interaktive Schnittstellen angegangen werden [4]. Das Hauptziel lokaler Erklärungen besteht darin, zu erklären, wie ein festgelegtes Modell eine bestimmte Entscheidung getroffen hat. Dazu wird beispielsweise ein einfacheres lokales Modell um einen Testpunkt herum trainiert [4], das leichter zu verstehen ist, oder es werden Variablen gestört und gemessen, wie die Vorhersage auf diese Änderung reagiert [5]. Eine beliebte Methode zur Post-hoc-Interpretation sind SHAP-Werte (SHapley Additive exPlanations), die den Beitrag bestimmter Merkmalswerte zu einer bestimmten Vorhersage schätzen [6].
Bild 3 zeigt die Erklärung für die in Bild 2 gezeigte 120-Minuten-Vorhersage. Sie beginnt mit dem erwarteten Wert, der der Mittelwert des während des Modelltrainings geschätzten Vorhersagewerts ist. Die beiden obersten Merkmale beziehen sich auf die Wärmeströme, die zu einer Abnahme der vorhergesagten Temperatur führen. Der Blasdruckzustand erhöht die vorhergesagte Temperatur, während der Blasfluss die Vorhersage wieder senkt.
Die allerletzte Zeile zeigt die kombinierte Wirkung der 40 Merkmale mit den geringsten Einzelauswirkungen auf den Vorhersagewert.
Anwendungsfälle
Im Folgenden haben wir einige Anwendungsfälle aus verschiedenen Eisenhüttenwerken ausgewählt:
Anwendungsfall Vorhersage der Sinterdurchlässigkeit
Die Permeabilität steht in einem bestimmten Bereich in direktem Zusammenhang mit der Produktivität, und die Maximierung der Permeabilität der Sinterrohstoffmischung ist ein wichtiger Schritt zur Erreichung einer maximalen Produktivität. Der wichtigste Kontrollparameter für die Durchlässigkeit ist der Feuchtigkeitsgehalt der

Bild 4: Beziehung zwischen Durchlässigkeit und Feuchtigkeit (Quelle: Primetals)
Rohmaterialmischung, der durch Wasserzugabe gesteuert werden kann. Die Beziehung zwischen Feuchtigkeitsgehalt und Durchlässigkeit sowie der optimale Wert des Feuchtigkeitsgehalts wurden in verschiedenen experimentellen Studien für bestimmte Erzsorten untersucht [28], [29]. In einem laufenden Produktionsprozess mit sich ständig ändernden Bedingungen bieten statistische Methoden und maschinelles Lernen jedoch die Möglichkeit, Beziehungen zwischen Prozessvariablen und Materialeigenschaften zu untersuchen. Die Ausgangsvariable – in diesem Fall die Permeabilität – wird in Abhängigkeit von den aktuellen Prozess- und Materialparametern vorhergesagt [30], aber in diesem Anwendungsfall ist die Beziehung zwischen den Variablen wichtiger als die vorhergesagte Ausgangsvariable, da das Ziel darin besteht, mit dem Maximum der Permeabilität zu arbeiten.
Es wurde ein Steuerungsverfahren entwickelt, das das Modellergebnis hinsichtlich der Zuverlässigkeit, der Zeit seit der letzten Empfehlung oder Sollwertänderung, der minimal erforderlichen Änderung und der maximal zulässigen Änderung bewertet. Abhängig von diesen Kriterien wird im offenen Regelkreis ein neuer Ratschlag generiert oder im geschlossenen Regelkreis ein neuer Sollwert eingestellt.
Anwendungsfall Produktqualitätsvorhersage Sinter

Bild 5: Beispiel für wichtige Merkmale (Quelle: Primetals)
Bereichsbezogene Ansätze sind durch lineare Beziehungen beschränkt und bringen Einschränkungen mit sich [26]. Sie können durch ML-Methoden ergänzt werden, die Interdependenzen abdecken, die von First-Principle-Methoden vernachlässigt wurden. Es wurde ein Prognosemodell entwickelt, das auf den in einer realen Sinteranlage erhobenen Produktionsdaten basiert. Die Daten wurden vorverarbeitet (Bereinigung, Filterung der Betriebszeit und Zeitmodellierung). Besonders schwierig für die Analyse der Daten war, dass die Zielvariable nur in einem 4-Stunden-Intervall verfügbar war. Für die Stichprobe wurde jedoch Material über eine Zeitspanne von 4 Stunden gesammelt. Diese Einzelproben wurden dann gemischt und die Mischung im Labor analysiert.
Aus den 4-stündigen Prozessdaten, die einem Zielwert entsprechen, wurden mithilfe der Time Series Feature Extraction auf der Grundlage skalierbarer Hypothesentests Merkmale extrahiert [25]. Das Vorhersagemodell war ein ML-Regressionsmodell auf der Grundlage der Random-Forest-Ensemble-Methode [27]. Der vorhergesagte Wert war ein mittlerer Durchmesser des Sinters mit einem RMSE von 8,9 %. Aus dem Vorhersagemodell wurden wichtige Merkmale extrahiert. Ein Beispiel ist in Bild 5 dargestellt.
Anwendungsfall HM Temperatur- und Siliziumvorhersage BF
Für einen optimalen Hochofenbetrieb sind der Siliziumgehalt im Roheisen und die Abstichtemperatur des Roheisens (HMT) entscheidend. Beide Prozessparameter müssen auf einem angemessenen Niveau gehalten werden, um eine stabile Produktion zu gewährleisten. Dies ermöglicht einen stabilen Prozessablauf und führt zu einer gleichbleibend hohen Qualität des Roheisens und einer höheren Produktivität. Es ist schwierig, die chemischen und physikalischen Bedingungen eines BF mit klassischen First-Principal-Modellen zu modellieren, insbesondere für Prognoseaufgaben. Für diese Anwendung wurde jedoch ein datengesteuerter Ansatz gewählt. Mit dem Ziel, ein maschinelles Lernmodell zu entwickeln, das verschiedene Leistungskennzahlen einer BF vorhersagen kann.

Bild 6: Diagnoseergebnis des HMT-Trends mit daraus resultierender Qualitätsangabe (rot eingekreist) (Quelle: Primetals)
Ziel war es, mit der vorhandenen Instrumentierung gute Genauigkeitswerte für einen Prognosezeitraum von 2h zu erreichen. Darüber hinaus wurde es in das bestehende Expertensystem als Diagnose implementiert. Damit kann ein Bediener die datengesteuerten Modellergebnisse in einer vertrauten Arbeitsumgebung nutzen.
Das maschinelle Lernmodell wurde mit den folgenden Eingangsdatenklassen versorgt:
- Rohmaterial-Input,
- verfügbare Sensordaten,
- chemische Analyse des Roheisens und der Schlacke,
- und Abstichereignisse.

Bild 7: Das grüne Band stellt die Modellunsicherheit dar, in Rot die tatsächlich gemessene HMT, in Violett das aktuelle Modellergebnis mit dem entsprechenden Fehler und in Orange das Ergebnis der Diagnose (Quelle: Primetals)
Mit der Integration des maschinellen Lernmodells in das Expertensystem wurde eine Logik zur Interpretation und Überprüfung der Modellergebnisse eingeführt. So kann ein Qualitätsparameter für die Vorhersage dynamisch ausgewertet und als Indikator für die Vertrauenswürdigkeit des Modellergebnisses verwendet werden. Darüber hinaus zeigt die Diagnose die Richtung der Temperatur- bzw. Siliziumgehaltsänderung mit der zugehörigen Intensität und Gültigkeit an. Das Diagnoseergebnis für die HMT-Prognose ist in Bild 6 dargestellt.
Zur Interpretation des aktuell vorhergesagten Trends wird die Unsicherheit des Modellergebnisses herangezogen, die in Bild 7 als grünes Band dargestellt ist. Liegt das Modellergebnis über oder unter diesem Band, so deutet die Vorhersage auf einen steigenden oder fallenden Trend

Bild 8: Vorhersage der thermischen BF-Bedingungen (Quelle: Primetals)
hin. Liegen die Ergebnisse hingegen innerhalb dieses Bandes, kann kein Trend in eine bestimmte Richtung beobachtet werden. Die Diagnose wird alle 5 Minuten durchgeführt, und wenn z. B. ein signifikanter steigender Trend anhält, steigt die Wahrscheinlichkeit, dass die Temperatur in den nächsten 2 Stunden steigt.
Anwendungsfall Produktqualitätsvorhersage DR – Midrex
Für die Vorhersage der Qualitätsparameter (Metallisierung, Kohlenstoffgehalt) von direkt reduziertem Eisen steht ein klassisches Modell zur Verfügung, das durch empirische Parameter angepasst werden kann. Diese Parameter spiegeln mögliche Langzeitvariationen der Prozessbedingungen wider. Diese Parameter können manuell angepasst oder – um den Wartungsaufwand zu minimieren – mit datengetriebenen Modellen abgeleitet werden. Der große Vorteil dieses Ansatzes ist, dass das Vorhersagemodell – es basiert auf ersten Prinzipien – unverändert bleibt: Lediglich die Parameter werden verändert, was ein genaues Verständnis der Auswirkungen der datengetriebenen Lösung und eine transparente Überwachung der Tuning-bedingten Änderungen ermöglicht. Das Parametertuning wird ausgelöst, wenn die Abweichungen zwischen Vorhersage und realen Werten einen definierten Grenzwert überschreiten. Auf diese Weise kann der manuelle Abstimmungsaufwand begrenzt werden und es wird sichergestellt, dass die Vorhersage immer optimal abgestimmt ist, um präzise Vorhersagen zu liefern.

Bild 9: Abstimmung der DR-Produktqualitätsparameter-Vorhersage (Quelle: Primetals)
Fazit
Um mehr Einblick in den Vorhersage- und schließlich den Entscheidungsprozess zu erhalten, haben wir einen Transparenzansatz mit den folgenden Säulen entwickelt:
Durch die Kombination klassischer Methoden mit KI-basierten Methoden, die dem Ansatz der Erklärbarkeit folgen, und durch die Aufteilung des Entscheidungsprozesses in die Vorhersage und die Argumentation wurde mehr Transparenz geschaffen.
Durch die Anzeige von Metainformationen in der Benutzeroberfläche – wie dem Zuverlässigkeitstrichter und einer Ampel, die anzeigt, ob die Vorhersage auf fundierten Erfahrungen mit ähnlichen Prozessbedingungen in der Vergangenheit beruht – wird der Bediener mit einer intuitiven Unterstützung hinsichtlich der Vertrauenswürdigkeit der KI-Modellergebnisse geführt
Während datengetriebene Modelle und insbesondere auf künstlicher Intelligenz basierende Modelle dazu neigen, ein Black-Box-Verhalten an den Tag zu legen, können mit dem Transparenzansatz und dem Ansatz der erklärbaren künstlichen Intelligenz wichtige Eigenschaften dieser Modelle sichtbar und greifbar gemacht werden. Die Angabe der Verlässlichkeit der Modellergebnisse durch einen eigenen Fähigkeitstrichter-Wahrscheinlichkeitstrichter und einen Ampelansatz bieten eine leicht verständliche Unterstützung bei der praktischen Anwendung solcher Modelle im Entscheidungsprozess.
Durch diesen Ansatz bietet das System auch in Ausnahmesituationen eine größere Reichweite sowohl bei der Vorhersage als auch bei der Angabe der Zuverlässigkeit der Vorhersage, was für jede Entscheidung unerlässlich ist.
Durch diesen Zugang kann das System verlässliche Prognosen und Regelungs-Anweisungen in einem deutlich größeren Zustandsbereich als rein datengetriebene Methoden liefern. Das bedeutet, dass insbesondere in kritischen/exzeptionellen Situation die Unterstützung durch das System nicht so schnell verloren geht und jedenfalls vermieden wird, dass das Verlassen des gesicherten Bereichs „heimlich“ – ohne jede weitere Indikation erfolgt. Beides sind entscheidende Faktoren für eine praktische Einsetzbarkeit bei potenziell kritischen Prozessanalagen
Durch den Transparenzansatz kann das System verlässliche Prognosen und Steuerungsanweisungen in einem wesentlich breiteren Zustandsbereich liefern als rein datengetriebene Methoden. Das bedeutet, dass gerade in kritischen oder außergewöhnlichen Situationen die Unterstützung durch das System nicht so schnell verloren geht: Es ist sichergestellt, dass das Verlassen des verlässlichen Bereichs nicht versteckt und ohne weiteren Hinweis geschieht. Beides – der breitere Gültigkeitsbereich und die erhöhte Transparenz – sind entscheidend für die praktische Anwendbarkeit in kritischen Prozessen.
Literatur
- Krahwinkler, Schaler, Feilmayr, Staudinger, Bettinger (2023), Transparency and explainability – key factors for successful AI Applications in Ironmaking; ESTAD Conference Proceedings, Germany
- Bettinger, D., Fritschek, H., Schaler, M., Krahwinkler, P., Husakovic A., & Straszer S. (2021). Artificial Intelligence and Data Driven Modelling in Ironmaking – Potential and Limitations. In 2021 AISTech Conference Proceedings (pp.1881-1893).
- Domingos, P., “A Few Useful Things to Know About Machine Learning,” Communications of the ACM, Vol. 55, No. 10, 2012, pp. 78–87.
- Ribeiro M.T., Singh S., & Carlos Guestrin. (2016). “Why should I trust you?” Explaining the predictions of any classifier.” Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 2016.
- Adler P., Falk C., Friedler S.A., Rybeck G., Scheidegger C., Smith B., & Venkatasubramanian, S. (2016). Auditing Black-box Models by Obscuring Features. CoRR abs/1602.07043. 2016
- Lundberg S. M., & Lee S.-I. (2017). A unified approach to interpreting model predictions. In Advances in neural information processing systems, pp. 4765–4774, 2017.
- Ware C. (2012). Information Visualization: Perception for Design. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 3 editions, 2012.
- Pezzotti N., Höllt T., Gemert Jan Van, Lelieveldt B.P.F., Eisemann E., & Vilanova A. (2018). DeepEyes: Progressive visual analytics for designing deep neural networks. In IEEE Transaction on Visualization and Computer Graphics, vol. 24, no. 1, 2018.
- Vuković, M., & Thalmann, S. (2022). Causal Discovery in Manufacturing: A Structured Literature Review. Journal of Manufacturing and Materials Processing, 6(1), 10. https://doi.org/10.3390/jmmp6010010
- Spirtes, P., Glymour, C. N., Scheines, R., & Heckerman, D. (2000). Causation, prediction, and search. MIT press.
- Shimizu, S., Inazumi, T., Sogawa, Y., Hyvärinen, A., Kawahara, Y., Washio, T., … & Bollen, K. (2011). DirectLiNGAM: A direct method for learning a linear non-Gaussian structural equation model. The Journal of Machine Learning Research, 12, 1225-1248.
- Pearl, J. (2009). Causality. Cambridge university press.
- Mothilal, R. K., Sharma, A., & Tan, C. (2020, January). Explaining machine learning classifiers through diverse counterfactual explanations. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (pp. 607-617).
- Ates, E., Aksar, B., Leung, V. J., & Coskun, A. K. (2021, May). Counterfactual Explanations for Multivariate Time Series. In 2021 International Conference on Applied Artificial Intelligence (ICAPAI) (pp. 1-8). IEEE.
- Schruben, L. (1983). Confidence interval estimation using standardized time series. Operations Research, 31(6), 1090-1108.
- Jiang, H., Kim, B., Guan, M., & Gupta, M. (2018). To trust or not to trust a classifier. Advances in neural information processing systems, 31.
- Vukovic, M., Dhanoa, V., Jäger, M., Walchshofer, C., Küng, J., Krahwinkler, P., … & Thalmann, S. (2020). A Forecasting Model-Based Discovery of Causal Links of Key Influencing Performance Quality Indicators for Sinter Production Improvement. In 2020 AISTech Conference Proceedings (pp. 2028-2038).
- Wirth, R., & Hipp, J. (2000, April). CRISP-DM: Towards a standard process model for data mining. In Proceedings of the 4th international conference on the practical applications of knowledge discovery and data mining (Vol. 1, pp. 29-40).
- Tsamardinos, I., Aliferis, C. F., & Statnikov, A. (2003, August). Time and sample efficient discovery of Markov blankets and direct causal relations. In Proceedings of the ninth ACM SIGKDD international conference on Knowledge discovery and data mining (pp. 673-678).
- Koutroulis, G., Botler, L., Mutlu, B., Diwold, K., Römer, K., & Kern, R. (2021). KOMPOS: Connecting Causal Knots in Large Nonlinear Time Series with Non-Parametric Regression Splines. ACM Transactions on Intelligent Systems and Technology (TIST), 12(5), 1-27.
- Ribeiro, M. T., Singh, S., & Guestrin, C. (2018, April). Anchors: High-precision model-agnostic explanations. In Proceedings of the AAAI conference on artificial intelligence (Vol. 32, No. 1).
- Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harv. JL & Tech., 31, 841.
- Looveren, A. V., & Klaise, J. (2021, September). Interpretable counterfactual explanations guided by prototypes. In Joint European Conference on Machine Learning and Knowledge Discovery in Databases (pp. 650-665). Springer, Cham.
- Samoilescu, R. F., Van Looveren, A., & Klaise, J. (2021). Model-agnostic and Scalable Counterfactual Explanations via Reinforcement Learning. arXiv preprint arXiv:2106.02597.
- Christ, M., Braun, N., Neuffer, J., Kempa-Liehr, A. W. (2018). Time Series FeatuRe Extraction on basis of Scalable Hypothesis tests (tsfresh – A Python package). Neurocomputing, 307, 72–77. https://doi.org/10.1016/j.neucom.2018.03.067
- Xu, J.-X., Hou, Z.-S. (2009). Notes on Data-driven System Approaches. Acta Automatica Sinica, 35(6), 668–675. https://doi.org/10.1016/s1874-1029(08)60090-7
- Breiman, L. (2001). Machine Learning, 45(1), 5–32. https://doi.org/10.1023/a:1010933404324
- Matsumura T., Maki T., Amano S, Sakamoto M, Iwasaki N., Effect of moisture absorption behavior on optimal granulation moisture value of sinter raw material, ISIJ International 5, 2009, pp. 618-624.
- Reidetschlaeger J., Fehringer E., Seiler A., Münkel S., Zeiler S., Zirngast J., First Installation of a Fully Automated Sinter Raw Mix Analyzer, ESTAD Conference, Düsseldorf, Germany, 2019.
- Strasser S., Tripathi S., Kerschbaumer R., An approach for adaptive parameter setting in manufacturing processes, Proceedings DATA Conference, 2018, pp. 24-32.
- Tukey, J.W., (1977). Exploratory Data Analysis, Addison-Wesley, 1977.
Autoren
Dieter Bettinger
Primetals Technologies Austria GmbH
Turmstrasse 44; Linz; Austria; 4031
+43 732 6592-4770
dieter.bettinger@primetals.com
Harald Fritschek
Primetals Technologies Austria GmbH
Turmstrasse 44; Linz; Austria; 4031
Angelika Klinger
Primetals Technologies Austria GmbH
Turmstrasse 44; Linz; Austria; 4031
Petra Krahwinkler
Primetals Technologies Austria GmbH
Turmstrasse 44; Linz; Austria; 4031
Martin Schaler
Primetals Technologies Austria GmbH
Turmstrasse 44; Linz; Austria; 4031
Christian Tauber
Primetals Technologies Austria GmbH
Turmstrasse 44; Linz; Austria; 4031
Christoph Feilmayr
voestalpine AG
4031 Linz, Austria
christoph.feilmayr@voestalpine.com
Clemens Staudinger
voestalpine AG
4031 Linz, Austria
Magdalena Schatzl
K1-Met
4031 Linz, Austria
magdalena.schatzl@k1-met.com
Ross P.Goldberg
Midrex Technologies, Inc.
Charlotte, US
rgoldberg@midrex.com