# Parallel Monte Carlo Algorithms for Flowsheet Simulations based on the Population Balance Equation

This work discusses the modeling of interconnected unit operations as used for the processing and production of solid materials. The materials are thereby described as single particles which are possibly suspended in liquids (colloids) or in a gas (aerosols). The processing of the particles is based on physical mechanisms such as nucleation, coagulation, breakage, evaporation and condensation as well as particulate transport between the units. The corresponding rates of these mechanisms depend thereby on the properties of the single particles: next to the particle size, additional particle properties (like porosity, surface volume, electric charge, etc.) might have to be considered for a correct description. The solution of the resulting population balance equation poses a challenging numerical task, especially if many particle properties are modeled in a network of interconnected compartments,or units.

Conventional solution strategies for the population balance equation encompass 1) the description of the particle population only by its moments, or 2) the discretization of the particle size spectrum into a finite number of sizes or size ranges. Both strategies are limited to a low number of particle properties (maximal 2–3 with a low number of sections or points). Stochastic methods, also called Monte Carlo methods, pose an attractive alternative to these approaches, enabling the modeling of several particle properties at the cost of higher computational time and an intrinsic stochastic noise of the generated result.

In the scope of this work, novel strategies for the reduction of the necessary computing time are introduced by two means: 1) the application of GPUs allows the parallelization of the necessary computations and 2) the formulation of novel mathematical concepts allows for a new kind of Monte Carlo simulations which have inherent lower noise levels and guarantee therefore the same accuracy (in comparison with conventional methods) if less computational particles – and thus computational resources – are applied.

A suit of parallel algorithms is introduced and the GPU-implementation is shown. The algorithms are specifically designed for the simultaneous treatment of a large number of weighted Monte Carlo simulation particles. In the scope of this approach, the parallel stochastic simulation of breakage events for each simulation particle becomes possible. The parallel description of particulate growth and evaporation for each particle makes an efficient simulation of these processing steps and thus the Ostwald-ripening process possible – in contrast to serial CPU approaches.

The novel mathematical formulations proposed in the scope of this work are based on weighted Monte Carlo simulation particles which allow the modelling of a variety of simulation scenarios which are not accessible by the application of conventional Monte Carlo techniques recurring to an ensemble of equally weighted simulation particles. This is explicitly shown by the simulations of scenarios describing 1) the transport of particles in an interconnected network of units or 2) the nucleation of particles and subsequent particle growth through the mechanisms of coagulation and condensational growth (resp. evaporation).

Next to the presentation of these novel approaches, different relevant benchmark test cases are formulated and the validity of the novel schemes is demonstrated by the comparison of the simulation results with other simulation techniques based on discretization methods (discrete-sectional methods or the fixed pivot point technique) or analytical results. Comparisons to other proposed state-of-the-art MC simulation techniques based on weighted simulation particles (termed stochastic weighted algorithms (SWA)), shows 1) a lower inherent statistical noise of the novel proposed techniques for the simulation of coagulation, and 2) an extended particle size spectrum rendered by the particle size distribution for the simulation of breakage.

Diese Arbeit befasst sich mit der Simulation mit einander verbundenen Grundoperationen, wie sie bei der Verarbeitung und Herstellung von Feststoffen eingesetzt werden. Der Feststoff wird dabei als ein Partikelensemble beschrieben, das möglicherweise in Flüssigkeiten (Kolloide) oder in einem Gas (Aerosole) suspendiert ist. Die Verarbeitung der Partikel beruht auf physikalischen Mechanismen wie Nukleation, Koagulation, Bruch, Verdampfung und Kondensation sowie Partikeltransport zwischen den Grundoperationen. Die entsprechenden Raten dieser Mechanismen hängen dabei von den Eigenschaften der einzelnen Partikel ab: neben der Partikelgröße müssen für eine korrekte Beschreibung ggf. weitere Partikeleigenschaften (wie Porosität, Oberflächenvolumen, elektrische Ladung, usw.) berücksichtigt werden. Die Lösung der sich daraus ergebenden Populationsbilanzgleichung stellt eine anspruchsvolle numerische Aufgabe dar, insbesondere wenn viele Partikeleigenschaften in einem Netzwerk von miteinander verbundenen Kompartimenten oder Geräten modelliert werden.

Herkömmliche Lösungsstrategien für die Populationsbilanzgleichung umfassen 1) die Beschreibung der Partikelpopulation nur durch die Momente der entsprechenden Verteilung oder 2) die Diskretisierung des Partikelgrößenspektrums in eine endliche Anzahl von Größen oder Größenbereichen. Beide Strategien sind auf eine geringe Anzahl von Partikeleigenschaften (maximal 2–3 bei relativ schlechter Auflösung) beschränkt. Stochastische Methoden, auch Monte-Carlo-Methoden genannt, stellen eine attraktive Alternative zu diesen Ansätzen dar. Sie ermöglichen die Modellierung mehrerer Partikeleigenschaften auf Kosten einer deutlich höheren Rechenzeit und eines inhärenten stochastischen Rauschens der generierten Ergebnisse.

Im Rahmen dieser Arbeit werden neuartige Strategien zur Verringerung der erforderlichen Rechenzeit auf zwei Wegen erreicht: 1) der Einsatz von GPUs ermöglicht die Parallelisierung der erforderlichen Berechnungen und 2) die Formulierung neuartiger mathematischer Konzepte ermöglicht eine neue Art von Monte Carlo Simulationen, die ein geringeres inhärentes Rauschen aufweisen und daher die gleiche Genauigkeit (im Vergleich zu konventionellen Methoden) garantieren, wenn weniger Simulationspartikel – und damit Rechenressourcen – eingesetzt werden.

Dazu wird eine Reihe von parallelen Algorithmen vorgestellt und deren Implementierung auf der GPU veranschaulicht. Die Algorithmen sind speziell für die gleichzeitige Behandlung einer großen Anzahl von gewichteten Monte Carlo Simulationspartikeln konzipiert. Im Rahmen dieses Ansatzes wird die parallele stochastische Simulation von Bruchereignissen für jedes Simulationspartikel möglich. Die parallele Beschreibung des Partikelwachstums und der Verdampfung für jedes Partikel ermöglicht – im Gegensatz zu seriellen CPU-Ansätzen – eine effiziente Simulation dieser Prozessschritte und damit des Ostwald-Reifungsprozesses.

Die im Rahmen dieser Arbeit vorgeschlagenen neuartigen mathematischen Formulierungen basieren auf unterschiedlich gewichteten Monte Carlo Simulationspartikeln, die es erlauben, eine Vielzahl von Simulationsszenarien zu modellieren, die durch die Anwendung konventioneller Monte Carlo Techniken, die auf ein Ensemble gleich gewichteter Simulationspartikel zurückgreifen, nicht zugänglich sind. Dies wird explizit durch die Simulationen von Szenarien gezeigt, die 1) den Transport von Partikeln in einem zusammenhängenden Kompartimenten-Netzwerk oder 2) die Nukleation von Partikeln und das anschließende Partikelwachstum durch die Mechanismen der Koagulation und des Kondensationswachstums (bzw. der Verdampfung) beschreiben.

Neben der Formulierung dieser neuartigen Ansätze werden verschiedene relevante Benchmark-Testfälle vorgestellt und die Gültigkeit der neuartigen Schemata wird durch den Vergleich der Simulationsergebnisse mit anderen Simulationstechniken, die auf Diskretisierungsmethoden oder analytischen Ergebnissen basieren, demonstriert. Vergleiche mit anderen vorgeschlagenen modernen MC Simulationstechniken, die auf gewichteten Simulationspartikeln basieren (sogenannte stochastische gewichtete Algorithmen (SWA)), zeigen 1) ein geringeres inhärentes statistisches Rauschen der neu vorgeschlagenen Techniken für die Simulation der Koagulation und 2) ein erweitertes Partikelgrößenspektrum, das durch die Partikelgrößenverteilung für die Simulation des Bruchs dargestellt wird.

Citation style: