000K utf8 1100 2023$c2023-04-12 1500 eng 2050 urn:nbn:de:hbz:465-20230412-081808-2 2051 10.17185/duepublico/78165 3000 Angerhausen, Sebastian 4000 Stochastic Primal-Dual Proximal Splitting Method for Risk-Averse Optimal Control of PDEs [Angerhausen, Sebastian] 4000 Stochastisches Primal-Duales Proximal-Splittingverfahren für Risiko-Averse Optimalsteuerung von PDGln [Angerhausen, Sebastian] 4060 viii, 127 Seiten 4209 In dieser Arbeit betrachten wir ein nicht-konvexes Optimierungsproblem, das durch eine partielle Differentialgleichung (PDGl) mit zufälligen Koeffizienten beschränkt wird. Die Lösung der PDGl in Form eines Zufallfeldes wird in der Zielfunktion mit Hilfe des Conditional Valueat-Risk (CVaR) berücksichtigt, welcher ein bekanntes Risikomaß ist. Eine besonders nützliche Eigenschaft des CVaR tritt zutage, wenn er im Zusammenhang mit einem Proximalpunktverfahren verwendet wird, da die Proximalpunktabbildung seiner Fenchel-Konjugierten lediglich die metrische Projektion auf den so genannten beschränkten Wahrscheinlichkeitssimplex ist. Folglich prasentieren wir ein stochastisches primal-duales Proximal-Splittingverfahren, das von dem bekannten Chambolle-Pock-Verfahren abgeleitet ist und das oben genannte Problem löst. Die Stochastizitat oder Zufälligkeit des Algorithmus ergibt sich aus was wir komponentenweises Gradienteneinfrieren oder CGF (vom englischen component-wise gradient freezing) nennen. Der Algorithmus ist durch randomisierte Koordinatenabstiegsverfahren motiviert und erfordert, dass nur eine Teilmenge der Koordinaten eines auftrenden Gradienten in jeder Iteration neu berechnet wird. Wir liefern einen abstrakten Beweis für die fast sichere schwache Konvergenz des Algorithmus und spezifizieren die Ergebnisse fur den Fall skalarer und deterministischer Schrittweiten. Darüber hinaus stellen wir einen Algorithmus zur Berechnung der oben erwähnten Simplex-Projektion vor und beweisen dessen Konvergenz. Die Reduktion der Iterationskosten durch CGF in Form von eingesparten PDGl-Lösungen wird anhand von zwei numerischen Beispielen dargestellt, die in der Programmiersprache Julia implementiert sind. 4209 In this thesis we consider a non-convex optimization problem that is constrained by a partial differential equation (PDE) with uncertain coefficients. The random field PDE solution is taken into account in the objective function by means of the Conditional Value-at-Risk (CVaR), which is a well-known risk measure. A particularly useful feature of CVaR comes to light when it is used in the context of a proximal point method, since the proximal operator of its Fenchel conjugate is just the metric projection onto the so-called bounded probability simplex. Consequently, we propose a stochastic primal-dual proximal splitting method which is adapted from the wellknown Chambolle-Pock method and solves the aforementioned problem. The stochasticity or randomness of the algorithm arises from what we call component-wise gradient freezing or CGF. It is motivated by randomized coordinate descent methods and requires that only a subset of the coordinates of an occurring gradient is recalculated in each iteration. We provide an abstract proof of almost sure weak convergence of the algorithm and specify the results for the case of scalar and deterministic step sizes. Furthermore, we present an algorithm for computing the aforementioned simplex projection and prove its convergence. The reduction of iteration costs due to CGF in terms of saved PDE solutions is presented by means of two numerical examples which are implemented in the Julia programming language. 4950 https://doi.org/10.17185/duepublico/78165$xR$3Volltext$534 4950 https://nbn-resolving.org/urn:nbn:de:hbz:465-20230412-081808-2$xR$3Volltext$534 4961 https://duepublico2.uni-due.de/receive/duepublico_mods_00078165 5051 510