A Stochastic Primal-Dual Proximal Splitting Method for Risk-Averse Optimal Control of PDEs

In this thesis we consider a non-convex optimization problem that is constrained by a partial differential equation (PDE) with uncertain coefficients. The random field PDE solution is taken into account in the objective function by means of the Conditional Value-at-Risk (CVaR), which is a well-known risk measure. A particularly useful feature of CVaR comes to light when it is used in the context of a proximal point method, since the proximal operator of its Fenchel conjugate is just the metric projection onto the so-called bounded probability simplex. Consequently, we propose a stochastic primal-dual proximal splitting method which is adapted from the wellknown Chambolle-Pock method and solves the aforementioned problem. The stochasticity or randomness of the algorithm arises from what we call component-wise gradient freezing or CGF. It is motivated by randomized coordinate descent methods and requires that only a subset of the coordinates of an occurring gradient is recalculated in each iteration. We provide an abstract proof of almost sure weak convergence of the algorithm and specify the results for the case of scalar and deterministic step sizes. Furthermore, we present an algorithm for computing the aforementioned simplex projection and prove its convergence. The reduction of iteration costs due to CGF in terms of saved PDE solutions is presented by means of two numerical examples which are implemented in the Julia programming language.

In dieser Arbeit betrachten wir ein nicht-konvexes Optimierungsproblem, das durch eine partielle Differentialgleichung (PDGl) mit zufälligen Koeffizienten beschränkt wird. Die Lösung der PDGl in Form eines Zufallfeldes wird in der Zielfunktion mit Hilfe des Conditional Valueat-Risk (CVaR) berücksichtigt, welcher ein bekanntes Risikomaß ist. Eine besonders nützliche Eigenschaft des CVaR tritt zutage, wenn er im Zusammenhang mit einem Proximalpunktverfahren verwendet wird, da die Proximalpunktabbildung seiner Fenchel-Konjugierten lediglich die metrische Projektion auf den so genannten beschränkten Wahrscheinlichkeitssimplex ist. Folglich prasentieren wir ein stochastisches primal-duales Proximal-Splittingverfahren, das von dem bekannten Chambolle-Pock-Verfahren abgeleitet ist und das oben genannte Problem löst. Die Stochastizitat oder Zufälligkeit des Algorithmus ergibt sich aus was wir komponentenweises Gradienteneinfrieren oder CGF (vom englischen component-wise gradient freezing) nennen. Der Algorithmus ist durch randomisierte Koordinatenabstiegsverfahren motiviert und erfordert, dass nur eine Teilmenge der Koordinaten eines auftrenden Gradienten in jeder Iteration neu berechnet wird. Wir liefern einen abstrakten Beweis für die fast sichere schwache Konvergenz des Algorithmus und spezifizieren die Ergebnisse fur den Fall skalarer und deterministischer Schrittweiten. Darüber hinaus stellen wir einen Algorithmus zur Berechnung der oben erwähnten Simplex-Projektion vor und beweisen dessen Konvergenz. Die Reduktion der Iterationskosten durch CGF in Form von eingesparten PDGl-Lösungen wird anhand von zwei numerischen Beispielen dargestellt, die in der Programmiersprache Julia implementiert sind.

Cite

Citation style:
Could not load citation form.

Rights

Use and reproduction:
This work may be used under a
CC BY 4.0 LogoCreative Commons Attribution 4.0 License (CC BY 4.0)
.