Abschlussarbeiten

Mögliche Themen für Bachelor- und Masterarbeiten.

Auf dieser Seite finden Sie Themenvorschläge für mögliche Bachelorarbeiten und Informationen zum Ablauf am CMCS. Bitte sprechen Sie uns für Masterarbeiten im Kontext unserer Forschung direkt an. Eine Übersicht über laufende Forschungsprojekte finden Sie hier.

Vorwort

Die in dieser Übersicht skizzierten Themen fallen grob und nicht disjunkt in die Kategorien Vorkonditionierung, Krylov-Unterraum-Theorie und lineare Löser, Mehrgitter, parallele Numerik, Finite Elemente, GPU Computing, Höchstleistungsrechnen, Fehlertoleranz und cooles buntes Zeug; also im Wesentlichen in die Themen, zu denen die CMCS-Gruppe forscht. Zusätzlich gibt es Themenvorschläge, die auf offene Fragen aus meinen Grundvorlesungen aufbauen. Es ist wichtig zu betonen, dass ich darüber hinaus Themenvorschlägen von Ihnen sehr offen gegenüberstehe, auch wenn mir klar ist, dass es im Bachelor-Studium noch etwas schwer ist, sich selbst ein Thema auszudenken. Wenn ich ein von Ihnen vorgeschlagenes Thema grundsätzlich spannend finde, wenn das Thema „sexy“ ist, wenn ich mich in dem Bereich hinreichend auskenne, und wenn das Thema einen für mich akzeptablen Bezug zur Numerik oder zum Wissenschaftlichen Rechnen aufweist, dann betreue ich auch eine Arbeit dazu, unter Umständen auch als externe Arbeit. Kontaktieren Sie mich bitte bei Interesse.

Hinweise

Idealerweise suchen Sie sich ein bis drei spannende Themen aus, lesen die referenzierten Originalpublikationen, und vereinbaren dann einen Termin, bei dem wir inhaltliche Details konkretisieren. Bei den meisten Themen ist der Programmieranteil durchaus Verhandlungssache. Weder diese Liste noch die Skizzen weiter unten implizieren eine Priorität meinerseits – alles andere wäre ja auch Unfug. Bei den Voraussetzungen wird oft auf meine Master-Vorlesung „Wissenschaftliches Rechnen (WR)“ verwiesen. Dieser Verweis ist „weich“, für fast alle Themen reicht es aus, jeweils ca. zehn Seiten des zugehörigen Vorlesungsskripts zu verstehen. Die Zuordnung zu den Vorlesungen NLA, NUM1, NUM2, PDEMAS basiert auf den von mir gelesenen Varianten. Wenn Sie diese Vorlesungen nicht besucht haben, stelle ich Ihnen selbstverständlich meine Skripte zur Verfügung. Wenn Sie aus dem Numerik-Zyklus nur die NLA gehört haben, sollten Sie die Bachelorarbeit nicht bei mir schreiben.

Betreuungsprinzip

Nachdem Sie sich für ein Thema entschieden haben, bekommen Sie einen „technischen“ Betreuer beziehungsweise eine Betreuerin zugewiesen, der Ihnen bei Programmierproblemen und allgemeinen Fragen zur Seite steht. Die inhaltliche Betreuung ist meine Verantwortung, dazu vereinbaren wir regelmäßige Treffen. Zusätzlich lese ich (kapitelweise) Ihre Aufschriebe vorab, und stehe jederzeit für die Diskussion von Ergebnissen und Testrechnungen zur Verfügung. Eventuell benötigte spezielle Hardware wird selbstverständlich zur Verfügung gestellt. Es ist möglich, Ihnen einen Arbeitsplatz im IANS-Pool von Kollege Siebert zur Verfügung zu stellen.

Krylov-Verfahren

Voraussetzungen
NLA, Krylov-Verfahren aus NUM2, NUM1 für Gauß-Tschebyschow-Approximation

Schwerpunkt
Krylov-Unterraum-Theorie, Approximationstheorie

Zusammenfassung
Das CG-Verfahren erzeugt eine ONB des zugrundeliegenden Krylov-Raums, und generiert dabei in jeder Iteration Bestapproximationen an die exakte Lösung in der A-Norm. Das wurde in den genannten Vorlesungen des Dozenten gezeigt. Die spannende Frage für diese Arbeit ist nun, wie die Qualität dieser Approximation quantitativ gemessen werden kann, da die Residuumsnorm nach Konstruktion nichts mit den Größen im Verfahren zu tun hat. Eine Idee ist der (normweise) Rückwärts-Fehler, eine andere Idee sind Schätzungen der A-Norm des Fehlers basierend auf im Algorithmus verfügbaren Größen. Die zugrundeliegende Analysis liefert zudem spannende Querbezüge zur Gauß-Approximation. Das Ziel dieser Arbeit besteht darin, das CG-Verfahren "wirklich" zu verstehen, und exemplarische Querbezüge zu motivieren, auszuarbeiten, und in die Praxis zu übertragen.

Coderahmen
Eigenbau, beispielsweise in Matlab/Octave

Literatur

  • geklaute Folien von einer Konferenz letztens
  • Gene H. Golub und Gérard Meurant. Matrices, moments and quadrature with applications. Princeton University Press, 2010.
  • Gérard Meurant und Petr Tichý. On computing quadrature-based bounds for the a-norm of the error in conjugate gradients. Numerical Algorithms, 62(2):163–191, Februar 2013. DOI: 10.1007/s11075-012-9591-9.

sowie enthaltende Referenzen.

Voraussetzungen
NLA, Krylov-Verfahren und Idee der Vorkonditionierung aus NUM2

Schwerpunkt
Lineare Löser, flexible und robuste Verfahren, fehlertolerante Verfahren, Krylov-Theorie

Zusammenfassung
Auf den ersten Blick wirkt die Idee, ein Krylov-Unterraum-Verfahren mit sich selbst vorzukonditionieren, wie dummes Zeug. Geht man jedoch von fehlerbehafteter oder allgemein inexakter Rechnung aus, so erlauben es sogenannte "inner-outer-Methoden", Fehler in der Rechnung zu kontrollieren und trotzdem ein konvergentes Verfahren zu erhalten. Im Hinblick auf zukünftige Höchstleistungsrechner wird aktuell intensiv diskutiert, wie seitens der Numerik mit zukünftig mit einem unvermeidbaren "Verrechnen" seitens der Hardware umgegangen werden soll. Inner-outer Methoden stellen dazu ein mögliches Theoriegebäude bereit, so dass diese Arbeit ein hochaktuelles Thema bearbeitet. Neben der Fehlertoleranz finden solche Verfahren Anwendung bei (fast) singulären Problemen. Man kann beispielsweise Schranken zeigen, die die Konvergenz des äußeren, nicht fehlerbehafteten Verfahrens sicherstellen. In dieser Arbeit soll das existierende Theoriegebäude solcher Zugänge ausführlich dargestellt werden, und ein Überblick über mögliche Anwendungsfälle gegeben werden. Kleine Beispielrechnungen sollen zur Verdeutlichung unterschiedlicher Aspekte herangezogen werden.

Coderahmen
Eigenbau, beispielsweise in Matlab/Octave

Literatur

  • Amina Bouras und Valérie Frayssé. Inexact matrix-vector products in Krylov methods for solving linear systems: A relaxation strategy. SIAM Journal Matrix Analysis and Applications, 26(3):660–678, März 2005. DOI: 10.1137/S0895479801384743.
  • Reinhard Nabben und Cornelis Vuik. A comparison of deflation and the balancing preconditioner. SIAM Journal on Scientific Computing, 27(5):1742–1759, 2006. DOI: 10.1137/040608246.
  • Valeria Simoncini und Daniel B. Szyld. Theory of inexact Krylov subspace methods and applications to scientific computing. SIAM Journal on Scientific Computing, 25(2):454–477, Februar 2003. DOI: 10.1137/S1064827502406415.

Sowie die einleitenden Abschnitte folgender Arbeiten für eine Übersicht zu fehlertoleranten Methoden

  • Mirco Altenbernd und Dominik Göddeke. Soft fault detection and correction for multigrid. International Journal of High Performance Computing Applications, February 2017. DOI: 10.1177/1094342016684006.
  • Dominik Göddeke, Mirco Altenbernd, und Dirk Ribbrock. Fault-tolerant finite-element multigrid algorithms with hierarchically compressed asynchronous checkpointing. Parallel Computing, 49:117–135, Oktober 2015. DOI: 10.1016/j.parco.2015.07.003.

Voraussetzungen
NLA, Krylov-Verfahren und Vorkonditionierung aus NUM2

Schwerpunkt
Vorkonditionierung, parallele Numerik

Zusammenfassung
Die klassische SPAI-Vorkonditionierungstechnik basiert auf einer Minimiering des Abstands der approximierten von der exakten Inversen in der Frobenius-Norm. Ist der Vorkonditionierer einmal konstruiert, reduziert sich seine Anwendung auf eine Matrix-Vektor Multiplikation, was ihn aus praktischer und paralleler Sicht durchaus attraktiv macht. Erlaubt man nur die Besetzungsstruktur der Koeffizientenmatrix, so ergibt sich allerdings i.A. kein besonders leistungsfähiges spektrenreduzierendes Verfahren. Eine Verbesserungsmöglichkeit im klassischen SPAI-Algorithmus basiert darauf, Fill-in mittels einer speziellen Residuen-minimierenden Technik zu erlauben. Es liegt nahe, bei der SPAI-Vorkonditionierung auch andere Techniken zur Verbesserung der Vorkonditionierungseigenschaften durch fill-in zu betrachten. Genau dies leistet der MSPAI (modified SPAI) Vorkonditionierer, indem dynamische fill-in-Techniken aus ILU-artigen Verfahren modifiziert und integriert werden. Verschiedene solche Möglichkeiten fill-in zu erlauben sollen dieser Arbeit theoretisch betrachtet werden und für ausgewählte Probleme basierend auf dem von den Autoren bereitgestellten Code experimentell analysiert werden.

Coderahmen
Eigenbau, Code der MSPAI-Autoren (http://www5.in.tum.de/wiki/index.php/MSPAI)

Literatur

  • Marcus J. Grote und Thomas Huckle. Parallel preconditioning with sparse approximate inverses. SIAM Journal on Scientific Computing, 18(3):838–853, Mai 1997. DOI: 10.1137/S1064827594276552.
  • Thomas Huckle und Alexander Kallischko. Frobenius norm minimization and probing for preconditioning. International Journal of Computer Mathematics, 84(8):1225–1248, August 2007. DOI: 10.1080/00207160701396387.
  • Thomas Huckle, Alexander Kallischko, Andreas Roy, Matous Sedlacek, und Tobias Weinzierl. An efficient parallel implementation of the MSPAI preconditioner. Parallel Computing, 36(5–6):273–284, 2010. DOI: 10.1016/j.parco.2009.12.007.
  • Alexander Kallischko. Modified Sparse Approximate Inverses (MSPAI) for Parallel Preconditioning. Doktorarbeit, Fakultät für Mathematik, Technische Universität München, März 2008. http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20071114-632977-1-5.

sowie eigene Recherche.

NLA-artige Themen

Voraussetzungen
NLA

Schwerpunkt
Lineare Löser, parallele Numerik

Zusammenfassung
Der SPIKE-Algorithmus ist ein Verfahren zur Lösung dünn besetzter linearer Gleichungssysteme, bei denen die Koeffizientenmatrix Bandstruktur aufweist. Das Verfahren zeichnet sich durch gute numerische Stabilität aus, ist für nicht diagonaldominante Systeme geeignet, und kann einfach parallelisiert werden. In der Arbeit soll der Algorithmus hergeleitet, beschrieben und analysiert werden. Numerische Experimente beinhalten beispielsweise den Vergleich mit spezialisierten Lösungsverfahren wie z.B. für Tridiagonalsysteme, sowie die Evaluierung der Skalierbarkeit und Stabilität für ausgewählte Testprobleme wie die Konvektions-Diffusions-Reaktionsgleichung.

Coderahmen
Eigenbau, der Algorithmus ist beispielsweise in der Intel Math Kernel Library verfügbar

Literatur

  • Li-Wen Chang, John A. Stratton, Hee-Seok Kim, und Wen-mei W. Hwu. A scalable, numerically stable, high-performance tridiagonal solver using GPUs. In Proceedings of the International Conference on High Performance Computing, Networking, Storage and Analysis (SC’12), Seiten 27:1–27:11, November 2012.
  • Eric Polizzi und Ahmed H. Sameh. A parallel hybrid banded system solver: the SPIKE algorithm. Parallel Computing, 32(2):177–194, Februar 2006. DOI: 10.1016/j.parco.2005.07.005.

sowie eigene Recherche.

Voraussetzungen
NLA, u.U. Graphentheorie

Schwerpunkt
Lineare Löser, Graphentheorie

Zusammenfassung
Iterative Gleichungssystem-Löser haben einen prinzipiellen Nachteil: Berechnete Lösungen sind nach Konstruktion immer Approximationen an die exakte Lösung. Direkte Verfahren wie beispielsweise die Gauß-Elimination sind hingegen für dünn besetzte Gleichungssysteme ungeeignet, da die LU-Zerlegung (oder gleich die Inverse) einer dünn besetzten Matrix nicht notwendig dünn besetzt ist. Sogenannte "sparse direct" Verfahren bieten einen Kompromiss, indem sie spezielle Techniken wie Multifront, teilweise Pivotierung oder Umsortierung einsetzen um den Fill-In während der LU-Zerlegung dünn besetzter Matrizen zu kontrollieren und zu minimieren, typischerweise in der Größenordnung O(n log n) bei O(n) Nicht-Null-Einträgen in der Matrix. Diese Verfahren arbeiten zweistufig, zunächst wird in einer symbolischen Faktorisierung die Besetzungsstruktur der Faktorisierung bestimmt, um dann während der sogenannten numerischen Faktorisierung die tatsächlichen Werte zu bestimmen. Die tatsächliche Lösung erfolgt dann wie bei allen Faktorisierungen in Dreiecksmatrizen durch Vorwärts- und Rückwärtseinsetzen. In dieser Arbeit soll entweder der Multifront-Ansatz oder der Superpivot-Ansatz hergeleitet, ausführlich algorithmisch beschrieben und bezüglich asymptotischer Laufzeit und Speicherplatzbedarf analysiert werden. Ebenfalls Teil der Arbeiten ist ein Effizienzvergleich mit gängigen iterativen Lösern.

Coderahmen
Matlab und externe Bibliotheken

Literatur

  • Timothy A. Davis. A column pre-ordering strategy for the unsymmetric-pattern multifrontal method. ACM Transactions on Mathematical Software, 30(2):165–195, Juni 2004. DOI: 10.1145/992200.992205.
  • James W. Demmel, Stanley C. Eisenstat, John R. Gilbert, Xiaoye S. Li, und Joseph W. H. Liu. A supernodal approach to sparse partial pivoting. SIAM Journal on Matrix Analysis and Applications, 20(3):720–755, Juli 1999. DOI: 10.1137/S0895479895291765.
  • Xiaoye S. Li und Meiyue Shao. A supernodal approach to incomplete LU factorization with partial pivoting. ACM Transactions on Mathematical Software, 37(4):43:1–43:20, Februar 2011. DOI: 10.1145/1916461.1916467.

Eigenwerte

Derzeit keine Themen verfügbar.

Numerische Verfahren für gewöhnliche Differentialgleichungen

Derzeit keine Themen verfügbar

Finite Elemente

Voraussetzungen
PDEMAS, Interesse an Programmierung

Schwerpunkt
Effiziente Programmierung, Finite Elemente

Zusammenfassung
In den letzten Jahren wurden Techniken entwickelt, die gewissermaßen als "mathematische Compiler" arbeiten und direkt aus der schwachen Formulierung einer partiellen Differentialgleichung optimierten Code erzeugen, der die Assemblierung der Koeffizientenmatrizen realisiert. In dieser Arbeit sollen solche Techniken beispielsweise anhand der Softwarepakete DOLPHIN und FENICS untersucht werden, und an (Lehrstuhl-) eigene Software zur Lösung der resultierenden linearen Gleichungssysteme angebunden werden. Die Arbeit beinhaltet einen Vergleich der angebundenen Techniken mit den in der Lehrstuhl-Software zur Verfügung stehenden konventionellen Implementierungen, für verschiedene Modellprobleme.

Coderahmen
Eigenbau, Lehrstuhl-Software (C++)

Literatur

  • Robert C. Kirby, Matthew Knepley, Anders Logg, und L. Ridgway Scott. Optimizing the evaluation of finite element matrices. SIAM Journal on Scientific Computing, 27(3):741–758, Oktober 2005. DOI: 10.1137/040607824.
  • Anders Logg und Garth N. Wells. DOLFIN: Automated finite element computing. ACM Transactions on Mathematical Software, 37(2):20:1–20:28, April 2010. DOI: 10.1145/1731022.1731030.

sowie eigene Recherche.

Voraussetzungen
PDEMAS, ggf. WR

Schwerpunkt
Finite Elemente, effiziente Implementierung, Graphentheorie

Zusammenfassung
Mit der Finite-Elemente-Methode werden PDEs unter Hinzunahme eines (unstrukturierten) Gitters in ein lineares Gleichungssystem übersetzt. Das Besetzungsmuster der Matrix ergibt sich hierbei zum Einen aus der Wahl des FE-Ansatzraumes und zum Anderen aus der Nummerierung der Gitter-Entitäten, d.h. der Knoten, Kanten und Flächen. Zur Beschleunigung von iterativen Lösern wird das Gleichungssystem hierbei häufig mit dem Cuthill-McKee-Algorithmus umsortiert. Aktuelle Tests haben aber gezeigt, dass auch die Performance des Matrix-Aufbaus signifikant von der Nummerierung des Gitters abhängt. Die Kernidee dieser Arbeit besteht darin, den von Cuthill und McKee vorgeschlagenen Algorithmus zur Umsortierung von Matrizen in einer modifizierten Form auf das dem Problem zugrunde liegenden Gitter anzuwenden, und erst anschliessend das Gleichungssystem mit der FEM aufzubauen. Auf diesem Wege kann so einerseits die Assemblierung des LGS deutlich beschleunigt werden, wobei sich dabei automatisch eine für den Löser günstige Sortierung der Matrix ergibt. Der Implementierungsaufwand beschränkt sich hierbei auf den modifizierten Cuthill-McKee-Algorithmus; die für die Beispielrechnungen notwendige FEM-Funktionalität wird von der Lehrstuhlsoftware bereitgestellt.

Coderahmen
Lehrstuhl-Software (C++)

Literatur

  • Elizabeth Cuthill und J. McKee. Reducing the bandwidth of sparse symmetric matrices. In Proceedings of the 1969 24th national conference, ACM ’69, Seiten 157–172, 1969. DOI: 10.1145/800195.805928.
  • Dominik Göddeke, Dimitri Komatitsch, und Matthias Möller. Finite and spectral element methods on unstructured grids for flow and wave propagation methods. In Volodymyr Kindratenko (Hrsg.), Numerical Computations with GPUs, Kapitel 9, Seiten 183–206. Springer, Juli 2014. DOI: 10.1007/978-3-319-06548-9_9.

sowie eigene Recherche.

Hochleistungsrechnen

Voraussetzungen
Interesse an Mehrgitterverfahren, bspw. erworben in der Vorlesung WR

Schwerpunkt
Löser, GPUs ohne GPU-Programmierung

Zusammenfassung
In dieser Arbeit sollen algebraische Mehrgitterverfahren (AMG) betrachtet werden, bei denen die Eingabe keine Gitterhierarchie ist, sondern lediglich das diskrete Problem auf dem feinsten Gitter. AMG-Verfahren konstruieren dann die Hierarchie rein algebraisch aus der Koeffizientenmatrix, und zeichnen sich somit durch einen Black-Box-Charakter aus. Kürzlich hat NVIDIA die amgX-Bibliothek veröffentlicht, die verschiedene AMG-Implementierungen für GPUs beinhaltet. Nach einer kurzen Einführung in allgemeine AMG-Prinzipien kann die Arbeit verschiedene Schwerpunkte setzen. Eher theoretisch interessierte Studierende können verschiedene Konstruktionsprinzipien für Galerkin-Produkte gegenüberstellen, und eher praktisch interessierte Studierende vergleichen geometrische und algebraische Mehrgitterverfahren auf CPUs und GPUs.

Coderahmen
Eigene Wrapper um externe Bibliotheken

Literatur

und zur non-smoothed aggregation

  • Artem Napov und Yvan Notay. An algebraic multigrid method with guaranteed convergence rate. SIAM Journal on Scientific Computing, 34(2):A1079–A1109, 2012. DOI: 10.1137/100818509.
  • Yvan Notay. An aggregation-based algebraic multigrid method. Electronic Transactions on Numerical Analysis, 37:123–146, 2010.

Voraussetzungen
NLA, Interesse an GPUs und Xeon Phi, evtl. Informatik-Affinität

Schwerpunkt
Parallelisierung, Datenstrukturen

Zusammenfassung
Matrix-Vektor-Multiplikationen mit dünnbesetzten Matrizen sind eine Kernkomponente vieler numerischer Verfahren, und sie dominieren oft die Laufzeit. Während für auf gewisse Weise strukturierte Matrizen (Bandstruktur, Blockstruktur) durchaus viele effiziente Ansätze existieren, ist der Fall beliebig unstrukturierter und damit allgemeiner Matrizen prinzipiell ungeeignet für moderne Hardware. Dennoch (oder gerade deshalb) wird seit langem an Datenstrukturen jenseits des klassischen CSR-Formats geforscht, um diese Basisoperation "Hardware-freundlich" realisieren zu können, insbesondere im Bezug auf fein-granulare Parallelität (Multicore, GPUs, Xeon Phi). Kürzlich haben Kreutzer et al. ein Format vorgestellt, dass für die von ihnen verwendeten Testprobleme konkurrenzfähige Ausführungsgeschwindigkeit und Hardwareeffizienz auf CPUs, GPUs und der MIC-Architektur verspricht. In dieser Arbeit soll zunächst ein Überblick über verschiedene Speicherformate gegeben werden (CSR, ELL, JD) bevor das SELL-C-σ Format ausführlich vorgestellt wird. Wesentlicher Teil der Arbeit ist die Evaluierung anhand von Matrixstrukturen die bei der Diskretisierung partieller Differentialgleichungen mittels Gitter-basierter Methoden auftreten, insbesondere anhand von Codes, die der Lehrstuhl in der Forschung verwendet.

Coderahmen
GHOST-Bibliothek der Autoren, Matlab, Eigenbau, Lehrstuhl-Software

Literatur

  • Nathan Bell und Michael Garland. Efficient sparse matrix-vector multiplication using CUDA. Technischer Bericht NVR-2008-4, NVIDIA, Dezember 2008. Nathan Bell und Michael Garland.
  • Implementing sparse matrix-vector multiplication on throughput-oriented processors. In SC ’09: Proceedings of the 2009 ACM/IEEE conference on Supercomputing, November 2009. DOI: 10.1145/1654059.1654078. Article No. 18.
  • Georgios Goumas, Kornilios Kourtis, Nikos Anastopoulos, Vasileios Karakasis, und Nectarios Koziris. Understanding the performance of sparse matrix-vector-multiplication. In 16th Euromicro Conference on Parallel, Distributed and Network-Based Processing (PDP 2008), Seiten 283–292, Februar 2008. DOI: 10.1109/PDP.2008.41.
  • Moritz Kreutzer, Georg Hager, Gerhard Wellein, Holger Fehske, und Alan R. Bishop. A unified sparse matrix data format for modern processors with wide SIMD units. SIAM Journal on Scientific Computing, 36(5):C401–C423, September 2014. DOI: 10.1137/130930352.
  • Francisco M. Vázquez, Gloria Ortega, Jose Jesus Fernandez, und Ester M. Garzón. Improving the performance of the sparse matrix vector product with GPUs. In International Conference on Computer and Information Technology (CIT 2010), Seiten 1146–1151, Juni/Juli 2010. DOI: 10.1109/CIT.2010.208.

Voraussetzungen
NLA, Teile von WR, gute Programmierkenntnisse

Schwerpunkt
effiziente Implementierung, Vorkonditionierung

Zusammenfassung
Nach einer kurzen Zusammenstellung der numerischen und graphentheoretischen Grundlagen sollen in dieser Arbeit effiziente Realisierungen der Vorkonditionierer ILU(p) und ILUT(p,tau) entwickelt, beschrieben, analysiert und implementiert werden. Die Diskretisierung für Modellprobleme kann wahlweise mit Finiten Differenzen oder Finiten Elementen erfolgen. Die Implementierung soll für ein geeignetes Krylov-Unterraum-Verfahren numerisch validiert werden, indem für ein exemplarisches Modellproblem aus den Kategorien anisotrope Diffusion und Konvektion-Diffusion-Reaktion der Einfluss der beiden Parameter p und tau auf die Konvergenzgeschwindigkeit betrachtet wird. Ein besonderer Schwerpunkt soll auf der Evaluierung im Hinblick auf totale Effizienz liegen, d.h. auf der Frage, inwiefern sich für moderat komplexe Probleme die zu erwartenden numerischen Gewinne auch in eine Reduzierung der Gesamtrechenzeit niederschlägt. Ein Vergleich mit kommerzieller Software (Intel MKL) ist explizit Teil der Arbeit.

Coderahmen
Eigenbau, Lehrstuhl-Software (C++)

Literatur

  • Yousef Saad. Iterative Methods for Sparse Linear Systems. SIAM, 3. Auflage, 2003.

sowie enthaltende Referenzen und eigene Recherche.

Voraussetzungen
NLA, Teile von WR, gute Programmierkenntnisse, ggf. GPU-Erfahrung

Schwerpunkt
Parallelisierung, Vorkonditionierung

Zusammenfassung
Nach einer kurzen Vorstellung des FSAI-Vorkonditionierers sollen in dieser Arbeit effiziente Strategien zu seiner parallelen OpenMP- und/oder CUDA/OpenCL-Assemblierung auf Systemen mit geteiltem Speicher und/oder auf GPUs entwickelt, beschrieben, analysiert und implementiert werden. Die Diskretisierung kann wahlweise mit Finiten Differenzen oder Finiten Elementen erfolgen. Die Implementierung soll für ein geeignetes Krylov-Unterraum-Verfahren (CG, BiCGStab, GMRES) anhand exemplarischer Modellprobleme aus den Kategorien Poisson, anisotrope Diffusion und Konvektion-Diffusion-Reaktion numerisch validiert werden. Ein besonderer Schwerpunkt soll -- eine Bearbeitung im Team vorausgesetzt -- auf dem Vergleich der verschiedenen Optimierungstechniken für Mehrkern-CPUs und GPUs liegen.

Coderahmen
Eigenbau, Lehrstuhl-Software (C++)

Literatur

  • Liliya Yurievna Kolotilina und A. Yu. Yeremin. Factorized sparse approximate inverse preconditionings I. Theory. SIAM Journal on Matrix Analysis and Applications, 14(1):45–58, 1993. DOI: 10.1137/0614004.

sowie Folgepublikationen und eigene Recherche.

Modellierung, Kontinuumsmechanik und cooles buntes Zeugs

Derzeit keine Themen verfügbar.

Dieses Bild zeigt Dominik Göddeke

Dominik Göddeke

Prof. Dr. rer. nat.

Institutsleiter und Lehrstuhlinhaber

Zum Seitenanfang