Fixed-Parameter Linear-Time Algorithms for NP-hard Graph and Hypergraph Problems Arising in Industrial Applications


Book Description

This thesis aims for the development of efficient algorithms to exactly solve four selected NP-hard graph and hypergraph problems arising in the fields of scheduling, steel manufactoring, software engineering, radio frequency allocation, computer-aided circuit design, and social network analysis. NP-hard problems presumably cannot be solved exactly in a running time growing only polynomially with the input size. In order to still solve the considered problems efficiently, this thesis develops linear-time data reduction and fixed-parameter linear-time algorithms—algorithms that can be proven to run in linear time if certain parameters of the problem instances are constant. Besides proving linear worst-case running times, the efficiency of most of the developed algorithms is evaluated experimentally. Moreover, the limits of fixed-parameter linear-time algorithms and provably efficient and effective data reduction are shown. Diese Dissertation beschäftigt sich mit der Entwicklung effizienter Algorithmen zur exakten Lösung vier ausgewählter NP-schwerer Probleme aus der Ablaufplanung, Stahlverarbeitung, Softwaretechnik, Frequenzzuteilung, aus der computergestützten Hardwareentwicklung und der Analyse sozialer Netzwerke. NP-schwere Probleme können vermutlich nicht optimal in einer polynomiell mit der Eingabegröße wachsenden Zeit gelöst werden. Um sie dennoch effizient zu lösen, entwickelt diese Arbeit Linearzeitdatenreduktionsalgorithmen und Festparameter-Linearzeitalgorithmen – Algorithmen, die beweisbar in Linearzeit laufen, wenn bestimmte Parameter der Probleminstanzen konstant sind. Hierbei wird nicht nur bewiesen, dass die entwickelten Algorithmen in Linearzeit laufen, es findet zusätzlich eine experimentelle Evaluation der meisten der entwickelten Algorithmen statt. Ferner werden die Grenzen von Festparameter-Linearzeitalgorithmen und beweisbar effizienter und effektiver Datenreduktion aufgezeigt.




Exploiting structure in computationally hard voting problems


Book Description

This thesis explores and exploits structure inherent in voting problems. Some of these structures are found in the preferences of the voters, such as the domain restrictions which have been widely studied in social choice theory [ASS02, ASS10]. Others can be expressed as quantifiable measures (or parameters) of the input, which make them accessible to a parameterized complexity analysis [Cyg+15, DF13, FG06, Nie06]. Accordingly, the thesis deals with two major topics. The first topic revolves around preference structures, e.g. single-crossing or one-dimensional Euclidean structures. It is covered in Chapters 3 to 5. The second topic includes the parameterized complexity analysis of two computationally hard voting problems, making use of some of the structural properties studied in the first part of the thesis. It also investigates questions on the computational complexity, both classical and parameterized, of several voting problems for two widely used parliamentary voting rules. It is covered in Chapters 6 to 8. In Chapter 3, we study the single-crossing property which describes a natural order of the voters such that for each pair of alternatives, there are at most two consecutive voters along this order which differ in their relative ordering of the two alternatives. We find finitely many forbidden subprofiles whose absence from a profile is necessary and sufficient for the existence of single-crossingness. Using this result, we can detect single-crossingness without probing every possible order of the voters. We also present an algorithm for the detection of single-crossingness in O(nm2) time via PQ trees [BL76], where n denotes the number of voters and m the number of alternatives. In Chapter 4, we study the one-dimensional Euclidean property which describes an embedding of the alternatives and voters into the real numbers such that every voter prefers alternatives that are embedded closer to him to those which are embedded farther away. We show that, contrary to our results for the single-crossing property, finitely many forbidden subprofiles are not sufficient to characterize the one-dimensional Euclidean property. In Chapter 5, we study the computational question of achieving a certain property, as for instance single-crossingness, by deleting the fewest number of either alternatives or voters. We show that while achieving single-crossingness by deleting the fewest number of voters can be done in polynomial time, it is NP-hard to achieve this if we delete alternatives instead. Both problem variants are NP-hard for the remaining popular properties, such as single-crossingness or value-restriction. All these problems are trivially fixed-parameter tractable for the parameter “number of alternatives to delete” (resp. “number of voters to delete”) because for each studied property there are finitely many forbidden subprofiles whose removal makes a profile possess this property. In Chapter 6, we introduce a combinatorial variant of CONTROL BY ADDING VOTERS. In CONTROL BY ADDING VOTERS as introduced by Bartholdi III, Tovey, and Trick [BTT92], there is a set of unregistered voters (with known preference orders), and the goal is to add the fewest number of unregistered voters to a given profile such that a specific alternative wins. In our new model, we additionally assume that adding a voter means also adding a bundle (that is, a subset) of other voters for free. We focus on two prominent voting rules, the plurality rule and the Condorcet rule. Our problem turns out to be extremely hard; it is NP-hard for even two alternatives. We identify different parameters arising from the combinatorial model and obtain an almost complete picture of the parameterized complexity landscape. For the case where the bundles of voters have a certain structure, our problem remains hard for single-peaked preferences, while it is polynomial-time solvable for single-crossing preferences. In Chapter 7, we investigate how different natural parameters and price function families influence the computational complexity of SHIFT BRIBERY [EFS09], which asks whether it is possible to make a specific alternative win by shifting it higher in the preference orders of some voters. Each shift has a price, and the goal is not to exceed the budget. We obtain both fixed-parameter tractability and parameterized intractability results. We also study the optimization variant of SHIFT BRIBERY which seeks to minimize the budget spent, and present an approximation algorithm which approximates the budget within a factor of (1 + epsilon) and has a running time whose super-polynomial part depends only on the approximation parameter epsilon and the parameter “number of voters”. In Chapter 8, we turn our focus to two prominent parliamentary voting rules, the successive rule and the amendment rule. Both rules proceed according to a linear order of the alternatives, called the agenda. We investigate MANIPULATION (which asks to add the fewest number of voters with arbitrary preference orders to make a specific alternative win), AGENDA CONTROL (which asks to design an appropriate agenda for a specific alternative to win), and POSSIBLE/NECESSARY WINNER (which asks whether a specific alternative wins in a/every completion of the profile and the agenda). We show that while MANIPULATION and AGENDA CONTROL are polynomial-time solvable for both rules, our real-world experimental results indicate that most profiles cannot be manipulated by only few voters, and that a successful agenda control is typically impossible. POSSIBLE WINNER is NP-hard for both rules. While NECESSARY WINNER is coNP-hard for the amendment rule, it is polynomial-time solvable for the successive rule. All considered computationally hard voting problems are fixed-parameter tractable for the parameter “number of alternatives”. Die vorliegende Arbeit beschäftigt sich mit Wahlproblemen und den darin auftretenden Strukturen. Einige dieser Strukturen finden sich in den Wählerpräferenzen,wie zum Beispiel die in der Sozialwahltheorie (engl. social choice theory) intensiv erforschten domain restrictions [ASS02, ASS10], wo die Wählerpräferenzen eine bestimmte eingeschränkte Struktur haben. Andere Strukturen lassen sich wiederum mittels Problemparametern quantitativ ausdrücken, was sie einer parametrisierten Komplexitätsanalyse zugänglich macht [Cyg+15, DF13, FG06, Nie06]. Dieser Zweiteilung folgend ist die Arbeit in zwei Themengebiete untergliedert. Das erste Gebiet beinhaltet Betrachtungen zu Strukturen in Wählerpräferenzen, wie z. B. Single-Crossing-Strukturen oder eindimensionale euklidische Strukturen. Es wird in den Kapiteln 3 bis 5 abgehandelt. Das zweite Themengebiet umfasst die parametrisierte Komplexitätsanalyse zweier NP-schwerer Wahlprobleme, wobei die neu gewonnenen Erkenntnisse zu den im ersten Teil der Arbeit untersuchten Strukturen verwendet werden. Es beschäftigt sich außerdem mit Fragen sowohl zur klassischen als auch zur parametrisierten Komplexität mehrerer Wahlprobleme für zwei in der Praxis weit verbreitete parlamentarische Wahlverfahren. Dieser Teil der Arbeit erstreckt sich über die Kapitel 6 bis 8. Kapitel 3 untersucht die Single-Crossing-Eigenschaft. Diese beschreibt eine Anordnung der Wähler, bei der es für jedes Paar von Alternativen höchstens zwei aufeinanderfolgende Wähler gibt, die unterschiedlicher Meinung über die Reihenfolge dieser beiden Alternativen sind. Wie sich herausstellt, lässt sich diese Eigenschaft durch eine endliche Anzahl von verbotenen Strukturen charakterisieren. Ein Wählerprofil ist genau dann single-crossing, wenn es keine dieser Strukturen beinhaltet. Es wird außerdem ein Algorithmus vorgestellt, der die Single-Crossing-Eigenschaft unter Verwendung von PQ trees [BL76] in O(nm2) Schritten erkennt, wobei n die Anzahl der Wähler und m die Anzahl der Alternativen ist. Kapitel 4 behandelt Wählerprofile, die eindimensional-euklidisch sind, d.h. für die sich die Alternativen und Wähler so auf die reelle Achse abbilden lassen, dass für jeden Wähler und je zwei Alternativen diejenige näher zum Wähler abgebildet wird, die er der anderen vorzieht. Es stellt sich heraus, dass es im Gegensatz zur Single-Crossing-Eigenschaft nicht möglich ist, eindimensionale euklidische Profile durch endlich viele verbotene Strukturen zu charakterisieren. Kapitel 5 beschäftigt sich mit der Frage, wie berechnungsschwer es ist, eine bestimmte strukturelle Eigenschaft wie z.B. die Single-Crossing-Eigenschaft zu erreichen, indem man eine möglichst kleine Anzahl von Wählern oder Kandidaten aus einem Profil entfernt. Es zeigt sich, dass dieses Problem für die Single-Crossing-Eigenschaft durch das Löschen von Wählern zwar in polynomieller Zeit gelöst werden kann, es durch das Löschen von Kandidaten jedoch NP-schwer ist. Für alle anderen Eigenschaften sind beide Löschensvarianten ebenfalls NP-schwer. Allerdings lässt sich für jedes der Probleme auf triviale Weise mittels des Parameters „Anzahl der zu löschenden Wähler bzw. Alternativen“ fixed-parameter tractability zeigen. Das bedeutet, dass sie effizient lösbar sind, wenn der Parameter klein ist. Der Grund dafür ist, dass sich alle hier betrachteten Eigenschaften durch eine endliche Anzahl verbotener Strukturen charakterisieren lassen, deren Zerstörung die gewünschte Eigenschaft herstellt. Kapitel 6 führt die kombinatorische Variante des bekannten Problems CONTROL BY ADDING VOTERS ein, das erstmals durch Bartholdi III, Tovey und Trick [BTT92] beschrieben wurde. In der klassischen Problemstellung gibt es eine Menge von nichtregistrierten Wählern mit bekannten Präferenzen, und es wird eine kleinste Teilmenge von nichtregistrierten Wählern gesucht, sodass deren Hinzufügen zu einem gegebenen Profil einen bestimmten Kandidaten zum Gewinner macht. In der hier beschriebenen Variante wird zusätzlich angenommen, dass für jeden hinzugefügten Wähler auch eine Menge von weiteren Wählern „kostenlos“ hinzugefügt werden kann. Dieses Problem wird für die beiden bekannten Wahlregeln Condorcet-Wahl und Mehrheitswahl untersucht. Wie sich herausstellt, ist die Problemstellung schon für zwei Alternativen NP-schwer. Desweiteren werden Parameter identifiziert, die sich aus den kombinatorischen Eigenschaften dieses Problems ergeben. Für diese lässt sich eine beinahe erschöpfende Beschreibung der parametrisierten Komplexität des Problems erstellen. In einem Fall, bleibt unser Problem für sogenannte Single-Peaked-Präferenzen berechnungsschwer, während es für Single-Crossing-Präferenzen in polynomieller Zeit lösbar ist. Kapitel 7 untersucht, wie verschiedene natürliche Parameter und Preisfunktionen die Berechnungskomplexität des SHIFT BRIBERY-Problems [EFS09] beeiniv flussen. Darin fragt man, ob eine gegebene Alternative zum Gewinner gemacht werden kann, indem sie in den Präferenzen einiger Wähler nach vorne verschoben wird. Jede Verschiebung hat einen Preis, und das Ziel ist es, ein gegegebenes Budget nicht zu überschreiten. Die Ergebnisse sind gemischt: einige Parameter erlauben effiziente Algorithmen, während für andere das Problem schwer bleibt, z.B. für den Parameter „Anzahl der beeinflussten Wähler“ ist das Problem sogar W[2]-schwer. Für die Optimierungsvariante von SHIFT BRIBERY, bei der das verwendete Budget minimiert wird, erzielen wir einen Approximationsalgorithmus mit einem Approximationsfaktor von (1 + epsilon), dessen Laufzeit in ihrem nicht-polynomiellen Anteil nur von epsilon und der Anzahl der Wähler abhängt. Kapitel 8 konzentriert sich auf zwei weitverbreitete parlamentarische Wahlregeln: die successive rule und die amendment rule. Beide Regeln verwenden eine lineare Ordnung der Alternativen, auch Agenda genannt. Es werden drei Probleme untersucht: MANIPULATION fragt nach der kleinstmöglichen Anzahl von Wählern mit beliebigen Präferenzen, deren Hinzufügung einen bestimmten Kandidaten zum Gewinner macht; AGENDA CONTROL fragt, ob es möglich ist, eine Agenda derart festzulegen, dass ein bestimmter Kandidat gewinnt; POSSIBLE/NECESSARY WINNER fragt für unvollständige Wählerpräferenzen und/oder eine nur teilweise festgelegte Agenda, ob eine bestimmte Alternative überhaupt bzw. sicher zum Sieger machen kann. Es stellt sich heraus, dass sowohl MANIPULATION als auch AGENDA CONTROL für beide Wahlregeln in polynomieller Zeit lösbar sind. Allerdings deuten die Ergebnisse einer auf realem Wählerverhalten basierenden, experimentellen Studie darauf hin, dass die meisten Profile nicht durch einige wenige Wähler manipuliert werden können, und dass eine erfolgreiche Kontrolle mittels Agenda typischerweise nicht möglich ist. POSSIBLE WINNER ist für beide Regeln NP-schwer, während NECESSARY WINNER für die amendment rule coNP-schwer und für die successive rule in polynomieller Zeit lösbar ist. Alle betrachtete NP-schwere oder coNP-schwere Wahlprobleme sind „fixed-parameter tractable“ für den Parameter „Anzahl der Alternativen“.




Dualities in graphs and digraphs


Book Description

In this thesis we describe dualities in directed as well as undirected graphs based on tools such as width-parameters, obstructions and substructures. We mainly focus on directed graphs and their structure. In the context of a long open conjecture that bounds the monotonicity costs of a version of the directed cops and robber game, we introduce new width-measures based on directed separations that are closely related to DAG-width. We identify a tangle-like obstruction for which we prove a duality theorem. Johnson, Reed, Robertson, Seymour and Thomas introduced the width measure directed treewidth as a generalisation of treewidth for directed graphs. We introduce a new width measure, the cyclewidth, which is parametrically equivalent to directed treewidth. Making use of the connection between directed graphs and bipartite graphs with perfect matchings we characterise the digraphs of low cyclewidth. Generalising the seminal work by Robertson and Seymour resulting in a global structure theorem for undirected graphs, there is the goal of obtaining a structure theorem, based on directed treewidth, describing the structure of the directed graphs excluding a fixed butterfly minor. Working in this direction we present a new flat wall theorem for directed graphs which we believe to provide a better base for a directed structure theorem than the existing ones. On undirected graphs we present several results on induced subgraphs in the graphs themselves or the square graph of their linegraph. These results range from general statements about all graphs to the consideration of specific graph classes such as the one with exactly two moplexes. In der vorliegenden Arbeit beschreiben wir Dualitäten in gerichteten sowie in ungerichteten Graphen basierend auf Konzepten wie Weiteparametern, Obstruktionen und Substrukturen. Der Hauptfokus der Arbeit liegt bei gerichteten Graphen und ihrer Struktur. Im Kontext einer lange offenen Vermutung, dass die Monotoniekosten einer Variante des Räuber und Gendarm Spiels für gerichtete Graphen beschränkt sind, führen wir neue Weiteparameter ein, die auf gerichteten Separationen basieren und eng mit DAG-Weite verwandt sind. Wir identifizieren Tangle-artige Obstruktionen zu diesen Weiteparametern und beweisen die Dualität zwischen diesen beiden Konzepten. Johnson, Reed, Robertson, Seymour und Thomas haben die gerichtete Baumweite als gerichtete Verallgemeinerung der Baumweite auf ungerichteten Graphen eingeführt. Wir führen einen neuen Weiteparameter, die Cyclewidth, ein, der parametrisch equivalent zur gerichteten Baumweite ist. Unter Nutzung der Verwandtschaft von gerichteten Graphen und bipartiten Graphen mit perfekten Matchings charakterisieren wir die gerichteten Graphen mit kleiner Cyclewidth. Ein einschlagendes Ergebnis in der Graphenstrukturtheorie ist das Strukturtheorem von Robertson und Seymour. Basierend darauf gibt es Anstrengungen ein solches Strukturtheorem auch für gerichtete Graphen zu finden und dafür die gerichtete Baumweite als Grundlage zu nutzen. Dieses Theorem soll die Struktur aller gerichteten Graphen beschreiben, die einen festen gerichteten Graphen als Butterflyminoren ausschließen. In diesem Kontext beweisen wir ein neues Flat-wall-theorem für gerichtete Graphen, dass unserer Erwartung nach eine bessere Basis für ein gerichtetes Strukturtheorem bietet als die bisher betrachteten Alternativen. Auf ungerichteten Graphen präsentieren wir einige Ergebnisse bezüglich induzierten Subgraphen in gegebenen Graphen oder ihren Linegraphen. Diese Ergebnisse reichen von der Betrachtung spezifischer Graphklassen, wie den Graphen mit zwei Moplexen, bis zu Ergebnissen auf der allgemeinen Klasse aller Graphen.




Fine-grained complexity analysis of some combinatorial data science problems


Book Description

This thesis is concerned with analyzing the computational complexity of NP-hard problems related to data science. For most of the problems considered in this thesis, the computational complexity has not been intensively studied before. We focus on the complexity of computing exact problem solutions and conduct a detailed analysis identifying tractable special cases. To this end, we adopt a parameterized viewpoint in which we spot several parameters which describe properties of a specific problem instance that allow to solve the instance efficiently. We develop specialized algorithms whose running times are polynomial if the corresponding parameter value is constant. We also investigate in which cases the problems remain intractable even for small parameter values. We thereby chart the border between tractability and intractability for some practically motivated problems which yields a better understanding of their computational complexity. In particular, we consider the following problems. General Position Subset Selection is the problem to select a maximum number of points in general position from a given set of points in the plane. Point sets in general position are well-studied in geometry and play a role in data visualization. We prove several computational hardness results and show how polynomial-time data reduction can be applied to solve the problem if the sought number of points in general position is very small or very large. The Distinct Vectors problem asks to select a minimum number of columns in a given matrix such that all rows in the selected submatrix are pairwise distinct. This problem is motivated by combinatorial feature selection. We prove a complexity dichotomy with respect to combinations of the minimum and the maximum pairwise Hamming distance of the rows for binary input matrices, thus separating polynomial-time solvable from NP-hard cases. Co-Clustering is a well-known matrix clustering problem in data mining where the goal is to partition a matrix into homogenous submatrices. We conduct an extensive multivariate complexity analysis revealing several NP-hard and some polynomial-time solvable and fixed-parameter tractable cases. The generic F-free Editing problem is a graph modification problem in which a given graph has to be modified by a minimum number of edge modifications such that it does not contain any induced subgraph isomorphic to the graph F. We consider three special cases of this problem: The graph clustering problem Cluster Editing with applications in machine learning, the Triangle Deletion problem which is motivated by network cluster analysis, and Feedback Arc Set in Tournaments with applications in rank aggregation. We introduce a new parameterization by the number of edge modifications above a lower bound derived from a packing of induced forbidden subgraphs and show fixed-parameter tractability for all of the three above problems with respect to this parameter. Moreover, we prove several NP-hardness results for other variants of F-free Editing for a constant parameter value. The problem DTW-Mean is to compute a mean time series of a given sample of time series with respect to the dynamic time warping distance. This is a fundamental problem in time series analysis the complexity of which is unknown. We give an exact exponential-time algorithm for DTW-Mean and prove polynomial-time solvability for the special case of binary time series. Diese Dissertation befasst sich mit der Analyse der Berechnungskomplexität von NP-schweren Problemen aus dem Bereich Data Science. Für die meisten der hier betrachteten Probleme wurde die Berechnungskomplexität bisher nicht sehr detailliert untersucht. Wir führen daher eine genaue Komplexitätsanalyse dieser Probleme durch, mit dem Ziel, effizient lösbare Spezialfälle zu identifizieren. Zu diesem Zweck nehmen wir eine parametrisierte Perspektive ein, bei der wir bestimmte Parameter definieren, welche Eigenschaften einer konkreten Probleminstanz beschreiben, die es ermöglichen, diese Instanz effizient zu lösen. Wir entwickeln dabei spezielle Algorithmen, deren Laufzeit für konstante Parameterwerte polynomiell ist. Darüber hinaus untersuchen wir, in welchen Fällen die Probleme selbst bei kleinen Parameterwerten berechnungsschwer bleiben. Somit skizzieren wir die Grenze zwischen schweren und handhabbaren Probleminstanzen, um ein besseres Verständnis der Berechnungskomplexität für die folgenden praktisch motivierten Probleme zu erlangen. Beim General Position Subset Selection Problem ist eine Menge von Punkten in der Ebene gegeben und das Ziel ist es, möglichst viele Punkte in allgemeiner Lage davon auszuwählen. Punktmengen in allgemeiner Lage sind in der Geometrie gut untersucht und spielen unter anderem im Bereich der Datenvisualisierung eine Rolle. Wir beweisen etliche Härteergebnisse und zeigen, wie das Problem mittels Polynomzeitdatenreduktion gelöst werden kann, falls die Anzahl gesuchter Punkte in allgemeiner Lage sehr klein oder sehr groß ist. Distinct Vectors ist das Problem, möglichst wenige Spalten einer gegebenen Matrix so auszuwählen, dass in der verbleibenden Submatrix alle Zeilen paarweise verschieden sind. Dieses Problem hat Anwendungen im Bereich der kombinatorischen Merkmalsselektion. Wir betrachten Kombinationen aus maximalem und minimalem paarweisen Hamming-Abstand der Zeilenvektoren und beweisen eine Komplexitätsdichotomie für Binärmatrizen, welche die NP-schweren von den polynomzeitlösbaren Kombinationen unterscheidet. Co-Clustering ist ein bekanntes Matrix-Clustering-Problem aus dem Gebiet Data-Mining. Ziel ist es, eine Matrix in möglichst homogene Submatrizen zu partitionieren. Wir führen eine umfangreiche multivariate Komplexitätsanalyse durch, in der wir zahlreiche NP-schwere, sowie polynomzeitlösbare und festparameterhandhabbare Spezialfälle identifizieren. Bei F-free Editing handelt es sich um ein generisches Graphmodifikationsproblem, bei dem ein Graph durch möglichst wenige Kantenmodifikationen so abgeändert werden soll, dass er keinen induzierten Teilgraphen mehr enthält, der isomorph zum Graphen F ist. Wir betrachten die drei folgenden Spezialfälle dieses Problems: Das Graph-Clustering-Problem Cluster Editing aus dem Bereich des Maschinellen Lernens, das Triangle Deletion Problem aus der Netzwerk-Cluster-Analyse und das Problem Feedback Arc Set in Tournaments mit Anwendungen bei der Aggregation von Rankings. Wir betrachten eine neue Parametrisierung mittels der Differenz zwischen der maximalen Anzahl Kantenmodifikationen und einer unteren Schranke, welche durch eine Menge von induzierten Teilgraphen bestimmt ist. Wir zeigen Festparameterhandhabbarkeit der drei obigen Probleme bezüglich dieses Parameters. Darüber hinaus beweisen wir etliche NP-Schwereergebnisse für andere Problemvarianten von F-free Editing bei konstantem Parameterwert. DTW-Mean ist das Problem, eine Durchschnittszeitreihe bezüglich der Dynamic-Time-Warping-Distanz für eine Menge gegebener Zeitreihen zu berechnen. Hierbei handelt es sich um ein grundlegendes Problem der Zeitreihenanalyse, dessen Komplexität bisher unbekannt ist. Wir entwickeln einen exakten Exponentialzeitalgorithmus für DTW-Mean und zeigen, dass der Spezialfall binärer Zeitreihen in polynomieller Zeit lösbar ist.




On the feasibility of multi-leader replication in the early tiers


Book Description

In traditional service architectures that follow the service statelessness principle, the state is primarily held in the data tier. Here, service operators utilize tailored storage solutions to guarantee the required availability; even though failures can occur at any time. This centralized approach to store and process an application’s state in the data tier implies that outages of the entire tier cannot be tolerated. An alternative approach, which is in focus of this thesis, is to decentralize the processing of state information and to use more stateful components in the early tiers. The possibility to tolerate a temporary outage of an entire tier implies that the application’s state can be manipulated by the remaining tiers without waiting for approval from the unavailable tier. This setup requires multi-leader replication, where every replica can accept writes and forwards the resulting changes to the other replicas. This thesis explores the feasibility of using multi-leader replication to store and process state in a decentralized manner across multiple tiers. To this end, two replication mechanisms, namely Conflict-free Replicated Data Types and Operational Transformation, are under particular investigation. We use and extend both mechanism to demonstrate that the aforementioned decentralization is worth considering when designing a service architecture. The challenges that arise when following our approach go back to fundamental impossibility results in distributed systems research, i.e. the impossibility to achieve a fault-tolerant consensus mechanism in asynchronous systems and the inevitable trade-off between availability and consistency in the presence of failures. With this thesis, we contribute to close the exposed gaps of both results by providing usable alternatives for standard IT services. We exemplify the feasibility of our alternatives with a fully distributed IMAP service and a programming library that provides the necessary extension to utilize our approach in a variety of web-based applications. All contributions of this thesis are based on both theory and practice. In particular, all extensions to the existing multi-leader replication mechanisms were proven to satisfy the necessary properties. Moreover, those extensions were also implemented as prototypical applications and evaluated against the corresponding de facto standard software from the industry. Basierend auf dem “service statelessness principle” ist es üblich, Softwaredienste so zu entwerfen, dass der Zustand des Dienstes primär in einer gekapselten Datenschicht verarbeitet wird. Innerhalb der Datenschicht werden spezielle Lösungen verwendet, um die Verfügbarkeit der Daten sicherzustellen. Dieser zentralisierte Ansatz hat zur Folge, dass ein Ausfall oder eine temporäre Nichtverfügbarkeit der gesamten Datenschicht zwangsweise zur Nichtverfügbarkeit des gesamten Dienstes führt. Ein alternativer Ansatz, welcher in dieser Arbeit erforscht wird, ist die dezentralisierte Speicherung und Verarbeitung der Daten in den darüberliegenden Softwareschichten. Um in diesem Ansatz einen Ausfall der gesamten Datenschicht zu kompensieren, ist es zwingend notwendig, dass die verbleibenden Schichten die eingehenden Anfragen ohne die Bestätigung durch die Datenschicht beantworten können. Hierfür wird eine Replikationsarchitektur benötigt, in der jedes Replikat die Anfragen direkt beantworten kann; die so genannte “multi-leader replication”. In dieser Arbeit werden diese Replikationsarchitekturen verwendet, um den Zustand und die Daten eines Dienstes zu dezentralisieren und über mehrere Schichten zu replizieren. Hierbei werden zwei Mechanismen detaillierter betrachtet: “Conflict-free Replicated Data Types” und “Operational Transformation”. Anschließend werden beide Mechanismen erweitert und hinsichtlich der Verwendbarkeit für den beschriebenen Ansatz geprüft. Als Ergebnis dieser Arbeit wird gezeigt, dass ein dezentralisierter Ansatz mit den vorgestellten Mechanismen in Betracht gezogen werden kann. Die Herausforderungen, die bei der Anwendung dieses Ansatzes entstehen, basieren auf nachweislich unlösbaren Problemen aus der Forschung von Verteilten Systemen. Dazu gehört die Unlösbarkeit von Konsensus und die unausweichliche Abwägung zwischen Verfügbarkeit und Konsistenz in einem verteilten System mit Ausfällen. Diese Arbeit trägt dazu bei, die entstehenden Lücken, welche aus diesen fundamentalen Ergebnissen resultieren, zu schließen und die vorgeschlagenen Lösungen für reale IT Dienste anwendbar zu machen. Dieses wird anhand eines dezentralen IMAP Dienstes und einer Programmierbibliothek für Webanwendungen verdeutlicht. Alle Bestandteile dieser Doktorarbeit verbinden Theorie und Praxis. Alle vorgeschlagenen Erweiterungen für bestehende Replikationssysteme werden in formalen Modellen verifiziert und prototypisch implementiert. Die Implementierungen werden außerdem mit vergleichbarer Standardsoftware, welche dem heutigen Stand der Technik entspricht, in praktischen Experimenten evaluiert.




Nowhere Dense Classes of Graphs


Book Description

We show that every first-order property of graphs can be decided in almost linear time on every nowhere dense class of graphs. For graph classes closed under taking subgraphs, our result is optimal (under a standard complexity theoretic assumption): it was known before that for all classes C of graphs closed under taking subgraphs, if deciding first-order properties of graphs in C is fixed-parameter tractable, parameterized by the length of the input formula, then C must be nowhere dense. Nowhere dense graph classes form a large variety of classes of sparse graphs including the class of planar graphs, actually all classes with excluded minors, and also bounded degree graphs and graph classes of bounded expansion. For our proof, we provide two new characterisations of nowhere dense classes of graphs. The first characterisation is in terms of a game, which explains the local structure of graphs from nowhere dense classes. The second characterisation is by the existence of sparse neighbourhood covers. On the logical side, we prove a rank-preserving version of Gaifman's locality theorem. The characterisation by neighbourhood covers is based on a characterisation of nowhere dense classes by generalised colouring numbers. We show several new bounds for the generalised colouring numbers on restricted graph classes, such as for proper minor closed classes and for planar graphs. Finally, we study the parameterized complexity of the first-order model-checking problem on structures where an ordering is available to be used in formulas. We show that first-order logic on ordered structures as well as on structures with a successor relation is essentially intractable on nearly all interesting classes. On the other hand, we show that the model-checking problem of order-invariant monadic second-order logic is tractable essentially on the same classes as plain monadic second-order logic and that the model-checking problem for successor-invariant first-order logic is tractable on planar graphs. Wir zeigen, dass jede Eigenschaft von Graphen aus einer nowhere dense Klasse von Graphen, die in der Präadikatenlogik formuliert werden kann, in fast linearer Zeit entschieden werden kann. Dieses Ergebnis ist optimal für Klassen von Graphen, die unter Subgraphen abgeschlossen sind (unter einer Standardannahme aus der Komplexitätstheorie). Um den obigen Satz zu beweisen, führen wir zwei neue Charakterisierungen von nowhere dense Klassen von Graphen ein. Zunächst charakterisieren wir solche Klassen durch ein Spiel, das die lokalen Eigenschaften von Graphen beschreibt. Weiter zeigen wir, dass eine Klasse, die unter Subgraphen abgeschlossen ist, genau dann nowhere dense ist, wenn alle lokalen Nachbarschaften von Graphen der Klasse dünn überdeckt werden können. Weiterhin beweisen wir eine erweiterte Version von Gaifman's Lokalitätssatz für die Prädikatenlogik, der eine Übersetzung von Formeln in lokale Formeln des gleichen Ranges erlaubt. In Kombination erlauben diese neuen Charakterisierungen einen effizienten, rekursiven Lösungsansatz für das Model-Checking Problem der Prädikatenlogik. Die Charakterisierung der nowhere dense Graphklassen durch die oben beschriebenen Überdeckungen basiert auf einer bekannten Charakterisierung durch verallgemeinerte Färbungszahlen. Unser Studium dieser Zahlen führt zu neuen, verbesserten Schranken für die verallgemeinerten Färbungszahlen von nowhere dense Klassen von Graphen, insbesondere für einige wichtige Subklassen, z. B. für Klassen mit ausgeschlossenen Minoren und für planare Graphen. Zuletzt untersuchen wir, welche Auswirkungen eine Erweiterung der Logik durch Ordnungs- bzw. Nachfolgerrelationen auf die Komplexität des Model-Checking Problems hat. Wir zeigen, dass das Problem auf fast allen interessanten Klassen nicht effizient gelöst werden kann, wenn eine beliebige Ordnungs- oder Nachfolgerrelation zum Graphen hinzugefügt wird. Andererseits zeigen wir, dass das Problem für ordnungsinvariante monadische Logik zweiter Stufe auf allen Klassen, für die bekannt ist, dass es für monadische Logik zweiter Stufe effizient gelöst werden kann, auch effizient gelöst werden kann. Wir zeigen, dass das Problem für nachfolgerinvariante Prädikatenlogik auf planaren Graphen effizient gelöst werden kann.




Parity games, separations, and the modal μ-calculus


Book Description

The topics of this thesis are the modal μ-calculus and parity games. The modal μ-calculus is a common logic for model-checking in computer science. The model-checking problem of the modal μ-calculus is polynomial time equivalent to solving parity games, a 2-player game on labeled directed graphs. We present the first FPT algorithms (fixed-parameter tractable) for the model-checking problem of the modal μ-calculus on restricted classes of graphs, specifically on classes of bounded Kelly-width or bounded DAG-width. In this process we also prove a general decomposition theorem for the modal μ-calculus and define a useful notion of type for this logic. Then, assuming a class of parity games has a polynomial time algorithm solving it, we consider the problem of extending this algorithm to larger classes of parity games. In particular, we show that joining games, pasting games, or adding single vertices preserves polynomial-time solvability. It follows that parity games can be solved in polynomial time if their underlying undirected graph is a tournament, a complete bipartite graph, or a block graph. In the last chapter we present the first non-trivial formal proof about parity games. We explain a formal proof of positional determinacy of parity games in the proof assistant Isabelle/HOL. Die Themen dieser Dissertation sind der modale μ-Kalkül und Paritätsspiele. Der modale μ-Kalkül ist eine häufig eingesetzte Logik im Bereich des Model-Checkings in der Informatik. Das Model-Checking-Problem des modalen μ-Kalküls ist polynomialzeitäquivalent zum Lösen von Paritätsspielen, einem 2-Spielerspiel auf beschrifteten, gerichteten Graphen. Wir präsentieren die ersten FPT-Algorithmen (fixed-parameter tractable) für das Model-Checking-Problem des modalen μ-Kalküls auf Klassen von Graphen mit beschränkter Kelly-Weite oder beschränkter DAG-Weite. Für diesen Zweck beweisen wir einen allgemeineren Zerlegungssatz für den modalen μ-Kalkül und stellen eine nützliche Definition von Typen für diese Logik vor. Angenommen, eine Klasse von Paritätsspielen hat einen Polynomialzeit-Lösungs-Algorithmus, betrachten wir danach das Problem, diese Klassen zu erweitern auf eine Weise, sodass Polynomialzeit-Lösbarkeit erhalten bleibt. Wir zeigen, dass dies beim Join von Paritätsspielen, beim Pasting und beim Hinzufügen einzelner Knoten der Fall ist. Wir folgern daraus, dass das Lösen von Paritätsspielen in Polynomialzeit möglich ist, falls der unterliegende ungerichtete Graph ein Tournament, ein vollständiger bipartiter Graph oder ein Blockgraph ist. Im letzten Kapitel präsentieren wir den ersten nicht-trivialen formalen Beweis über Paritätsspiele. Wir stellen einen formalen Beweis für die positionale Determiniertheit von Paritätsspielen im Beweis-Assistenten Isabelle/HOL vor.




On the Foundations of Dynamic Coalitions


Book Description

Dynamic Coalitions denote a temporary collaboration between different entities to achieve a common goal. A key feature that distinguishes Dynamic Coalitions from static coalitions is Dynamic Membership, where new members can join and others can leave after a coalition is set. This thesis studies workflows in Dynamic Coalitions, by analyzing their features, highlighting their unique characteristics and similarities to other workflows, and investigating their relation with Dynamic Membership. For this purpose, we use the formal model of Event Structures and extend it to faithfully model scenarios taken as use cases from healthcare. Event Structures allow for workflows modeling in general, and for modeling Dynamic Membership in Dynamic Coalitions as well through capturing the join and leave events of members. To this end, we first extend Event Structures with Dynamic Causality to address the dynamic nature of DCs. Dynamic Causality allows some events to change the causal dependencies of other events in a structure. Then, we study the expressive power of the resulting Event Structures and show that they contribute only to a specific kind of changes in workflows, namely the pre-planned changes. Second, we present Evolving Structures in order to support ad-hoc and unforeseen changes in workflows, as required by the use cases. Evolving Structures connect different Event Structures with an evolution relation which allows for changing an Event Structure during a system run. We consider different approaches to model evolution and study their equivalences. Furthermore, we show that the history of a workflow should be preserved in our case of evolution in Dynamic Coalitions, and we allow for extracting changes from an evolution to support Process Learning. Third, to capture the goals of DCs, we equip Evolving Structures with constraints concerning the reachability of a set of events that represents a goal. The former extensions allow for examining the changes and evolutions caused by members, and examining members’ contributions to goal satisfaction, through their join and leave events. Finally, we highlight many modeling features posed as requirements by the domain of our Dynamic-Coalition use cases, namely the healthcare, which are independent from the nature of Dynamic Coalitions, e.g. timing. We examine the literature of Event Structures for supporting such features, and we identify that the notion of Priority is missing in Event Structures. To this end, we add Priority to various kinds of Event Structures from the literature. Furthermore, we study the relation between priority on one side, and conjunctive causality, disjunctive causality, causal ambiguity and various kinds of conflict on the other side. Comparing to Adaptive Workflows, which are concerned with evolutions of workflows that occur as a response to changes, e.g. changes in the business environment or exceptions, this thesis shows that Dynamic-Coalition workflows are not only Adaptive but also Goal-Oriented. Besides, it adds one extra trigger for evolution in workflows—unique to Dynamic Coalitions—namely the join of new members who contribute to goal satisfaction in a Dynamic Coalition. Finally the thesis contributes to bridging the gap in modeling between theory and domain experts by supporting step-by-step modeling applied regularly in healthcare and other domains. Dynamische Koalitionen (DKen) bezeichnen eine temporäre Kollaboration zwischen verschiedenen Entitäten zum Erreichen eines gemeinsamen Ziels. Ein Schüsselaspekt, welcher dynamische Koalitionen von statischen Koalitionen unterscheidet ist die dynamische Mitgliedschaft, durch die neue Mitglieder hinzu- kommen und andere die Koalitionen verlassen können, nachdem sie entstanden ist. Diese Arbeit studiert Workflows in dynamische Koalitionen durch eine Analyse ihrer Eigenschaften, das Herausstellen ihrer einzigartigen Charakteristika und Ähnlichkeiten zu anderen Workflows und durch eine Untersuchung ihrer Beziehung zu dynamischer Mitgliedschaft. In diesem Sinne nutzen wir das formales Model der Ereignisstukturen (ESen) und erweitern es, um Fallstudien aus der Medizin angemessen zu modellieren. ESen erlauben sowohl eine generelle Workflow Modellierung als auch eine Darstellung von Eintritt- und Austrittereignissen von Mitgliedern. Zu diesem Zweck erweitern wir ESen zuerst um Dynamische Kausalität, um die dynamische Natur von DKs abzubilden. Dynamische Kausalität erlaubt bestimmten Ereignissen die kausalen Abhängigkeiten anderer Ereignissen in einer Struktur zu verändern. Dann untersuchen wir die Ausdrucksstärke der resutierenden ESen und zeigen, dass sie nur eine spezifische Art der Veränderung abbilden, die sogenannten vorgeplanten Veränderungen. Als Zweites präsentieren wir Evolving in ESen um ad-hoc- und unvorhergesehene Veränderungen zu unterstützen, wie es durch unsere Fallstudien benötigt wird. Evolving in ESen verbinden verschiedene ESen mit einer Relation, welche eine Veränderung einer ES während eines Ablaufes erlaubt. Wir ziehen verschiedene Ansätze der Modelevolution in Betracht und untersuchen ihre Äquivalenzen. Des Weiteren zeigen wir, dass in unserem Fall der Evolution in DKen die Geschichte eines Workflows erhalten bleiben muss und wir ermöglichen das Extrahieren von Veränderungen einer Evolution, um Process Learning zu unterstützen. Drittens: Um die Ziele von DKen abzubilden, fügen wir den Evolving in ESen mit Einschränkungen bezüglich der Erreichbarkeit einer Menge von Ereignissen hinzu, welche das Ziel repräsentieren. Die genannten Erweiterungen erlauben es sowohl die Änderungen und Evolutionen, die vom Mitgliedern verursacht werden als auch die Beiträge der Mitglieder zur Zielerreichung durch deren Entritt- und Austrittereignissen zu untersuchen. Schlussendlich, stellen wir viele Modellierungseigen- schaften dar, welche von den DK-Fallstudien aus der Medizin benötigt werden und unabhängig von der Natur der DKen sind, wie z.B. Timing. Wir untersuchen die Literatur zu ESen bezüglich Unterstützung für solche Eigenschaften und stellen fest, dass der Begriff Priorität in ESen fehlt. Daher fügen wir Priorität zu verschiedenen ESen aus der Literatur hinzu. Des Weiteren untersuchen wir die Beziehungen von Priorität auf zu Konjunktiver Kausalität, disjunktiver Kausalität, kausal Uneindeutigkeit und verschiedenen Formen von Konflikt. Im Vergleich zu Adaptive Workflows, welche sich mit der Evolution von Workflows beschäftigt, die als Reaktion auf Veränderungen entsteht, wie z.B. Veränderungen im Business Environment oder Exceptions, zeigt diese Arbeit das DKen nicht nur adaptiv sondern auch zielorientiert sind. Außerdem fügt sie einen zusätzlichen Auslöser für Evolution in Workflows hinzu, welcher ausschließlich DKen eigen ist: das Hinzukommen neuer Mitglieder welche zur Ziel- erreichung der DK beitragen. Zuletzt trägt diese Arbeit bei, die Lücke der Modellierung zwischen der Theorie und den Domänenexperten zu überbrücken, in dem sie eine Schritt-für-Schritt Modellierung unterstützt, welche regelmäßig in der Medizin und anderen Bereichen angewand wird.




Algorithmic Aspects of Manipulation and Anonymization in Social Choice and Social Networks


Book Description

This thesis presents a study of several combinatorial problems related to social choice and social networks. The main concern is their computational complexity, with an emphasis on their parameterized complexity. The goal is to devise efficient algorithms for each of the problems studied here, or to prove that, under widely-accepted assumptions, such algorithms cannot exist. The problems discussed in Chapter 3 and in Chapter 4 are about manipulating a given election, where some relationships between the entities of the election are assumed. This can be seen as if the election occurs on top of an underlying social network, connecting the voters participating in the election or the candidates which the voters vote on. The problem discussed in Chapter 3, Combinatorial Candidate Control, is about manipulating an election by changing the set of candidates which the voters vote on. That is, there is an external agent who can add new candidates or delete existing candidates. A combinatorial structure over the candidates is assumed, such that whenever the external agent adds or removes a candidate, a predefined set of candidates (related to the chosen candidate) are added or removed from the election. The problem discussed in Chapter 4, Combinatorial Shift Bribery, is also about manipulating an election. Here, however, the external agent can change the way some voters vote. Specifically, a combinatorial structure over the voters is assumed, such that the external agent can change the position of its preferred candidate in sets of voters, following some predefined patterns. The problem discussed in Chapter 5, Election Anonymization, is also about elections. The main concern here, however, is preserving the privacy of the voters, when the votes are published, along with some additional (private) information. The task is to transform a given election such that each vote would appear at least k times. By doing so, even an adversary which knows how some voters vote, cannot identify individual voters. The problems discussed in Chapter 6 and in Chapter 7 are also about privacy. Specifically, a social network (modeled as a graph) is to become publicly available. The task is to anonymize the graph; that is, to transform the graph such that, for every vertex, there will be at least $k - 1$ other vertices with the same degree. By doing so, even an adversary which knows the degrees of some vertices cannot identify individual vertices. In the problem discussed in Chapter 6, Degree Anonymization by Vertex Addition, the way to achieve anonymity is by introducing new vertices. In the problem discussed in Chapter 7, Degree Anonymization By Graph Contractions, the way to achieve anonymity is by contracting as few edges as possible. The main aim of this thesis, considering the problems mentioned above, is to explore some boundaries between tractability and intractability. Specifically, as most of these problems are computationally intractable (that is, NP-hard or even hard to approximate), some restricted cases and parameterizations for these problems are considered. The goal is to devise efficient algorithms for them, running in polynomial-time when some parameters are assumed to be constant, or, even better, to show that the problems are fixed-parameter tractable for the parameters considered. If such algorithms cannot be devised, then the goal is to prove that these problems are indeed not fixed-parameter tractable with respect to some parameters, or, even better, to show that the problems are NP-hard even when some parameters are assumed to be constant. Diese Dissertation stellt eine Untersuchung von verschiedenen kombinatorischen Problemen im Umfeld von Wahlen und sozialen Netzwerken dar. Das Hauptziel ist die Analyse der Berechnungskomplexität mit dem Schwerpunkt auf der parametrisierten Komplexität. Dabei werden für jedes der untersuchten Probleme effiziente Algorithmen entworfen oder aber gezeigt, dass unter weit akzeptierten Annahmen solche Algorithmen nicht existieren können. Die Probleme, welche im Kapitel 3 und im Kapitel 4 diskutiert werden, modellieren das Manipulieren einer gegebenen Wahl, bei welcher gewisse Beziehungen zwischen den Beteiligten angenommen werden. Dies kann so interpretiert werden, dass die Wahl innerhalb eines Sozialen Netzwerks stattfindet, in dem die Wähler oder die Kandidaten miteinander in Verbindung stehen. Das Problem Combinatorial Candidate Control ONTROL, welches in Kapitel 3 untersucht wird, handelt von der Manipulation einer Wahl durch die änderung der Kandidatenmenge über welche die Wähler abstimmen. Genauer gesagt, gibt es einen externen Agenten, welcher neue Kandidaten hinzufügen oder existierende Kandidaten entfernen kann. Es wird eine kombinatorische Struktur über der Kandidatenmenge angenommen, so dass immer wenn der externe Agent einen Kandidaten hinzufügt oder entfernt, eine vordefinierte Kandidatenmenge (welche mit den ausgewählten Kandidaten in Beziehung steht) ebenfalls hinzugefügt bzw. entfernt wird. Das Problem Combinatorial Shift Bribery, welches in Kapitel 4 untersucht wird, thematisiert ebenfalls die Manipulation einer Wahl. Hier allerdings kann der externe Agent Änderungen des Abstimmungsverhaltens einiger Wähler herbeiführen. Dabei wird eine kombinatorische Struktur über den Wählern angenommen, so dass der externe Agent die Position des von ihm präferierten Kandidaten bei mehreren Wählern entsprechend vordefinierter Muster gleichzeitig ändern kann. Das Problem Election Anonymization, welches in Kapitel 5 untersucht wird, befasst sich ebenso mit Wahlen. Das Hauptanliegen hier ist es jedoch, die Privatsphäre der Wähler bei der Veröffentlichung der Stimmenabgaben zusammen mit einigen zusätzlichen (privaten) Informationen aufrecht zu erhalten. Die Aufgabe ist es eine gegebene Wahl so zu verändern, dass jede Stimmenabgabe mindestens k-fach vorkommt. Dadurch kann noch nicht einmal ein Gegenspieler einzelne Wähler identifizieren, wenn er die Stimmenabgaben einiger Wähler bereits kennt. Die in Kapitel 6 und 7 untersuchten Probleme behandeln gleichermaßen Privatsphärenaspekte. Präziser gesagt, geht es darum, dass ein soziales Netzwerk (modelliert als Graph) veröffentlicht werden soll. Die Aufgabe ist es den Graphen zu anonymisieren; dies bedeutet man verändert den Graphen, so dass es für jeden Knoten mindestens k − 1 weitere Knoten mit dem selben Grad gibt. Dadurch wird erreicht, dass selbst ein Gegenspieler, welcher die Knotengrade einiger Knoten kennt, nicht in der Lage ist einzelne Knoten zu identifizieren. Bei dem Problem Degree Anonymization by Vertex Addition, welches in Kapitel 6 untersucht wird, wird Anonymität durch Einführung neuer Knoten erreicht. Bei dem Problem Degree Anonymization by Graph Contractions, welches in Kapitel 7 untersucht wird, wird Anonymität durch die Kontraktion von möglichst wenigen Kanten erreicht. Das Hauptanliegen dieser Dissertation in Bezug auf die obig genannten Probleme ist es die Grenzen der effizienten Lösbarkeit auszuloten. Insbesondere da die meisten dieser Probleme berechnungsschwer (genauer NP-schwer bzw. sogar schwer zu approximieren) sind, werden einige eingeschränkte Fälle und Parametrisierungen der Probleme betrachtet. Das Ziel ist es effiziente Algorithmen für sie zu entwickeln, welche in Polynomzeit laufen, wenn einige Parameter konstante Werte aufweisen, oder besser noch zu zeigen, dass die Probleme “fixed-parameter tractable” für die betrachteten Parameter sind. Wenn solche Algorithmen nicht gefunden werden können, dann ist es das Ziel zu beweisen, dass diese Probleme tatsächlich nicht “fixed-parameter tractable” bezüglich der entsprechenden Parameter sind, oder noch besser zu zeigen, dass die Probleme NP-schwer sind, sogar wenn die entsprechenden Parameter konstante Werte aufweisen.




Approximation Algorithms for NP-hard Problems


Book Description

This is the first book to fully address the study of approximation algorithms as a tool for coping with intractable problems. With chapters contributed by leading researchers in the field, this book introduces unifying techniques in the analysis of approximation algorithms. APPROXIMATION ALGORITHMS FOR NP-HARD PROBLEMS is intended for computer scientists and operations researchers interested in specific algorithm implementations, as well as design tools for algorithms. Among the techniques discussed: the use of linear programming, primal-dual techniques in worst-case analysis, semidefinite programming, computational geometry techniques, randomized algorithms, average-case analysis, probabilistically checkable proofs and inapproximability, and the Markov Chain Monte Carlo method. The text includes a variety of pedagogical features: definitions, exercises, open problems, glossary of problems, index, and notes on how best to use the book.