Forschungprojekte von Klaus Mainzer

Im 21. Jahrhundert ist die Digitalisierung eine globale Herausforderung der Menschheit. Spätestens seit Data Mining und Big Data ist der Öffentlichkeit klar, wie sehr unsere Welt von Daten und Algorithmen beherrscht wird. Wie berechenbar ist aber die Welt? Manche glauben, dass es nur noch auf schnelle Algorithmen und große Datenmassen ankommt, um Lösungen von Problemen in Technik und Wirtschaft zu finden. Auch die Wissenschaft steht vor einem dramatischen Umbruch, da die Massen von Forschungsdaten ohne intelligente Algorithmen nicht mehr beherrschbar sind? Welche Rolle spielt in Zukunft die Theorie? Chancen und Risiken werden in der Öffentlichkeit häufig deshalb falsch eingeschätzt, weil die Grundlagen und Theorien der Algorithmen nicht berücksichtigt werden. Sie sind in der modernen Logik, Mathematik, Informatik und Philosophie tief verwurzelt. Klaus Mainzer beschäftigt sich daher in mehreren Teilprojekten mit den Grundlagen und Folgen der Digitalisierung.

Can Software be responsible?

Im Rahmen des Förderungsprogramms „Artificial intelligence and the Future of Society“ der Volkswagen-Stiftung hat Klaus Mainzer mit den Tübinger Kollegen Reinhard Kahle (Carl Friedrich von Weizsäcker-Stiftungslehrstuhl für Theorie und Geschichte der Wissenschaften) und Wolfgang Küchlin (Wilhelm-Schickard-Institut für Informatik) einen Planning Grant von 150 000 Euro für das Projekt „Can Software be responsible?“ erhalten.

Foundations of Proofs and Computation

Das Forschungsprojekt „Foundations of Proofs and Computation“ von Klaus Mainzer mit Helmut Schwichtenberg (Institut für Mathematik/LMU) und Peter Schuster (Institute of Mathematics/University of Leeds/Verona) wird von der Udo Keller Stiftung (Hamburg) gefördert und ist mit einer jährlichen internationalen Herbstschule mit Logikern, Mathematikern, Informatikern und Philosophen (z.B. aus Deutschland, Großbritannien, Italien, Japan, Österreich) verbunden. Im Forschungsprojekt geht es um die Grundlagen der mathematischen Beweistheorie, Algorithmen, Computerpogramme und ihre philosophischen Wurzeln: Wie lassen sich aus Beweisen Computerprogramme gewinnen („proof mining“), die automatisch die Korrektheit und Zuverlässigkeit von Beweisen bzw. Computerprogrammen garantieren (program extraction)? Neben praktischen Konsequenzen zur Sicherung komplexer Digitalisierung werden auch grundlegende erkenntnistheoretische Fragen berücksichtigt: Computerprogramme sind Beispiele von konstruktiven Verfahren. Seit Anfang des letzten Jahrhunderts wird in Philosophie und mathematischer Grundlagenforschung darüber nachgedacht, ob oder bis zu welchem Grad Mathematik durch konstruktive Verfahren und Algorithmen begründet werden kann.

Datenanalyse versus Theorie

Das Forschungsprojekt „Datenanalyse versus Theorie“ beschäftigt sich mit der neuen Dimension der Ansammlung und Analyse von Daten im Zuge der Digitalisierung und der Bedeutung von Theoriebildung in Wissenschaft und Technik. Das Projekt (u.a. mit Wolfgang Pietsch/Lehrstuhl für Philosophie und Wissenschaftstheorie) geht auf mehrere Buchpublikationen am Lehrstuhl zu diesem Thema zurück (z.B. Klaus Mainzer, „Die Berechnung der Welt. Von der Weltformel zu Big Data“, München 2014). Es steht in Kooperation mit dem „Münchner Kreis e.V.“ (Plattform für Gestalter und Entscheider der digitalen Welt), der wissenschaftlichen Kommission „Digitalisierte Gesellschaft“ der Nationalen Akademie der Wissenschaften (Leopoldina) und dem Themennetzwerk der Akademie für Technikwissenschaften (acatech).

Sensor Technology and the Human Experience

Das Forschungsprojekt „Sensor Technology and the Human Experience“ u.a. mit Wolfgang Porod (Department of Electrical Engineering/Notre Dame) und Laurel Riek (Computer Science/Reilly Center for Science, Technology, and Values/Notre Dame) wird von der National Science Foundation der Vereinigten Staaten (NSF) gefördert. Es beschäftigt sich mit den humanwissenschaftlichen Grundlagen und Konsequenzen der Sensortechnologie, die sowohl im Internet der Dinge (Internet of Things) als auch der Robotik (Embodied Robotics) Anwendung findet. Das Projekt wird von einem jährlichen internationalen und interdisziplinären Workshop begleitet.

Nachhaltiges Risiko-Management

Im Forschungsprojekt „Nachhaltiges Risiko-Management“ mit Peter Wilderer (IAS/TUM), Ortwin Renn (IASS/Potsdam) und Michael Molls (Medizin/TUM) bearbeitet Klaus Mainzer das Thema „Nachhaltiges Risiko-Management der Robotik“. Das Projekt ist mit einem jährlichen Workshop gefördert durch das TUM-Institute of Advanced Study (IAS) und der International Expert Group of Earth System Preservation (IESP) verbunden. Als Beispiel für die Notwendigkeit, das Thema nachhaltiges Risiko-Management aufzugreifen, sei auf die Konflikte bei der Lösung der Energie- und Wasserversorgung unter dem Einfluss von Erderwärmung und Klimawandel hingewiesen. Der Ablehnung innovativer Methoden in Landwirtschaft, Pharmakologie und Medizin steht blindes Vertrauen gegenüber, mit denen beispielsweise SUVs und energiehungrige Klimaanlagen Eingang in den breiten Markt gefunden haben. Die Robotik wird teilweise als Entmündigung des Menschen kritisiert, die damit erzielten Methoden und Produkte aber unkritisch aufgenommen, etwa bei neuen Tablet-Computern oder Smart-Phones. Das Ergebnis des Projekts zielt auf eine wissensgeleitete Politikgestaltung.