Übersicht bereits stattgefundener HeiCADLectures
2024
Abstract:
"Making life multi-planetary", "building Orbital Reef", "colonizing Mars" – die Missionen der Weltraumkolonisierung von Raumfahrtunternehmen wie SpaceX oder BlueOrigin mögen futuristischen klingen und in der fernen Zukunft liegen. Doch die Pläne, Entwicklungen und Investitionen der mächtigsten Technologiekonzerne unserer digitalkapitalistischen Gegenwart prägen schon heute Imaginationshorizonte, und mit ihren Infra- ganz reale Machtstrukturen. Ziel der HeiCAD-Lecture von Felix Maschewski und Anna-Verena Nosthoff ist es, einerseits die historischen Hintergründe der „imaginierten Zukünfte", ihre gegenwärtigen Inszenierungen und Ideologien sowie die politischen Potenziale der Projekte im technologischen "race to space" aufzuzeigen. Andererseits wird diskutiert, inwiefern sich nicht nur machtpolitisch markante Verschiebungen ergeben, sondern auch ein postsolutionistischer Perspektivwechsel: Denn nach Jahren der „smartification of everything" geht es den Technologen um Musk und Co. weniger darum, innerweltliche Probleme mit digitaler Technik, allerlei Apps und Plattformen zu ‚lösen'. Angesichts einer katastrophischen Gegenwart hält man die Erde nicht mehr für die „beste aller möglichen Welten", richtet den Blick vielmehr auf spekulative Zukünfte und extraterrestrische Räume; auf eskapistische ‚Lösungen', die sich von den Schwerkräften der Erde, von den Problemen selbst lösen – um neue, bessere Welten zu erschaffen.
Zu den Vortragenden:
Dr. Anna-Verena Nosthoff ist Sozialtheoretikerin, Philosophin und Ko-Direktorin des Critical Data Lab an der Humboldt-Universität zu Berlin. Forschungsaufenthalte als Gastwissenschaftlerin und Fellow u.a. an der London School of Economics and Political Science in London, an der Princeton University in New Jersey und am Weizenbaum-Institut, Promotion zur Genealogie digitaler Regierungskunst. Zu ihren Forschungsschwerpunkten gehören politische Implikationen der Digitalisierung, die Logik plattformökonomischer Machtstrukturen sowie die Kybernetisierung des Politischen.
Felix Maschewski ist Medien-, Kultur- und Wirtschaftswissenschaftler, Ko-Direktor des Critical Data Lab (HU Berlin) und assoziierter Forscher am Institute of Network Cultures (Amsterdam). Forschungs- und Lehrtätigkeiten u.A. an den Universitäten Princeton, an der FU Berlin sowie an der Universität Basel. Als Publizist schreibt Maschewski regelmäßig Essays für unterschiedliche Medien (u.A. FAZ, Zeit Online, Republik, Wirtschaftswoche, Dissent, Deutschlandfunk Kultur). Seine Forschungsinteressen fokussieren die (politischen) Effekte der Plattformökonomie, Medien und Praxen der Metrisierung und den digitalen Strukturwandel der Öffentlichkeit; 2019 erschien das zusammen mit Anna-Verena Nosthoff verfasste Buch »Die Gesellschaft der Wearables. Digitale Verführung und soziale Kontrolle«. Zu seinen jüngsten Veröffentlichungen zählt zudem der Aufsatz “Plattformökonomische Öffentlichkeiten und ihr Umwelt-Werden. Zur kybernetischen Bedingung sozialer Metamedien” (erschienen im Reader Theorien des digitalen Kapitalismus (Suhrkamp)).
Die Veranstaltung ist eine Kooperation mit dem Institut für Anglistik- und Amerikanistik und UNIVERSEH und wird von der Jürgen Manchot Stiftung unterstützt.
Abstract:
Prädiktives Modellieren mittels KI wird zur automatisierten Entscheidungsfindung in Situationen unvollständiger oder unsicherer Informationen verwendet. Ich werde prädiktive Wissensbildung mit klassisch(er)en statistischen Verfahren vergleichen und nach den
qualitativen Neuerungen fragen. Darauf aufbauend werde ich unter dem Stichwort "prädiktive Privatheit" eine Erweiterung des ethischen Werts der Privatheit diskutieren, um Menschen vor potenziellen negativen Folgen prädiktiver Entscheidungsverfahren zu schützen. In einem Schwenk von Ethik zu Regulierung von KI werde ich abschließend die Herausforderung für den Datenschutz in Bezug auf die Normierung des Einsatzes prädiktiver Analytik skizzieren.
Person:
Rainer Mühlhoff, Philosoph und Mathematiker, ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück. Er forscht zu Ethik, Datenschutz und kritischer Sozialtheorie in der digitalen Gesellschaft. In seiner interdisziplinären Arbeit bringt er
Philosophie, Medienwissenschaft und Informatik zusammen und untersucht das Wechselspiel von Technologie, Macht und gesellschaftlicher Veränderung. Kontakt und weitere Informationen: https://RainerMuehlhoff.de
Abstract:
Das BMBF-geförderte Projekt RAPP wurde als interdisziplinäres Projekt zwischen Informatik und Sozialwissenschaften konzipiert und beschäftigte sich mit drei inhaltlichen Schwerpunkten: (i) der diskriminierungsfreien Vorhersage von studentischen Leistungen mittels Methoden des maschinellen Lernens zur Verbesserung der Beratung im Studium, (ii) der Analyse diskriminierungsbehafteter Daten als Variablen zur Bestimmung des Studienerfolgs und (iii) der Untersuchung der individuellen Wahrnehmung der Studierenden hinsichtlich des Einsatzes von KI-Methoden. Insgesamt wurde die Möglichkeit der Einführung eines RAPP-Systems in einer Hochschule untersucht.
Für die automatisierte Vorhersage von Studienleistungen und Studienerfolg wurden Methoden des maschinellen Lernens entwickelt, die Leistungsdaten der ersten Semester sowie weitere Merkmale der Studierende (die durch Befragungen ermittelt wurden) verwenden. Damit kann z.B. die Gefahr eines Studienabbruchs oft nach einem oder zwei Semestern vorhergesagt werden um gefährdeten Studierenden eine passende Beratung anzubieten. Dazu wurden auch Erklärungsmodelle untersucht, die die Ergebnisse der maschinellen Vorhersage so erläutern, dass dies in der Beratung direkt genutzt werden kann.
Ferner wurde untersucht inwieweit diskriminierungsbehaftete Variablen zur Bestimmung des Studienerfolgs genutzt werden können. Die Erklärungskraft soziodemographischer Variablen, die soziale Integration an der Universität sowie schulischer Leistungen für den Studienerfolg wurden untersucht. Vor allem die Abbruchsintention, der Besuch eines Gymnasiums sowie die Note der Hochschulzugangsberechtigung dienen als Prädiktor für den Erfolg der Studierenden.
Auch die individuellen Wahrnehmungen der Studierenden gegenüber der KI-basierten Leistungsprognose war Gegenstand der Untersuchungen. Neben den Fairness- und Schadenswahrnehmungen wurden ebenso Anforderungen der Studierenden an das KI-System untersucht. Dabei zeigte sich unter anderem, dass Studierende dem Einsatz KI-basierter Leistungsprognose tendenziell skeptisch gegenüberstehen und hohen Wert auf ihre persönliche Autonomie legen.
Die Vortragenden:
Prof. Dr. Stefan Conrad (Informatik; HHU) hat seit 2002 den Lehrstuhl für Datenbanken und Informationssysteme in der Informatik inne. In der Forschung beschäftigt sich seine Arbeitsgruppe mit verschiedenen Anwendungen des maschinellen Lernens, z.B. in der Objekterkennung in Bildern und im Natural Language Processing. Darüber hinaus untersucht er Fairness im maschinellen Lernen und KI-Methoden für Zeitreihen.
Dr. Johannes Krause (Soziologie; HHU) ist akademischer Rat am Institut für Sozialwissenschaften (Soziologie II). Seine Forschungsgebiete umfassen Schönheitshandeln, Fair AI, Live Music Ecologies und Methoden der empirischen Sozialforschung.
Dr. Marco Lünich (Vertretungsprofessor Kommunikations- und Medienwissenschaften III) forscht schwerpunktmäßig zum Zusammenhang von Digital- und Technikkommunikation und den gesellschaftlichen Folgen des digitalen Wandels. In seiner Dissertation untersuchte er gesellschaftliche Überzeugungen von Erkenntnis- und Nutzengewinnen aus digitalen Daten.
Abstract:
Im Kontext von künstlicher Intelligenz ist oft von "Algorithmen, die Entscheidungen treffen" die Rede. Damit wird ein Ausdruck, der normalerweise in Kontexten menschlichen Handelns verwendet wird, auf einen anderen Bereich, nämlich Algorithmen oder Maschinen, übertragen. Diese Übertragung wirft Fragen auf: Welche Voraussetzungen, Konnotationen und Bedeutungsnetze werden mittransportiert, wenn ein in menschlichen Handlungskontexten verwendeter Ausdruck in den Bereich der künstlichen Intelligenz übertragen wird? Welche irreführenden Implikationen könnten sich daraus ergeben? Lässt sich daraus etwas für den passenden Einsatz von Algorithmen lernen?
Zur Person:
Prof. Dr. Susanne Hahn studierte Philosophie, Neuere Geschichte und Germanistik und wurde mit einer Arbeit zu einer Methode zur Rechtfertigung von Regeln promoviert. Ihre Habilitationsschrift trägt den Titel „Rationalität. Eine Kartierung" und wurde 2017 mit dem Deutschen Preis für Philosophie und Sozialethik ausgezeichnet. Neben ihren Arbeitsgebieten Normativität, Rationalität und Wirtschaftsethik forscht sie seit einigen Jahren zu philosophischen Fragen der Digitalisierung. Nach einigen Jahren am CAIS Bochum ist sie mit dem Beginn des Sommersemesters 2024 wieder hauptamtlich als apl. Professorin an der HHU tätig. – Eine öffentliche Diskussion über Chancen und Herausforderungen durch Digitalisierung ist ihr ein Anliegen – sie hat dazu bereits zwei öffentliche Vortragsreihen im Haus der Universität organisiert.
Abstract:
Algorithmische Entscheidungssysteme werden immer häufiger eingesetzt, um eine Reihe von sehr unterschiedlichen Arten von Entscheidungen zu treffen - jedoch sind sie nicht für alle Arten von Entscheidungen gleichermaßen geeignet. In ihrem Vortrag weist Prof. Zweig eine Reihe von Beispielen auf, die zeigen, warum wir KI-Systeme nicht immer gleich gut einsetzen können. Sie stellt am Ende eine einfache Kategorisierung von Entscheidungsproblemen vor, die eine erste Entscheidungshilfe bietet, wann KI-Systeme vertrauenswürdig eingesetzt werden können.
Person:
Prof. Dr. Katharina Zweig studierte Biochemie und Bioinformatik. Seit 2012 ist sie Informatikprofessorin an der RPTU, wo sie den deutschlandweiten einmaligen Studiengang "Sozioinformatik" ins Leben gerufen hat. Sie wurde unter anderem mit dem DFG-Communicatorpreis ausgezeichnet, ist KI-Botschafterin für Rheinland-Pfalz und Mitbegründerin des KI-Beratungs-Startups "Trusted AI GmbH". Sie ist als Expertin für verschiedene Bundesministerien tätig, war Mitglied der Enquete-Kommission des Bundestages zum Thema "Künstliche Intelligenz" (2018-2020) und ist gefragte öffentliche Rednerin mit großer Medienpräsenz.
Abstract
Sowohl die Nutzung großer Datenbestände zu Trainingszwecken Künstlicher Intelligenz als auch die Auswertung großer Datenbestände mittels Künstlicher Intelligenz kann in Konflikt mit datenschutzrechtlichen Vorgaben treten. Der Vortrag erörtert Wege hin zu datenschutzrechtskonformer Nutzbarkeit von Daten für und durch Anwendungen Künstlicher Intelligenz"
(Der Vortrag findet in deutscher Sprache statt.)
About
Prof. Dr. Louisa Specht-Riemenschneider wurde 1985 in Oldenburg geboren. Nach einem Studium der Rechtswissenschaft an der Universität Bremen promovierte sie 2011 mit der Schrift "Konsequenzen der Ökonomisierung informationeller Selbstbestimmung - Die zivilrechtliche Erfassung des Datenhandels" an der Albert-Ludwigs-Universität Freiburg. Für diese Arbeit erhielt sie den Wissenschaftspreis der Deutschen Stiftung für Recht und Informatik. Nach ihrem Referendariat in Landau, Stuttgart und London wurde sie 2015 zur Juniorprofessorin für Bürgerliches Recht, Gewerblichen Rechtsschutz und Urheberrecht an der Universität zu Köln berufen, zum 1.1.2017 folgte sie einem Ruf an die Universität Passau auf den Lehrstuhl für Europäisches und Internationales Daten- und Informationsrecht.
Nach Abschluss ihrer Habilitation zum Thema "Diktat der Technik - Regulierungskonzepte technischer Vertragsinhaltsgestaltung am Beispiel von Bürgerlichem Recht und Urheberrecht", für die sie mit dem Dieter-Meurer Preis des Deutschen EDV-Gerichtstages sowie mit dem Friedwart Bruckhaus Förderpreis der Hanns Martin Schleyer-Stiftung ausgezeichnet wurde, erhielt sie zum April 2018 einen Ruf an die Rheinische Friedrich-Wilhelms-Universität Bonn auf den Lehrstuhl für Bürgerliches Recht, Informations- und Datenrecht und leitet die Forschungsstelle für Rechtsfragen neuer Technologien sowie Datenrecht (ForTech) e.V.
2023
Abstract
In today's insurance landscape, harnessing advanced analytics and deep learning in input management offers a strategic edge. Our focus is document classification and data extraction, which in the end enables process automation along the entire insurance value chain. We reveal our transition from rule-based engines to deep learning in our custom modeling and operationalization environment - the AI factory. Discover how these innovations empower competitive advantages, not only in the input management directly, but also in all subsequent processes.
About
Raphael Kronberg studied applied mathematics, computer science and Ai & Data Science at Heinrich Heine University Düsseldorf. Since 2022 he has been working as a Machine Learning Engineer at ERGO Group AG Düsseldorf.
Abstract:
Autoregressive language models, which use deep learning to produce human-like texts, have become increasingly widespread. Such models are powering popular virtual assistants in areas like smart health, finance, and autonomous driving, and facilitating the production of creative writing in domains from the entertainment industry to science communities. Despite growing discussions of AI fairness across disciplines, there lacks systemic metrics to assess what equity means in dialogue systems and how to engage different populations in the assessment loop. In this talk, Dr. Kaiping Chen will draw from theories of deliberative democracy and science and technology studies to propose an analytical framework for evaluating equity in human-AI dialogues. Using this framework, Dr. Chen will introduce a recent algorithm auditing study her team has conducted to examine how GPT-3 responded to different subpopulations on crucial science and social issues: climate change and the Black Lives Matter (BLM) movement. In the study, Dr. Chen and her collaborators built a user interface to let diverse participants have conversations with GPT-3. The study found a substantively worse user experience with GPT-3 among the opinion and the education minority subpopulations; however, these two groups achieved the largest knowledge gain, changing attitudes toward supporting BLM and climate change efforts after the chat. In this study, Chen’s team also traced these user experience divides to conversational differences and found that GPT-3 used more negative expressions when it responded to the education and opinion minority groups, compared to its responses to the majority groups. To what extent GPT-3 uses justification when responding to the minority groups is contingent on the issue. Dr. Chen will discuss the implications of the findings for a deliberative conversational AI system that centralizes diversity, equity, and inclusion.
About:
Dr. Kaiping Chen (PhD, Stanford University) is currently an Assistant Professor in Computational Communication from the Department of Life Sciences Communication at the University of Wisconsin-Madison. Dr. Chen is also faculty affiliate at Department of Political Science, the Nelson Institute for Environmental Studies, and the Robert F. and Jean E. Holtz Center for Science and Technology Studies. Dr. Chen’s research use data science and machine learning methods as well as interviews to study to what extent digital media and technologies hold politicians accountable for public well-being and how deliberative designs can improve the quality of public discourse and mitigate misinformation. Dr. Chen’s work is interdisciplinary and draw from theories in communication, political science, and computer sciences. Chen’s works in utilizing big data tools and community engagement methods have been supported by the US National Science Foundation, Chan Zuckerberg Initiative, and American Family Insurance. Her works were published in flagship journals across disciplines, including the American Political Science Review, Journal of Communication, Journal of Computer-Mediated Communication, New Media & Society, Public Opinion Quarterly, Public Understanding of Science, Harvard Kennedy School Misinformation Review, International Public Management Journal, Proceedings of the National Academy of Sciences (PNAS), among other peer-review journals. Dr. Chen is also a civic engagement practitioner, with her continued passion to help local governments and communities in US and China implement and analyze innovative practices of engaging citizens throughout policymaking. For information about her work, you can visit: https://www.kaipingchen.com.
2022
Abstract:
While making some journalists redundant, OpenAI’s GPT-2 and GPT-3 have also fired the journalistic imagination: In September 2020, The Guardian attempted to scare its readers with a paper purportedly written by the Generative Pre-Trained Transformer (GPT-3 2020) and in April 2022, an elaborate New York Timesarticle declared that “machines have acquired language” (Johnson 2020).
In view of Voigts earlier attempt to cast GPT-2 as an adaptation machine (2020) and noting that other commentators have also resorted to concepts of imitation, emulation, remix and pastiche (Gary Marcus), we can describe the machine intertextuality of these “stochastic parrots” (Bender et al. 2021) as derivative; their output is a mere semblance of consciousness.
In this talk, he would like to reconsider the aesthetic potential of Large Language Models in NLP and confront it with (a) concepts of “AI-powered creativity” (Miller 2019), (b) previous aesthetic practices of generative writing involving language – in principle largely unchanged since Strachey’s “Love Letters” (1952) and involving literary coders such as (but not limited to) Montfort 2014, Bajohr 2018, Navarro 2020), and (c) the recent cultural imaginary of robots in literature (Winterson 2019, McEwan 2019, Ishiguro 2021, Kehlmann 2021).
Zur Person:
Eckart Voigts is Professor of English Literature at TU Braunschweig, Germany. He has written, edited and coedited numerous books and articles, such as Introduction to Media Studies (Klett 2004), Janespotting and Beyond: British Heritage Retrovisions since the Mid-1990s (Narr 2005), the special issue of Adaptation (vol. 6.2, 2013) on transmedia storytelling, Reflecting on Darwin (Ashgate 2014), Dystopia, Science Fiction, Post-Apocalypse (WVT 2015), Companion to Adaptation Studies (Routledge 2018, with Dennis Cutchins and Katja Krebs). His paper "Algorithms, Artificial Intelligence, and Posthuman Adaptation: Adapting as Cultural Technique" was published in Adaptation (2021) DOI: https://doi.org/10.1093/adaptation/apaa013. Since 2020, he has been co-heading the interdisciplinary research group “Automated Creativity” (funded by NMWK) https://www.tu-braunschweig.de/en/anglistik/seminar/liku/research/automated-creativity
Abstract:
AI-based decision-making has already penetrated into almost all spheres of human life, from content recommendation and healthcare to predictive policing and autonomous driving, deeply affecting everyone, anywhere, anytime. Such decision models result from complex, multi-step, and interconnected pipelines that orchestrate steps like raw data selection and integration, data preprocessing, model selection, model evaluation, etc. Each step requires decisions, for example, which data to choose, what preprocessing to apply and how to evaluate. These decisions typically made by data scientists may introduce biases and errors in the process resulting in underperforming models and/or models that discriminate against individuals or groups of people based on protected attributes like gender or race. The area of responsible AI has recently emerged in an attempt to put humans at the center of AI-based systems by considering aspects, such as fairness, reliability, and privacy of AI systems. Still, most of these works focus on model creation and, typically, ignore the performance of these models in the long run, i.e., after deployment in real life.
In the first part of the talk, we will discuss responsibility aspects, namely fairness and explainability, during model creation. In the second part, we will cover responsibility aspects after model deployment, focusing on the effect of distribution shifts.
Zur Person:
Eirini Ntoutsi is a professor for Artificial Intelligence at the Free University (FU) Berlin, since March 2021. Prior to that she was an associate professor of Intelligent Systems at the Leibniz University of Hanover (LUH), Germany. She is a member of the L3S Research Center. Prior to joining LUH, she was a post-doctoral researcher at the Ludwig-Maximilians-University (LMU) in Munich, Germany in the group of Prof. H.-P. Kriegel. She joined the group as a post-doctoral fellow of the Alexander von Humboldt Foundation. She holds a PhD in Data Mining from the University of Piraeus, Greece under the supervision of Prof. Y. Theodorodis and a master and diploma in Computer Engineering and Informatics from the University of Patras, Greece.
Her research interests lie in the fields of Artificial Intelligence (AI) and Machine Learning (ML) and can be described as designing intelligent algorithms that learn from data continuously following the cumulative nature of human learning, while ensuring that what has been learned helps driving positive societal impact.
New opportunities for monitoring viruses and bacteria in human populations by combining wastewater-based ecology, genomics and computational approaches
Abstract:
Genomics tools are being used to assist with the current pandemic (i.e., wastewater-based covid surveillance) by determining viral loads in wastewater, which allows effectively sampling thousands of individuals. Here, I present a vision for extending such surveillance to various dimensions, by proposing an approach that combines genomics and computational approaches to include multiple viral and bacterial lineages as well as antibiotic resistance clusters. Specifically, I discuss the current challenges and opportunities of applying high-resolution, high-fidelity genomic surveillance of Viruses and Bacteria.
Zur Person:
Folker Meyer is Professor of Data Science at the University of Duisburg-Essen. His research interest include data science, microbiome science, microbial genomics, microbial ecology as well as distributed and cloud computing.
Meyer was a computational biologist at Argonne National Laboratory, a Professor of Bioinformatics at the Department of Medicine, University of Chicago and a senior fellow at the Computation Institute at the University of Chicago.
He trained as a computer scientists and started to work with biologists early on in his career. It was that exposure to interesting biological problems that sparked his interest in building software systems to tackle biological problems, mostly in the field of genomics or post-genomics. In the past he has been best known for his leadership role in the development of the GenDB genome annotation system, he has also played an active role in the design and implementation of several high-performance computing platforms.
Abstract:
Als spezifische Form des Verfügens über die Ordnungen und Register des Bewertens, so lautet eine These des Vortrags, ist kritische Bewertungskompetenz konstitutiv für Selbstbestimmung in der digitalen Welt. In digitalen Entscheidungsarchitekturen, zumal bei Einsatz von KI und adaptiven Empfehlungsalgorithmen, werden Bewertungsgesichtspunkte Teil gestalteter Situationsrahmungen und Trainingskonstellationen, die Verhalten stabilisieren, Entscheidungen erleichtern und Mensch und Maschine einander annähern. Kritische Kompetenz jedoch wird erodieren, wenn Bewertungen und zugrundeliegende Praktiken des Bewertens hierbei von einer Logik der Rechtfertigung auf eine Logik der Erfolgskontrolle umgestellt werden.
Zur Person:
Prof. Dr. Jörn Lamla, geb. 1969, leitet seit 2013 das Fachgebiet Soziologische Theorie und ist seit 2015 Direktor am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel. Er hat im Jahr 2000 an der Friedrich-Schiller-Universität Jena promoviert und wurde dort 2012 mit einer Arbeit über die „Verbraucherdemokratie“ (Suhrkamp 2013) auch habilitiert. Im Sommer 2015 hatte er eine Gastprofessur am Centre for Ethics der University of Toronto inne. Er war 2019 bis 2021 Mitglied im Gründungsdirektorium des hessischen Zentrums verantwortungsbewusste Digitalisierung (ZEVEDI) und ist seit 2015 Mitglied, seit 2019 Sprecher im Koordinierungsgremium des Bundesnetzwerks Verbraucherforschung. Seine Arbeitsschwerpunkte liegen in der Sozial- und Gesellschaftstheorie, in der Politischen Soziologie und in zeitdiagnostischen Analysen zu Digitalität und Konsum. Aktuell forscht er z.B. in interdisziplinären Projektverbünden zum Wandel von Privatheit, Demokratie und Selbstbestimmung angesichts des zunehmenden Einflusses von KI und algorithmischen Bewertungen.
Prof. Dr. Thomas Wischmeyer wurde im August 2020 zum Universitätsprofessor an der Universität Bielefeld ernannt. Er ist unter anderem Mitglied im Vorstand des Instituts des Rechts intelligenter Techniksysteme (RiT), in der Research Group zu „Algorithmic State, Society and Market – Constitutional Dimensions“ der International Association of Constitutional Law (IACL) und im Advisory Board des deutschen Chapters der International Society of Public Law.
Nach seinen juristischen Staatsexamina war Thomas Wischmeyer zunächst Wissenschaftlicher Mitarbeiter am Bundesverfassungsgericht. 2014 erfolgte die Promotion an der Rechtswissenschaftlichen Fakultät der Albert-Ludwigs-Universität Freiburg, wo er anschließend am dortigen Institut für Staatswissenschaft und Rechtsphilosophie als Akademischer Rat a. Z. tätig war. Von 2017 bis 2020 war Thomas Wischmeyer Juniorprofessor (Tenure Track) an der Universität Bielefeld. Auslandsaufenthalte führten ihn an die Yale Law School (2012), als Emile Noël und DAAD Visiting Fellow an die New York University (2016-2017) und an die Beihang-Universität in Peking (2018). Im Jahr 2018 wurde Thomas Wischmeyer in die Datenethikkomission der Bundesregierung berufen. Sein wissenschaftliches Werk wurde vielfach mit Preisen ausgezeichnet, darunter das „Juristische Buch des Jahres“ (2016).
Thomas Wischmeyer forscht auf dem Gebiet des deutschen und europäischen Verfassungs- und Verwaltungsrechts. Sein besonderes Interesse gilt dem Recht der Informationsgesellschaft und der Rechts- und Verfassungstheorie.
2021
Frederic R. Hoop is an Assistant Professor for Political Communication at the Amsterdam School of Communication Research at the University of Amsterdam. His research integrates natural language processing and computational modeling with traditional social scientific and neuroscientific methodologies to examine how moral information permeates human narratives and motivates actions. Specifically, he is currently examining how moralized political communication affects polarization processes. This work primarily informs intervention campaigns aimed at depolarizing national and global societies.
In previous research, he examined the role of cognitive and perceptual load on multimedia processing, assessed the impact of entertainment experiences on processing political messages, studied the effects of cyber-ostracism in social media environments, and explored the motivational correlates of permanent online connectedness.
His work has been published in scientific journals including Journal of Communication, Behavior Research Methods, Computers in Human Behavior, Communication Methods and Measures, Computational Communication Research, and Mass Communication and Society. He holds a Bachelor of Arts in Media Psychology with a minor in Political Science from the University of Mannheim and completed his M.A./PH.D. training at the Department of Communication at UCSB, where he worked as a data scientist at UCSB’s Media Neuroscience Lab.
Abstract: Western societies are marked by diverse and extensive biases and inequality that are unavoidably embedded in the data used to train machine learning. Algorithms trained on biased data will, without intervention, produce biased outcomes and increase the inequality experienced by historically disadvantaged groups. Recognising this problem, much work has emerged in recent years to test for bias in machine learning and AI systems using various fairness and bias metrics. Often these metrics address technical bias but ignore the underlying causes of inequality and take for granted the scope, significance, and ethical acceptability of existing inequalities. In this talk I will introduce the concept of “bias preservation” as a means to assess the compatibility of fairness metrics used in machine learning against the notions of formal and substantive equality. The fundamental aim of EU non-discrimination law is not only to prevent ongoing discrimination, but also to change society, policies, and practices to ‘level the playing field’ and achieve substantive rather than merely formal equality. Based on this, I will introduce a novel classification scheme for fairness metrics in machine learning based on how they handle pre-existing bias and thus align with the aims of substantive equality. Specifically, I will distinguish between ‘bias preserving’ and ‘bias transforming’ fairness metrics. This classification system is intended to bridge the gap between notions of equality, non-discrimination law, and decisions around how to measure fairness and bias machine learning. Bias transforming metrics are essential to achieve substantive equality in practice. I will conclude by introducing a bias preserving metric ‘Conditional Demographic Disparity’ which aims to reframe the debate around AI fairness, shifting it away from which is the right fairness metric to choose, and towards identifying ethically, legally, socially, or politically preferable conditioning variables according to the requirements of specific use cases.
CV:
Brent Mittelstadt is a Senior Research Fellow in data ethics at the Oxford Internet Institute, a Turing Fellow at the Alan Turing Institute, and a former member of the UK National Statistician’s Data Ethics Advisory Committee. His research addresses the ethics of algorithms, machine learning, artificial intelligence and data analytics (‘Big Data’). Over the past five years his focus has broadly been on the ethics and governance of emerging information technologies, including a special interest in medical applications.
Dr Mittelstadt's research focuses on ethical auditing of algorithms, including the development of standards and methods to ensure fairness, accountability, transparency, interpretability and group privacy in complex algorithmic systems. His work addresses norms and methods for prevention and systematic identification of discriminatory and ethically problematic outcomes in decisions made by algorithmic and artificially intelligent systems. A recent paper on the legally dubious 'right to explanation' and the lack of meaningful and accountability and transparency mechanisms for automated decision-making in the General Data Protection Regulation, co-authored with Dr Sandra Wachter and Prof. Luciano Floridi, highlights the pressing need for work in these areas.
Prof. Dr. Bernd Bischl, NRDI, „Hyper-Parameter Optimization and Automated Machine Learning“
Bernd Bischl holds the chair of Statistical Learning and Data Science at the Department of Statistics at the Ludwig-Maximilians-University Munich and is a co-director of the Munich Center for Machine Learning (MCML), one of Germany’s national competence centers for ML.
He studied Computer Science, Artificial Intelligence and Data Sciences in Hamburg, Edinburgh and Dortmund and obtained his Ph.D from Dortmund Technical University in 2013 with a thesis on “Model and Algorithm Selection in Statistical Learning and Optimization”.
His research interests include AutoML, model selection, interpretable ML, as well as the development of statistical software.
He is an active developer of several R-packages, leads the mlr (Machine Learning in R) engineering group and is co-founder of the science platform OpenML for open and reproducible ML.
Furthermore, he leads the Munich branch of the ADA Lovelace Center for Analytics, Data & Application, i.e. a new type of research infrastructure to support businesses in Bavaria, especially in the SME sector.
See also the recently published paper on arXiv.
Abstract:
Precision oncology requires molecular and genetic testing of tumor tissue. For many tests, universal implementation in clinical practice is limited because these biomarkers are costly, require significant expertise and are limited by tissue availability. However, virtually every cancer patient gets a biopsy as part of the diagnostic workup and this tissue is routinely stained with hematoxylin and eosin (H&E). Recently, we and others have demonstrated that deep learning can infer tumor genotype, prognosis and treatment response directly from routine H&E histology images. This talk will summarize the state of the art of deep learning in oncology, demonstrate emerging use cases and discuss the clinical implications of these novel biomarkers.
CV:
Jakob Nikolas Kather conducts research in the newly established field of computer-based methods in clinical imaging. The results of his work help further develop the evaluation and interpretation of complex image data, thereby enabling the enhancement diagnosis and treatment in oncology in particular, for example in the prevention of colon cancer. This makes Kather one of the few scientists and physicians able to develop IT solutions that are considered highly recognised contributions in the field of medicine. He acquired the necessary knowledge base for this by taking a master’s degree in medical physics, which he completed alongside his medical studies. The findings of the research group led by Kather at the University Medical Center at RWTH Aachen have been published in high-ranking journals. Since 2019, he has also been a member of the Junges Kolleg (Young Academy) of the North Rhine-Westphalian Academy of Sciences, Humanities and the Arts.
Abstract:
Artificial intelligence (AI) technologies promise a wide range of economic as well as societal benefits. However, AI’s advent also causes certain risks and correlates with a need to secure the protection of public interest as well as personal freedoms. Moreover, a high level of trust in these emerging technologies is quintessential for its acceptance and future thriving. Against this background, the European Union aims at becoming a global leader in well-regulated, so called “Trustworthy AI”. The lecture will trace the regulatory development from its early origins to the most recent proposal by the European Commission. It will shed light on the motifs, achievements, shortcomings, and future challenges in this respect.
CV:
Dr. Johann Justus Vasel, LL.M. (NYU) is junior professor for public law and legal issues related to artificial intelligence at the Heinrich Heine University in Düsseldorf. He studied law and economics at the University of Bayreuth and the Julius Maximilian University of Würzburg with a focus on International and European law. After completing his studies, he worked at the Human Rights Center (Potsdam), held research stays at the European Court of Human Rights in Strasbourg and the Inter-American Court of Human Rights in San José. He received his doctorate from the University of Hamburg and accomplished his legal clerkship at the Berlin Court of Appeal. After completing a master's degree at New York University, Johann Justus Vasel worked and researched at the University of St. Gallen (Switzerland) and Hamburg University. In 2019/2020 he was a Max Weber Fellow at the European University Institute in Florence. Since 2018 Johann Justus Vasel serves as the Associate Editor of the European Journal of International Law.
Abstract:
Vortragender ist Patrick Ratheiser. Er ist CEO des österreichischen Start-Ups Leftshift One aus Graz, welches Europas erstes KI-Betriebssystem entwickelt hat, das Datenschutz und Ethik respektiert. Erst kürzlich kürte das US-Magazin Forbes Leftshift One zu einem der 30 vielversprechendsten Jungunternehmen in der DACH-Region im Bereich KI. Anhand von praktischen Beispielen hat Herr Ratheiser sich vor allem drei spannenden Themen gewidmet: der Erklärbarkeit und Vertrauenswürdigkeit von KI in der Qualitätssicherung im Pharma-Bereich, diskriminierenden Bewerbungsprozessen am Beispiel eines Systemgastronoms und einer smarten digitalen Assistenzsoftware für das Universitäts-Management.
Zur Person:
Zu Patrick Ratheisers Stärken zählt es, Technik und Business zu verbinden: Denn der 1983 geborene Kärntner ist studierter Betriebswirt (Universität Graz) und Informatiker (FH Campus 02). Nach Stationen als Software-Entwickler und Projektmanager in der Erwachsenenbildung war er insgesamt fünfeinhalb Jahre als IT-Projektmanager bzw. Agile Coach für einen international agierenden Software- bzw. Telekommunikationsanbieter insbesondere im Bereich Software Enterprise Solutions tätig. Seit Oktober 2018 ist Ratheiser CEO (und Co-Founder) des Unternehmens Leftshift One und als Keynote Speaker im Bereich Artificial Intelligence tätig.
Zum Unternehmen:
Leftshift One hat Europas erstes Betriebssystem für künstliche Intelligenz entwickelt, das Datenschutz und Ethik respektiert. Das AIOS (steht für Artificial Intelligence Operating System - MLOps) ist eine technische Entwicklungsumgebung, auf der unterschiedliche Applikationen und Anwendungen – sogenannte „Skills“ – laufen. Sie ermöglichen es etwa, automatisiert Texte zu interpretieren, aus Sprache Text zu gestalten, Bilder zu verarbeiten und Daten zielgerichtet auszuwerten. Dieses Betriebssystem verbindet Automatisierung von Businessprozessen mit künstlicher Intelligenz, kurz Hyperautomation.
Gegründet wurde Leftshift One von CEO Patrick Ratheiser und CTO Christian Weber. Aktuell beschäftigt das stark wachsende Unternehmen rund 40 Mitarbeiter an zwei Standorten, im Headquarter in Graz, und in München. Das US-Magazin Forbes kürte Leftshift One kürzlich zu einem der 30 vielversprechendsten Jungunternehmen in der DACH-Region im Bereich künstlicher Intelligenz. Der internationale Investmentclub eQventure sowie ARM-Gründer Hermann Hauser zählen zu den Investoren.
Companies today have access to an ever increasing treasure trove of data promising to ground critical business decisions in data rather than gut feeling.
The telecommunications business provides a wealth of diverse decision-making problems asking for the full toolkit of computer science:
from classical topics like combinatorial optimisation to the modern branches of data science and artificial intelligence.
We showcase tasks, solutions, and open problems around questions like:
* What should an optimal shop footprint look like in a world dominated by online sales?
* What is the best way to extend a fibre network?
* Can a marketing campaign be both parsimonious and wide-reaching?
* How should a chatbot react to Christmas greetings?
Rolf Bardeli is currently the lead data scientist in the consumer business unit at Vodafone Germany. He received his MSc (2003) and PhD (2008) in Computer Science from the University of Bonn, Germany. Between trying to teach the computer to recognize bird species by sound during his PhD and trying to teach the computer to understand telco customers at Vodafone, he was a researcher in multimedia pattern recognition at the Fraunhofer Society. Rolf is a senior member of the IEEE and a low-frequency maths blogger at http://mathcination.wordpress.com.
Prof. Dr. Mario Martini ist Inhaber des Lehrstuhls für Verwaltungswissenschaft, Staatsrecht, Verwaltungsrecht und Europarecht an der Universität Speyer. Seit 2016 ist er Leiter des Programmbereichs „Transformation des Staates in Zeiten der Digitalisierung“ am Deutschen Forschungsinstitut für öffentliche Verwaltung Speyer. Seine Forschungsschwerpunkte liegen in den Bereichen Smart City, Datenbankrecht, Lizenzmodelle, Datenhoheit und Dateneigentum. Zudem ist er seit 2018 Mitglied der Datenethikkommision der Bundesregierung Deutschland.
2020
Abstract:
Research on crime and security issues is experiencing a push towards data science fuelled by new challenges and stakeholder demand. With an increasing interest in understanding problems at scale, automated methods and data-driven approaches are embraced with the promise of solving long-standing and emerging problems. The first part of the talk presents recent research that shows the potential and the pitfalls of the rapid adoption of data science techniques in crime research. Two studies are presented that cover the modelling of the temporal evolution of a white nationalist forum using trajectory analysis, and a large-scale measurement of an online grey-zone forum on the sharing of non-sexually explicit imagery of children. The second part of the talk discusses the future of data science in a broader sense in the tension between applications and academic research. It addresses the question of why we need to embrace data science but also why we should be cautious about doing so. The talk will close with an outlook on the challenges for the merger of the behavioural and social sciences with data science.
CV:
Dr Bennett Kleinberg is an assistant professor in Data Science at University College London. In the Dept. of Security and Crime Science and the Dawes Centre for Future Crime, he is leading a research group on computational crime research that has two aims. (1) Understanding how computational methods can be used to study current and emerging crime problems (esp. through technological advancement); and (2) building a robust methodological framework for behavioural data science to improve how we make inferences about human behaviour from complex data (esp. text and web data). These areas include techniques from natural language processing, machine learning and behavioural science.
Abstract:
Society is in crisis. The gap between the poor and the rich – whether in terms of age, income or skills – keeps widening as inequality grows markedly. Artificial Intelligence (AI) holds great potential for improvement. While AI is often viewed as a threat to social justice, AI technology poses an opportunity to end inequality once and for good. From transportation, healthcare, agriculture to sustainably and governance - the positive applications of AI are unlimited in scope. Drawing on from experience in other legal fields, such as intellectual property (IP) law, privacy, and corporate law, I call for a new incentive-based legal policy to make AI accessible for all. I suggest implanting equality by design, a legal framework that is based upon existing effective mechanisms to incentivize entities to harness AI advantages for the better good. My proposal is threefold: Firstly, creating legal safe harbours for entities that employ just processing systems and subject algorithms, predictions and decision-making processes for ongoing scrutiny. Secondly, creating IP/data protection mechanisms to ensure the interoperability of data and fair licensing; this category utilizes traditional IP ownership incentives while acknowledging key exceptions for access and compatibility. Thirdly, establishing new corporate social responsibility (CSR) business practices that proliferate data sharing of non-identifiable information for social purposes. Under the suggested framework, corporations are not only obligated for fair, non-discriminatory, non-intrusive and transparent processing but are incentivized to spread and distribute AI technologies, to share non-identifiable data for research purposes, and to ensure the interoperability of AI systems.
About:
Dr. Aviv Gaon earned his Ph.D. in Law from Osgoode Hall Law School, Toronto, Canada in 2019. He was awarded the IP Osgoode David Vaver Medal for Excellence in Intellectual Property Law. Dr. Gaon is a member of IP Osgoode Center for Intellectual Property and Technology, and a Research Fellow at Munk School of Global Affairs and Public Policy at the University of Toronto. Dr. Gaon specializes in Intellectual Property, Privacy, Cyberlaw, tech regulation and Competition. In his academic capacities, Dr. Gaon is the Director of Harry Radzyner Law School Experiential Programs, the Director of Lala Tusk-Radzyner Honors Program and an adjunct professor at Simone Veil Research Centre for the Study of European Politics and Society of the Ben-Gurion University of the Negev. Dr. Gaon recent publications focus on legal implications and regulation of emerging technologies and intellectual property.
Abstract:
Diagnosing hematologic malignancies still relies on the subjective visual assessment of images. Every day, cytologists and pathologists are confronted with rare diagnostic cells, huge image data sets, and heterogeneous disease manifestations. Despite the large amount of available patient data, and our profound knowlegede on know the blood system works, there is currently no model to predict disease dynamics from a blood smear or bone marrow puncture.
In his talk, he will discuss the tremendous progress in computer vision and artificial intelligence to address this biomedical challenge at the interface of digital pathology, machine learning, computer vision, and mathematical modelling.
About:
Dr. Carsten Marr is Deputy Head of Institute and Research Group Leader at Helmholtz Zentrum München and received his diploma in general physics from the Technische Universität München in 2002. He wrote his diploma thesis at the Max-Planck-Institute for Quantum Optics (Garching, Germany) and visited the Quantum Information and Quantum Optics Theory Group at Imperial College (London, UK) in 2003. In 2004, he received a PhD fellowship from the Technische Universität Darmstadt and joined the Bioinformatics Group there, working on dynamical processes on graphs and biological networks. He visited the Center for Complex Systems and Brain Sciences (Florida Atlantic University, USA) and Jacobs University Bremen (Germany) during his PhD. He received his PhD from Technische Universität Darmstadt in June 2007 and joined Jacobs University Bremen as a postdoctoral fellow, focusing on gene regulatory networks. In 2008 he joined the Helmholtz Zentrum München as a PostDoc in the Institute for Bioinformatics and Systems Biology working on the quantification, analysis, and modelling of stem cell data. In 2011, he worked on pluripotency and stochastic descriptions of gene expression at the University of Edinburgh with a stipend from the Deutsche Forschungsgemeinschaft DFG. Since 2013, he is deputy director and group leader at the Institute of Computational Biology. In 2017, he received the Erwin-Schrödinger Prize and the CSB2 Prize in Systems Biology for his interdisciplinary contributions to the quantification of single blood stem cells. In 2019, he received an ERC Consolidator Grant for establishing Computational Hematopathology.
- The relevance of Advanced Analytics & Artificial Intelligence for the CFO area
- Areas of application and concrete use cases
- The cultural and organizational dimension
- Live demos - Apps in practical use in the Controlling area
Applications from the area of Advanced Analytics & Artificial Intelligence have the potential to significantly improve the CFO area of companies in terms of their competencies. Different concepts such as text analytics and machine learning are used. On the one hand, data can be analyzed using algorithms to answer economically relevant questions, and on the other hand, planning and forecasting can be significantly improved using intelligent analysis methods. We will discuss corresponding use cases to understand how these can be successfully implemented in the CFO area. In order to achieve the full added value, a holistic approach to Advanced Analytics & Artificial Intelligence must be developed in addition to individual and often independent use cases, which especially includes the organizational and cultural dimension. Live demonstrations of applications used in controlling will also be conducted.
About:
As Program Manager Artificial Intelligence & Advanced Analytics in the CFO division of E.ON SE, Bernd Kälber is responsible for the evaluation and implementation of Artificial Intelligence and Advanced Analytics applications. Especially in the cross-functional role "Analytics Translator" he is very successful in translating business requirements into analytics applications. Mr. Kälber is a regular speaker on this topic at various conferences. As a theoretical physicist and in his professional career, Quantitative Business Modeling plays a central role. To that he has held various positions in the financial sector and the energy industry. In the financial sector he was Head of Market Data Management and Vice President Risk Management Services. For international energy companies he was responsible for projects on economic portfolio management of trading and generation as well as for the quantitative analysis of complex investment projects. An independent consulting activity for Quantitative Business Modelling completes his profile.
Abstract:
Today’s machine learning models possess remarkable predictive performance, but are often unable to explain the “how” and “why” behind their predictions. In this talk Professor Müller will give an introduction to the topic of interpretable machine learning. The talk will cover the concept of interpretability, approaches and methods for interpreting black-box machine learning models, and a discussion of when and why we need interpretability.
About:
Oliver Müller is a Professor of Management Information Systems and Data Analytics at Paderborn University. In his research he studies how organizations create value with (big) data and analytics; for example, by enhancing judgment and decision making, supporting knowledge management, or automating business processes. His research has been published in the Journal of Management Information Systems, Journal of the Association of Information Systems, European Journal of Information Systems, and various others.
Welcher politische Handlungsbedarf ergibt sich aus der Entwicklung Künstlicher Intelligenz?
Ein Zukunftsgespräch mit dem Medienethiker Prof. Dr. Alexander Filipović und dem NRW-Wirtschaftsminister Prof. Dr. Andreas Pinkwart.
Ob es um medizinische Diagnostik geht, um das Management von Unternehmen oder um politische Meinungsbildung – die vielfältigen Einsatzmöglichkeiten künstlicher Intelligenz (KI) werden intensiv diskutiert. Hintergrund ist die rasante Entwicklung dieser Schlüsseltechnologie. Sie gilt als zentraler Faktor wirtschaftlicher Entwicklung.
Der nordrhein-westfälische Wirtschaftsminister Professor Andreas Pinkwart will NRW unter die Top Ten der KI-Standorte in Europa bringen. Zugleich wird zunehmend danach gefragt, wie diese Technologie unser Denken, unser Zusammenleben und unsere Entscheidungen verändert. Mit diesem Themenkomplex beschäftigt sich der Medienethiker Professor Alexander Filipović, Mitglied der Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestags. Die beiden werden diskutieren, welche Chancen und welche Risiken sich mit Künstlicher Intelligenz verbinden und welche Rahmenbedingungen die Politik schaffen sollte. Moderiert wird das Gespräch von Professor Gerhard Vowe, Seniorprofessor für Kommunikations- und Medienwissenschaft an der Heinrich-Heine-Universität.
2019
Big data and machine learning are experiencing a huge rise in the economy and many scientific fields due to its enormous predictive capabilities. While most data scientists will currently reject early bold claims that big data would be end of theory (and, thus, traditional science), the precise characteristics of the well-known "prediction vs. explanation" dichotomy are not well understood. While modern concepts of "explainable AI" try to overcome past limitations and criticism of "black box-approaches", behavioral scientists have still a different understanding what "explanation" means. The present talk will note three essential topics that helps to understand data and its occurance, namely "causation", "sampling", and "measurement". The talk presents suggestions about potential blind spots with regard to these topics, briefly introduce these topics and present some initial approaches to combine the best of both worlds.
Das Land NRW hat Ende 2018 die Kompetenzplattform KI.NRW etabliert, um die Aktivitäten des Landes im Bereich KI zu bündeln und weiter zu stärken. Die Geschäftsstelle des Fraunhofer IAIS (Intelligente Analyse- und Informationssysteme) leitet die Kompetenzplattform in Zusammenarbeit mit dem Ministerium für Wirtschaft, Innovation, Digitalisierung und Energie des Landes NRW. Sie hat zur Aufgabe, die Forschung im Bereich KI zu stärken, den Transfer in die Wirtschaft zu fördern und NRW zu einer Leitregion für berufliche Qualifizierung in KI zu machen sowie den gesellschaftlichen Dialog zu befördern.
Dr. Dirk Hecker, stellvertretender Geschäftsführer des Fraunhofer IAIS, stellt in seinem Vortrag das Aktivitätsfeld der Initiative vor. Die Kompetenzplattform baut ihr strategisches Netzwerk kontinuierlich aus und kooperiert auf Landes-, Bundes-, und EU-Ebene insbesondere mit Unternehmen, Start-ups, Universitäten, Hochschulen und Forschungseinrichtungen.
Abstract:
Homophilia can discriminate against minorities in social networks by limiting their ability to connect with people from a majority group. This can limit the general visibility of minorities in the network and cause distortions. In this talk I will show how the visibility of minorities in social networks is a function of (i) their relative group size and (ii) the presence or absence of homophilic behavior. In addition, the results show that perceptional distortions can occur in social networks with high homophilia or high heterophilia and unequal group sizes, and that these effects are highly related to the asymmetric nature of homophilia in networks. This work provides a basis for assessing the visibility of minority groups and corresponding distortions of perception in social networks where homophile or heterophile behaviour is present. Overall, the lecture will motivate and illustrate new research projects at the interface between computer and social sciences.
About the person:
Markus Strohmaier is Professor of Methodology and Theory of Computer-Based Humanities and Social Sciences at the HumTec Institute of Faculty 7 and at the Department of Computer Science of Faculty 1 of RWTH Aachen University and scientific coordinator for digital behavior data at GESIS - Leibniz Institute for Social Sciences. Previously he was a post-doc at the University of Toronto (Canada), assistant professor at the Graz University of Technology (Austria), visiting scientist at (XEROX) Parc (USA), visiting professor at Stanford University (USA) and founder and scientific director of the Department of Computational Social Science at GESIS (Germany). He is interested in the application and development of computer techniques to research challenges at the interface between computer science and the social sciences and humanities.
Information and images