Öffentliche Ringvorlesung "Digitalisierung" Sommer 2024

Die schnelle Verbreitung des Internet in der Gesellschaft hat einen weitreichenden zivilgesellschaftlichen und wirtschaftlichen Umwälzungsprozess befördert. Zunächst nur eine technische Infrastruktur, ändert das Internet heute fundamental die Art und Weise, wie Menschen kommunizieren und sich informieren, wie ihre Arbeitswelt aussieht und sie ihre Freizeit gestalten, wie politische Prozesse funktionieren, Meinungen entstehen und wie Werte geschaffen und Wissen vermittelt wird. Damit hat das Internet tiefgreifende Auswirkungen auf die zivilgesellschaftliche und wirtschaftliche Entwicklung eines Landes und seine Position im globalen Wettbewerb.

Dieser Wandel stellt auch die Gesellschaft in Europa vor große Herausforderungen. Auch hier trifft der Umbruchprozess auf eine Gesellschaft mit gewachsenen Sozialbeziehungen, auf ein international erfolgreiches wirtschaftliches System und auf Menschen, die in ihrer großen Mehrheit diese Gesellschaft mit viel Engagement mittragen und weiterentwickeln wollen. Der mit dem Internet und der Digitalisierung verbundene Umbruchprozess findet nicht auf der "grünen Wiese" statt. Er muss von einer gewachsenen Gesellschaft aktiv gestaltet werden. Um den erreichten gesellschaftlichen Zusammenhalt zu wahren, ist es gerade in Deutschland und anderen Industriestaaten erforderlich, die sich abzeichnenden Veränderungsprozesse aufmerksam durch politische Maßnahmen zu begleiten, um ihre gesellschaftlichen und ökonomischen Chancen nutzen und Verwerfungen frühzeitig entgegensteuern zu können. Die technologischen Veränderungen und Möglichkeiten treffen die Gesellschaft mit einer derartigen Wucht, dass sogar die entscheidende Frage, wie die Gesellschaft im Zeitalter der Digitalisierung eigentlich aussehen und funktionieren soll, nur zögerlich gestellt wird und das enorme gestalterische Potential ebenfalls nur sehr zögerlich debattiert und realisiert wird. Wir wollen dazu beitragen, die Gesellschaft zu ermächtigen, auch in Zeiten der Digitalisierung ihr Schicksal aktiv selbst zu gestalten und nicht passiv Opfer unverstandener oder nicht erkannter Entwicklungen zu sein.

In Zusammenarbeit mit dem Bayerischen Forschungsinstitut für Digitale Transformation  veranstaltet das Department Informatik der CIT School der Technischen Universität München deswegen eine öffentliche Ringvorlesung zum Thema Digitalisierung. Betrachtet werden soll das Thema aus der Perspektive unterschiedlicher Disziplinen, um so ein übergreifendes und interdisziplinäres Verständnis der Materie zu erzielen. Dieses Jahr widmen wir uns speziell dem Thema der digitalen Nachhaltigkeit.

Themen und Vortragende jeweils am Mittwoch um 16:00 Uhr über Zoom und bei Bedarf Youtube. Die Folien werden Studierenden der TUM auf Moodle zur Verfügung gestellt.

Die Grundlage der Digitalisierung ist Software. Hier (und hier auf Englisch) finden Sie eine Beschreibung dessen, was Software eigentlich ist und wie Software und Künstliche Intelligenz, vor allem Maschinenlernen, zusammenhängen.


Vortragende und Themen für 2024:

  1. Carolin Kaiser, Nürnberg Institut für Marktentscheidungen (24.4.): KI im Konsum: Wie Künstliche Intelligenz Kaufentscheidungen beeinflusst

    Mit fortschreitender KI-Technologie werden Shopping Interfaces nicht nur intelligenter sondern auch zunehmend menschenähnlicher. Chatbots führen Verkaufsgespräche, Sprachassistenten nehmen mündliche Bestellungen auf, Avatare und Roboter können im Kundenkontakt sogar nonverbal über Lächeln oder Blickkontakt kommunizieren. Diese zunehmende Menschenähnlichkeit von Maschinen verändert die Art und Weise, wie Menschen sie wahrnehmen und mit ihnen interagieren. Dies wirft Fragen nach den psychologischen Auswirkungen solcher Beziehungen auf, einschließlich des Potenzials, Konsumentscheidungen zu manipulieren. Vor diesem Hintergrund beleuchtet dieser Vortrag anhand verschiedener Studien mit unterschiedlichen Shopping Interfaces wie die Interaktion mit künstlicher Intelligenz die Wahrnehmung, Kaufeinstellung und Kaufverhalten von Konsumentinnen und Konsumenten beeinflusst und diskutiert Chancen und Risiken für Unternehmen, Konsumierende und Gesellschaft.

  2. Chinmayi Sharma, Fordham University (8.5.): AI’s Hippocratic Oath
    Diagnosing diseases, creating artwork, offering companionship, analyzing data, and securing our infrastructure—artificial intelligence (AI) does it all. But it does not always do it well. AI can be wrong, biased, and manipulative. It has convinced people to commit suicide, starve themselves, arrest innocent people, discriminate based on race, radicalize in support of terrorist causes, and spread misinformation. All without betraying how it functions or what went wrong.

    A burgeoning body of scholarship enumerates AI harms and proposes solutions. This Article diverges from that scholarship to argue that the heart of the problem is not the technology but its creators: AI engineers who either don’t know how to, or are told not to, build better systems. Today, AI engineers act at the behest of self-interested companies pursuing profit, not safe, socially beneficial products. The government lacks the agility and expertise to address bad AI engineering practices on its best day. On its worst day, the government falls prey to industry’s siren song. Litigation doesn’t fare much better; plaintiffs have had little success challenging technology companies in court.
    This Article proposes another way: professionalizing AI engineering. Require AI engineers to obtain licenses to build commercial AI products, push them to collaborate on scientifically-supported, domain-specific technical standards, and charge them with policing themselves. This Article’s proposal addresses AI harms at their inception, influencing the very engineering decisions that give rise to them in the first place. By wresting control over information and system design away from companies and handing it to AI engineers, professionalization engenders trustworthy AI by design. Beyond recommending the specific policy solution of professionalization, this Article seeks to shift the discourse on AI away from an emphasis on light-touch, ex post solutions that address already-created products to a greater focus on ex ante controls that precede AI development. We’ve used this playbook before in fields requiring a high level of expertise where a duty to the public welfare must trump business motivations. What if, like doctors, AI engineers also vowed to do no harm?

  3. Jürgen Pfeffer, TUM (15.5.): De-Generative Demokratie
    In der Welt der Technik werden oft tausende, Millionen oder - im Falle der neuen großen Sprachmodelle - Milliarden von Variablen in Parameterräumen optimiert. Im Gegensatz dazu ist unsere Gesellschaft das Ergebnis eines jahrhundertelangen Machtkampfes zwischen manchmal unvereinbaren und manchmal komplementären Prinzipien. Diese relativ wenigen Prinzipien, darunter die Grundrechte Freiheit, Gleichheit, Gerechtigkeit, Menschenwürde und Selbstbestimmung, können naturgemäß nicht alle gleichzeitig verwirklicht werden, und es kann auch keinen angemessenen, dauerhaften Ausgleich zwischen ihnen geben. Vielmehr befinden sich westliche Demokratien durch Rechtsstaatlichkeit, Gewaltenteilung und innerhalb demokratischer Systeme in einem ständigen Abwägungsprozess, der durch den Prozess selbst zu einer Lösung wird. Dieser Prozess erfordert Partizipation, Deliberation und Autonomie sowohl auf individueller als auch auf gruppen- und gesamtgesellschaftlicher Ebene. In diesem Vortrag werden wir einen Blick darauf werfen, welchen potenziellen Einfluss neue KI-gestützte Verfahren, vor allem aus dem Bereich der generativen KI, auf menschliches Denken und Handeln haben können und was das mittel- und langfristig für die Grundprinzipien westlicher Demokratien bedeuten kann.

  4. Andreas Jungherr, Universität Bamberg (22. Mai): Künstliche Intelligenz und Demokratie
    Der Erfolg und weit verbreitete Einsatz von künstlicher Intelligenz (KI) haben das Bewusstsein für ihre wirtschaftlichen, sozialen und politischen Auswirkungen geschärft. Aktuell ist die öffentliche Debatte von KI-Modellen geprägt, die die automatisierte Erstellung von Text-, Bild-, Video- oder Audioinhalten ermöglichen. Die Nutzung dieser Modelle im Journalismus, im Wahlkampf aber auch durch den Staat weckt Fragen und Ängste zu ihren möglichen Auswirkungen auf die Demokratie.
    Die Idee leistungsfähiger maschineller Intelligenz, einer Artificial General Intelligence (AGI), hat weitreichende Erwartungen und Ängste hinsichtlich ihres Potenzials oder ihrer Bedrohungen geweckt. Aktuelle KI-Erfolge haben jedoch wenig mit einer noch weitgehend fiktiven AGI zu tun. Stattdessen gelingt es spezifischen KI-gestützten Anwendungen klar definierte Aufgaben in spezifischen Bereichen zu erfüllen.
    Wir können nicht automatisch davon ausgehen, dass die Erfolge von KI in anderen gesellschaftlichen Bereichen sich automatisch in Politik oder demokratiebezogenen Bereichen übertragen lassen. Um die Auswirkungen von KI auf die Demokratie besser einzuschätzen, müssen wir genau hinsehen. Deshalb konzentriert sich dieser Artikel auf drei wichtige Bausteine von Demokratie: politische Selbstbestimmung, Gleichheit, Wahlen und dem Konflikt zwischen Demokratien und Autokratien.

  5. Missy Cummings, George Mason University (29.5.): Self-Driving Cars: Are we there yet?
    Self-driving cars have been a dream of society from almost the time of invention. With the rise of artificial intelligence (AI), this dream has seemingly become reality with driverless commercial operations in a handful of cities around the world.  However, given the recent tragic accident involving a pedestrian and a Cruise self-driving car, as well as multiple high-profile Tesla crashes, the reality that such systems may not actually be as capable as envisioned is slowly creeping into the public’s consciousness. Given these concerns, it is important to step back and analyze just why AI is struggling to operate safely in autonomous vehicles. This talk will highlight the strengths and weaknesses of AI in self-driving cars, as well as in all safety-critical applications, and lay out a roadmap for safe integration of these technologies on public roadways.

  6. !!!! ENTFÄLLT !!! Jan Hiesserich, Aleph Alpha (5.6.): Trustworthy AI - An Oxymoron?
    Can AI be trustworthy? This question probes the essence of AI's relationship with humans. While trust typically stems from human intuition, AI operates on algorithms and data. Is this a problem? If trustworthiness in AI requires the integration of ethical principles, transparency, accountability, and reliability, what does that mean for the human-machines paradigm? We are convinced that through interdisciplinary research and collaboration, from computer science to philosophy, we can navigate AI complexities with confidence and make it work for us, even in highly regulated and complex environments. Trustworthy AI isn't contradictory—it's essential for AI's potential while safeguarding human values.

  7. Paula Cipierre, ada (12.6.): Wege aus dem Regulierungs-Dschungel: Den EU AI Act verstehen und umsetzen

    Mit der KI-Verordnung, besser bekannt als der AI Act, hat die EU die weltweit erste horizontale Regulierung von KI in die Welt gebracht. Doch wie definiert der AI Act überhaupt KI? Welche Anforderungen stellt der AI Act an Unternehmen, die KI entwickeln oder einsetzen? Welche Auswirkungen wird der AI Act auf die Startup- und Innovationslandschaft in Europa haben? Und wie setzt man den AI Act in die Praxis um? Anhand konkreter Beispiele und Handlungsempfehlungen wird in diesem Vortrag Licht ins Regulierungsdickicht gebracht.

  8. Neil Thurman, LMU (19.6.): Changing Media Content Creation Through Automation and AI

    For many decades, the use of automation in the media was restricted to the production of the vehicles—such as the newspapers—that carried the content, rather than the content itself. That started to change in the 21st Century and has accelerated since 2022 with generative AI models, such as ChatGPT. This lecture will define media content automation and briefly describe its history—from early imaginings in the 1960s to early applications in the 2010s. Three drivers of its deployment will be proposed—demand, digitisation, and data—and justified. Contemporary examples will be described within a framework that distinguishes between the older data- and rules-based systems and the more recent generative AI models. Finally, a summary of research on such systems in the news context will be provided, focussing on audiences’ evaluations of their output.

  9. Björn Ommer, LMU (26.6.): The Delusion of Scaling and the Democratization of Generative AI
    The ultimate goal of computer vision and learning are models that understand our (visual) world. Recently, learning such representations of our surroundings has been revolutionized by deep generative models that profoundly change the way we interact with, program, and solve problems with computers. However, most of the progress came from sizing up models - to the point where the necessary resources started to have profound detriments on future (academic) research, industry, and society.
    This talk will contrast the most common generative models to date and highlight the very specific limitations they have despite their enormous potential. We will then investigate mitigation strategies such as Stable Diffusion and, more recently, flow matching approaches to significantly enhance efficiency and democratize AI. Besides visual synthesis, the talk will cover challenging applications such as the estimation of scene geometry.
    Time permitting, we will also delve into the implications that generative AI is unfolding on our societies.

  10. Sebastian Pfotenhauer, TUM (3.7.): Living Labs and Regulatory Sandboxes: The politics of testing digital innovations at small scale
    Digital innovation — from AI tools to autonomous vehicles and maintenance robotics — increasingly mobilize real-world experimentation for technology development. Concepts such as living labs, test beds, regulatory sandboxes, among others, are often considered low-risk and inclusive forms of testing socio-technical transformations at small scale and with public participation. At the same time, their proliferation raises questions concerning risks, the ethics of experimentation, and the path dependencies ensuing from such sites. In this lecture, Sebastian Pfotenhauer discusses the use of living labs and sandboxes in the context of digital transformations. Using examples from a variety of technical domains — medical AI, mobility, robotics — we will talk about the trade-offs between testing and democratizing innovation, between scaling and situating innovations, as well as the representativeness and legitimacy of such approaches. 

  11. Carolin Häussler, Universität Passau (10.7.): Crowdsourcing - The Power of the Croud

    Carolin Häussler will introduce the participants to the power of crowdsourcing, charting its evolution over time and evaluating the mechanisms that have shaped its use. In the lecture we delve into how artificial intelligence can enhance crowdsourcing efforts, amplifying the power of collective wisdom. We examine diverse areas of application, ranging from crowd funding to citizen science, demonstrating the potential of crowdsourcing. Carolin Häussler then shifts focus to thoughtful implementation strategies that can maximize the benefits of crowdsourcing while minimizing potential pitfalls. We conclude with an study on biases in selection procedures in crowdsourcing, which reveals exciting opportunities for AI intervention.

  12. Sven Nyholm, LMU (17.7.):  Generative AI, Responsibility Gaps, and the Credit-Blame Asymmetry

    When generative AI technologies generate novel texts, images, or music in response to prompts from users of these technologies, who exactly should be considered as the author of these AI outputs? Are texts created by generative AI perhaps best considered as authorless texts? In my presentation, I will relate the above-mentioned questions to the topic of who (if anyone) can take credit for, or potentially be blameworthy for, outputs created with the help of large language models and other generative AI technologies. I will argue that there is an important asymmetry with respect to how easily people can be praiseworthy or blameworthy for outputs they create with the help of generative AI technologies: in general, it is much harder to be praiseworthy for impressive outputs of generative AI than it is to be blameworthy for harmful outputs that we may produce with generative AI.

Archiv: Ringvorlesung 2023, 2022, 2021, 2019, 2018, 2017