7. Internationale ScaDS.AI Herbstschule zu Big Data und KI

Europe/Berlin
    • 1
      Übersicht über ScaDS.AI Dresden / Leipzig

      Das ScaDS.AI (Zentrum für Skalierbare Datenanalyse und Künstliche Intelligenz) Dresden/Leipzig ist ein Zentrum für Data Science, Künstliche Intelligenz und Big Data mit Standorten in Dresden und Leipzig. Es ist eines von fünf neuen KI-Zentren in Deutschland, die im Rahmen der KI-Strategie der Bundesregierung gefördert werden. Aufbauend auf der Historie als Big-Data-Kompetenzzentrum wollen wir die Lücke zwischen der effizienten Nutzung von Massendaten, fortschrittlichen KI-Methoden und Wissensmanagement schließen. Neben neuen Methoden des maschinellen Lernens und der KI stehen Forschungsthemen zu Vertrauen, Privatsphäre, Transparenz, Minderheitenschutz und Nachvollziehbarkeit von KI-getriebenen Entscheidungen im Vordergrund.
      In meinem Vortrag werde ich einige der wichtigsten Forschungsrichtungen des Zentrums hervorheben und Schlüsselaspekte zur Bewältigung der Herausforderungen von Big Data im Zeitalter der KI ansprechen. Außerdem werde ich erörtern, wie das Hochleistungsrechnen (HPC) dazu beitragen kann, das datenintensive Rechnen, einschließlich der Aspekte der KI, weiter voranzubringen.

      Speaker: Prof. Wolfgang E. Nagel (TU Dresden / ZIH + ScaDS.AI)
    • 10:30 AM
      Kurze Pause
    • 2
      Künstliche Intelligenz in der Biomedizin

      In der modernen Hochdurchsatz-Biomedizin werden riesige und komplexe Datensätze, insbesondere in den Bereichen Omics und Bildgebung, generiert. Die Analyse und Integration dieser Datensätze ist nicht nur für die Forschung, sondern auch für den geplanten klinischen Einsatz, z. B. in der Präzisionsmedizin, von entscheidender Bedeutung. Die Herausforderungen einer wirklich datengestützten Medizin sollen durch Techniken der Datenwissenschaft, insbesondere maschinellen Lernens und künstlicher Intelligenz, ermöglicht werden.
      In diesem Vortrag werde ich zunächst einen allgemeinen Überblick über Konzepte und Herausforderungen geben. Dann werde ich einige Beispiele aus dem Zentrum präsentieren, die insbesondere zeigen, wie maschinelles Lernen für die statistische Integration von Omics-Daten eingesetzt werden kann. Ich werde kurz erläutern, wie man Proben nach linearen und baumartigen latenten Ähnlichkeiten ordnet, indem man pseudotemporale Ordnungen verwendet, mit Anwendungen in der Zellzyklusklassifizierung und Patientenverläufen bei diabetischer Retinopathie. Anschließend werde ich mich auf Anwendungen in der Einzelzellgenomik konzentrieren und die Frage stellen, wie Vorhersagen für Phänomene verallgemeinert werden können, die in den Trainingsdaten fehlen, d. h. außerhalb der Stichprobe liegen. Abschließend werde ich ein Beispiel für klinisch relevante Phänotypen anführen und dies in den Kontext laufender groß angelegter internationaler Bemühungen stellen.

      Speaker: Prof. Fabian Theis (Computational Health Center, Helmholtz Munich)
    • 12:15 PM
      Mittagspause
    • 3
      Praktische Ungewissheit beim maschinellen Lernen

      Wie jede:r gute Wissenschaftler:in sollte auch ein anständiges maschinelles Lernverfahren in der Lage sein, seinen eigenen Fehler abzuschätzen. Eine solche quantifizierte Unsicherheit hat viele Verwendungszwecke, die über den grundlegenden Fehlerbalken hinausgehen: Sie liefert die prinzipiellen Mechanismen, um die Erkundung und das aktive Lernen zu leiten, Designentscheidungen zu motivieren und zu kritisieren und den Nutzen von Informationen aus verschiedenen Quellen abzuwägen. Die Wahrscheinlichkeitstheorie bietet den universellen und strengen Rahmen, um Unsicherheit zu quantifizieren und zu manipulieren. Die Anwendung dieses Formalismus - die Bayes'sche Inferenz - steht in dem Ruf, kompliziert und teuer zu sein. Dieser Lehrgang wird versuchen, diesen Mythos zu zerstreuen. Ausgehend von grundlegenden Beispielen werden wir den Gauß-Fall kennenlernen, ein praktisch orientiertes Arbeitspferd der Bayes'schen Inferenz, das die abstrakten Begriffe der Wahrscheinlichkeitstheorie auf grundlegende lineare Algebra abbildet. Wir werden dann sehen, dass moderne automatische Differenzierungswerkzeuge es uns ermöglichen, diese reichhaltige Sprache auf praktisch alle Bereiche des modernen maschinellen Lernens zu übertragen. Insbesondere werden wir sehen, wie quantifizierte Ungewissheit beim Deep Learning einfach und mit geringem Rechen- und Implementierungsaufwand konstruiert werden kann.

      Speaker: Prof. Philipp Hennig (University Tübingen / TUEAI)
    • 3:00 PM
      Kurze Pause
    • 4
      Die neue Generation der Weltmodelle - warum Ihre Kinder immer wieder denselben Film sehen

      Seit einigen Monaten verblüfft uns eine neue Generation von Modellen des maschinellen Lernens mit Fähigkeiten, die weit über das hinausgehen, wozu KI bisher in der Lage war. Diese Systeme werden selbstüberwacht trainiert - sie lernen die Struktur unserer Welt, indem sie sie einfach nur betrachten, ohne dass sie von Menschen erstellte Bezeichnungen benötigen. Ist die Verallgemeinerbarkeit und das logische Denken dieser Modelle ein Hinweis auf echte Intelligenz - oder werden wir von sogenannten stochastischen Papageien getäuscht? Wohin wird uns diese Entwicklung führen und wo liegen ihre Grenzen?

      Speaker: Jonas Andrulis (Aleph Alpha Founder & CEO)
    • 5
      Get Together + Break-out Sessions
    • 6
      Rechtliche Herausforderungen der weiteren KI-Entwicklung - Wie erhalten wir eine sinnvolle menschliche Kontrolle?

      Im Vortrag werden einige der wichtigsten Herausforderungen bei der Weiterentwicklung von lernenden Systemen aus rechtlicher Sicht vorgestellt. Ein Schwerpunkt liegt dabei auf der Problematik der Verantwortungsdiffusion, die insbesondere auf die schwierige Zurechnung von tatsächlichen Ereignissen zu einem:einer Akteur:in zurückzuführen ist.
      Die Referentin wird u.a. ein Projekt vorstellen, an dem sie beteiligt ist (vALID, gefördert vom Bundesministerium für Forschung und Bildung, https://www.gesundheitsforschung-bmbf. /de/valid-klinische-entscheidungsfindung-durch-kunstliche-intelligenz-ethische-rechtliche-und-10430.php). Diesem Projekt liegt der Gedanke zugrunde, dass man nur bei einer solchen Kontrolle noch von z.B. "Akteur:in" oder "Verantwortung" im traditionellen juristischen Sinne sprechen kann.
      Hier wird also untersucht, wie der verantwortungsvolle Einsatz von KI-gesteuerten klinischen Entscheidungsunterstützungssystemen in der Praxis möglich gemacht werden kann, d.h. wie eine sinnvolle menschliche Kontrolle über diese Werkzeuge erreicht werden kann. Zu diesem Zweck werden in Mock-up-Experimenten Interviews mit den Teilnehmenden durchgeführt und so versucht herauszufinden, unter welchen Umständen sie noch das Gefühl der Kontrolle über die getroffene Entscheidung haben. Darüber hinaus ist es notwendig, diese empirischen Erkenntnisse in rechtliche Konzepte zu übertragen, worüber ebenfalls im Vortrag berichtet wird.

      Speaker: Prof. Susanne Beck (LL.M. (LSE), Leibniz University Hanover)
    • 10:30 AM
      Kurze Pause
    • 7
      Wissensrepräsentation und Reasoning: Von Grundlagen zu Produkten

      In diesem Vortrag werde ich einen Überblick über die Entwicklung kommerziell erfolgreicher Wissensrepräsentations- und Reasoning-Systeme (KRR) und deren Entstehung in der Grundlagenforschung geben. Ich werde die Entwicklung von KRR-Systemen von den logischen und algorithmischen Grundlagen über akademische Prototypen und Standardisierung bis hin zu robusten und skalierbaren Systemen nachzeichnen, die Anwendungen in so unterschiedlichen Bereichen wie Suche, Gesundheitswesen, Finanzdienstleistungen und Fertigung ermöglichen. Ich werde die Hindernisse und Meilensteine erörtern, auf die man auf diesem Weg gestoßen ist, sowie die Lehren, die man aus der Nutzung der Forschung gezogen hat.

      Speaker: Prof. Ian Horrocks (Oxford University )
    • 12:15 PM
      Mittagspause
    • 8
      Projektvorstellungen des Schaufler Labors @ TU Dresden

      Mit dem Schaufler Lab@TU Dresden haben die TU Dresden und THE SCHAUFLER FOUNDATION ein lebendiges Forum für einen zukunftsweisenden Dialog zwischen Wissenschaft, Kunst und Gesellschaft geschaffen. In diesem Projekt kommen junge Forschende und Künstler:innen über die Grenzen der Disziplinen hinweg zusammen, um aus geistes- und sozialwissenschaftlicher Perspektive über aktuelle Technologien, ihre Ursprünge und ihre Auswirkungen auf Kultur und Gesellschaft zu forschen. Einige Doktorand:innen des ersten Projekts sind Mitarbeitende des ScaDS.AI. Fellows des Schaufler Kollegs@TU Dresden forschen gemeinsam mit den Künstler:innen der Schaufler Residency@TU Dresden zum Leitthema "Künstliche Intelligenz als Faktor und Folge des sozialen und kulturellen Wandels".
      Die Sprecher:innen des Labors, Lutz Hagen und Kirsten Vincenz, werden einen Vortrag über das Konzept und die Entwicklung des Schaufler Lab@TU Dresden halten. Außerdem werden zwei Stipendiat:innen über ihre Dissertationsprojekte berichten: Gina Glock: "Arbeit in Zeiten disruptiver Technologien: Auswirkungen von Künstlicher Intelligenz (KI) auf die Arbeitsautonomie in Deutschland" und Sandra Mooshammer: "Fähigkeiten und journalistische Qualität des Kommunikators Automatisierter Journalismus und ihr Einfluss auf die Wahrnehmung der Technologie durch menschliche Journalisten".

      Speakers: Gina Glock (Schaufler Lab), Kirsten Vinzenz (Schaufler Lab ), Prof. Lutz Hagen (TU Dresden, Schaufler Lab), Sandra Mooshamer (Schaufler Lab)
    • 3:00 PM
      Kurze Pause
    • 9
      130 Jahre "das Neuron": Eine kurze Geschichte einer einflussreichen Entdeckung

      Seit Santiago Ramón y Cajal im späten 19. Jahrhundert das Neuron als elementaren funktionellen Baustein des Gehirns identifiziert hat, haben sich die Neurowissenschaften rasch zu einem der produktivsten wissenschaftlichen Forschungsbereiche entwickelt. In ähnlichem Tempo hat sich die Forschung im Bereich der Künstlichen Intelligenz und des maschinellen Lernens zu einer der wichtigsten Triebkräfte der technologischen Innovation entwickelt. Seit seinen Anfängen hat das Neuron Biolog:innen und Ingenieur:innen gleichermaßen inspiriert, und die Neurowissenschaften haben sich zu einem Paradebeispiel dafür entwickelt, wie Technik und Naturwissenschaft vom Wissensaustausch profitieren können. In diesem Vortrag werde ich einen kurzen historischen Rückblick auf die wichtigsten Entdeckungen in der Forschung über biologische Neuronen und ihre technischen Gegenstücke aus den letzten 130 Jahren geben. Darüber hinaus werde ich einige neuere Entdeckungen auf diesem Gebiet hervorheben und einen Ausblick auf künftige Entwicklungen geben.

      Speaker: David Kappel (Ruhr Universität Bochum)
    • 10
      Moderne Hardware, IoT-Datenmanagement und Datenwissenschaft zusammenbringen.

      In diesem Vortrag wird Steffen Zeuch zunächst seine bisherigen Forschungsaktivitäten in den Bereichen moderne Hardware, Stream Processing und IoT-Datenmanagement vorstellen. Danach wird er seine Forschungsvision eines universellen Datenmanagementsystems (NebulaStream) skizzieren, das in der Lage ist, die jüngsten Veränderungen bei Dateneigenschaften, Arbeitslasten, Hardwarekapazitäten und Recheninfrastrukturen zu bewältigen und zu nutzen. Mit NebulaStream wollen wir eine Plattform schaffen, die es Forschern und Praktikern ermöglicht, ihre Algorithmen und Ansätze im Kontext zukünftiger IoT-Umgebungen zu entwickeln und zu testen. Auf dieser Plattform könnten Forscher:innen aus verschiedenen Bereichen wie maschinelles Lernen, Signalverarbeitung, Verarbeitung komplexer Ereignisse oder räumliche Verarbeitung ihre Ansätze implementieren. Eine mögliche Richtung für zukünftige Forschung ist die Kombination verschiedener Teile der Datenwissenschaft, z. B. Datenanalyse, Data Mining oder maschinelles Lernen, in einem System, um das Potenzial der gemeinsamen Nutzung zu maximieren, neue Optimierungsmöglichkeiten zu nutzen und den Nutzern eine einheitliche Sicht auf ihre Daten zu bieten.

      Speaker: Steffen Zeuch (DFKI)
    • 10:30 AM
      Kurze Pause
    • 11
      Der archivierte Webdatensatz

      Das Internet Archive (IA) archiviert seit 25 Jahren große Teile des globalen Webs. Dieser historische Datensatz bietet einen unvergleichlichen Einblick in die Entwicklung des Internets im Laufe der Zeit. Ein Teil dieser Sammeltätigkeit bestand darin, die Analyse dieses enormen Datensatzes durch groß angelegte rechnergestützte Forschungsarbeiten zu unterstützen.

      Web-Archive geben uns die Möglichkeit, das Web wie einen Datensatz zu verarbeiten, der sowohl zeitlich als auch rückwirkend durchsucht, analysiert und untersucht werden kann. Unsere technischen Bemühungen zielen auf die sehr spezifischen Eigenschaften des archivierten Webs für unsere interdisziplinären Nutzende und Partner:innen ab, indem wir die gesamte Komplexität ausblenden und von technischen Details abstrahieren.

      In diesem Vortrag werden verschiedene Perspektiven auf die computergestützte Erforschung archivierter Webdaten, technische Herausforderungen, neue Entwicklungen und Möglichkeiten sowie Überlegungen, die bei der Arbeit mit diesem einzigartigen Datensatz angestellt werden müssen, dargelegt.

      Speaker: Helge Holzmann (Internet Archive (archive.org))
    • 12:15 PM
      Mittagspause
    • 12
      Automatisierte Algorithmenauswahl: Mit maschinellem Lernen zur effizienten Optimierung

      Optimierung ist ein integraler Bestandteil unseres Lebens: Ingenieur:innen stimmen die Form mechanischer Komponenten ab, Unternehmen versuchen, ihre Kosten zu minimieren, Raumfahrtbehörden wie die NASA warten auf die bestmöglichen Bedingungen für den Start ihrer Space Shuttles, und in unserem Privatleben nutzen wir Navigationssysteme, um den schnellsten Weg zwischen zwei Orten zu finden. Viele dieser Probleme lassen sich als Optimierungsproblem formulieren, die dann mit einem geeigneten Optimierungsalgorithmus "gelöst" werden können. In der Regel gibt es jedoch keinen Algorithmus, der allen seinen Konkurrent:innen überlegen ist. Folglich ist schon die Wahl des "richtigen" Algorithmus (für die Optimierung eines bestimmten Problemfalls) eine anspruchsvolle Aufgabe, und die Wahl des "falschen" Optimierungsalgorithmus kann die Gesamtleistung stark beeinträchtigen.
      In meinem Vortrag werde ich die allgemeine Idee der automatisierten Algorithmenauswahl vorstellen und damit zeigen, wie maschinelles Lernen zur effizienten Lösung solcher Aufgaben eingesetzt werden kann. Anschließend werde ich den aktuellen Stand der Forschung für eine beispielhafte Optimierungsaufgabe skizzieren und schließlich die jeweiligen Vorteile, offenen Herausforderungen und Forschungsperspektiven diskutieren.

      Speaker: Prof. Pascal Kerschke (TU Dresden, ScaDS.AI Dresden/Leipzig)
    • 3:00 PM
      Kurze Pause
    • 13
      Auf dem Weg zu vertrauenswürdiger KI durch neuronal-symbolische Vereinheitlichung

      Symbolisches Denken ist erklärbar, rigoros, aber empfindlich gegenüber verrauschten Eingaben. Deep Learning überwindet diese Schwächen auf Kosten der Erklärbarkeit und der Strenge des symbolischen Ansatzes. In diesem Vortrag zeige ich die Möglichkeit einer präzisen Vereinheitlichung von symbolischer Struktur und Vektoreinbettung. Die vereinheitlichte Darstellung erbt elegante Eigenschaften von beiden Seiten, nämlich Erklärbarkeit, Strenge, Robustheit und Vertrauenswürdigkeit. Dies formt einen neuen Stil der KI.

      Speaker: Tiansi Dong (University Bonn and ML2R)