FIfFKon 2021 Programm

Das Programm zum Download

Aufgrund der steigenden Inzidenzen wird der Schultrack - Vorträge, Workshops und Diskussionen für SchülerInnen, Lehrkräfte und Eltern - auf Frühjahr 2022 verschoben.
Der genaue Termin wird noch bekannt gegeben.

Das Hauptprogramm findet wie geplant statt.
Die Zeiten können sich Corona-bedingt kurzfristig ändern.


16:15
Eröffnung


16:15
16:45
Eröffnung

Begrüßungsworte


FIfF Vorstand

16:45
17:00
Vortrag

Digitale Risikokompetenz ist die Fähigkeit, die Chancen und Risiken von digitalen Technologien zu verstehen, und der Wille, in einer von Algorithmen bevölkerten Welt die Kontrolle zu behalten. Diese Kompetenz betrifft sowohl individuelle Fähigkeiten als auch gesellschaftliche Entwicklungen. Milliarden werden weltweit investiert, um Tablets und Whiteboards in Klassenzimmer zu bringen, aber kaum etwas in die Risikokompetenz der Menschen. Folglich zeigen Studien in den USA und Deutschland, dass die Mehrzahl der Digital Natives nicht weiß, wie man Fakten von Fakes unterscheidet oder auch nur Nachrichten von Werbung. Auf der gesellschaftlichen Ebene versuchen Tech-Unternehmen und Staat zunehmend das Verhalten der Bürger vorherzusagen und zu steuern, etwa mittels Big-Nudging oder Sozialkreditsystemen. In einer digitalen Welt werden wir mehr als je zuvor mitdenken müssen, um die Fernbedienung für die Steuerung unseres Verhaltens und unserer Emotionen wieder selbst in die Hand zu nehmen. Die Gefahr ist nicht, dass künstliche Intelligenz demnächst menschlicher Intelligenz weit überlegen ist – davon sind wir weit entfernt. Die Gefahr ist, dass Menschen aufhören, selbst zu denken und ihre Intelligenz zu benutzen.


Prof. Dr. Gerd Gigerenzer (Harding-Zentrum für Risiko-kompetenz, Uni Potsdam)
Foto: © Arne Sattler

17:00
18:00
Vortrag

Künstliche Intelligenz bietet enorme Potenziale zur Lösung komplexer gesellschaftlicher Herausforderungen, etwa im öffentlichen Sektor. Dort sollen Algorithmen-basierte Entscheidungsprozesse (Automated Decision-Making, ADM) bürokratische Verfahren automatisieren und optimieren. Subjektive und fehlerhafte menschliche Entscheidungen sollen sich erübrigen. Allerdings wirft der Einsatz von ADM neue gesellschaftliche und ethische Fragen auf. So wird befürchtet, dass ADM bestehende gesellschaftliche Diskriminierung fortschreiben und verstärken könnte. Zwar hat die (semi- )automatisierte Prüfung von algorithmisch basierten Vorhersagen Fortschritte gemacht, bisher aber überwiegend in technischen Aspekten. Die Fehleranfälligkeit von ADM ergibt sich aber aus unfairen sozialen und ökonomischen Kontexten. Beispiele aus der Arbeitsmarktforschung zeigen, welche Verfahren automatisierter Fehlererkennung bisher untersucht und eingesetzt werden, welche innovativen Human-in-the-Loop Ansätze es in der Arbeitsmarktforschung bereits gibt, und in welche Richtung zukünftige Forschung gehen sollte, um Daten-generierende Prozesse und damit einhergehende Fehlerquellen für die Modellierung besser zu verstehen.

https://arxiv.org/abs/2108.04134


Prof. Dr. Frauke Kreuter (University of Mannheim Fachbereich Sozialwissenschaften sowie Ludwig-Maximilians-Universität München, Institut für Statistik)

18:00
19:15
Sozial



19:15
10:00 Begrüßung

Begrüßungsworte

10:00
10:15
Vortrag

Im aktuellen deutschen Strafrecht ist der Einsatz von Algorithmen noch Zukunftsmusik. Wie dieser Einsatz aussehen könnte, zeigt sich im Vergleich mit anderen Rechtsordnungen sowie im Spiegelbild wissenschaftlicher Diskussionen. Algorithmen werden in den USA etwa zur Bewertung des Risikos eingesetzt, das von Beschuldigten ausgeht. Oder sie sollen die Differenzen ausgleichen, die bei der Strafzumessung entstehen. Getragen wird dies, so sei zur Diskussion gestellt, durch das Zero Trust-Paradigma, ein Prinzip aus dem Sicherheits-Design von IT-Systemen. Wenn es aber kein Vertrauen ohne Kontrolle oder Überprüfung geben darf, könnten sich dadurch die Grundkoordinaten des Strafrechts verschieben. Wie würden sie sich verändern? Braucht nicht Zukunft – die zugleich für Wandelbarkeit wie auch für Ungewissheit steht – Vertrauen und konkret Vertrauen durch Konflikt?


Siehe auch "Künstliche Intelligenz als Ende des Strafrechts?"


Prof. Dr. Christoph Burchard (Goethe-Universität Frankfurt, FB Rechtswissenschaft)

10:15
11:00
Vortrag

Seit etwa 50 Jahren sind digitale Technologien Triebfedern kapitalistischer Erneuerung. Doch erst seit Ende der 1990er Jahre erleben wir die Entstehung eines wirklich digitalen Kapitalismus, dessen Zentrum das kommerzielle Internet bildet. Leitunternehmen wie Google, Apple, Facebook und Amazon nehmen dabei Schlüsselpositionen für immer größere Teile der Wirtschaft ein. Sie haben periodische Krisen des Kapitalismus nicht nur unbeschadet überstanden sondern sind sogar an ihnen gewachsen. Nach der Eroberung immer neuer Märkte streben sie heute vor allem in den Bereich der öffentlichen Güter. Hier entfaltet sich der Konflikt zwischen digitaler Herrschaft und sozialer Innovation.
Prof. Dr. Philip Staab (Humboldt Universität Berlin, Lehrbereich Soziologie der Zukunft der Arbeit)

11:00
13:00
Vortrag

Menschliche Gehirne sind nicht besonders rational, auch wenn wir uns gerne so sehen. Jede Wahrnehmung dringt durch eine Linse von Vorurteilen ein; jeder Gedanke entsteht in einem Dickicht hartnäckiger kognitiver Verzerrungen. In den letzten Jahren ist es deutlich geworden, dass auch künstliche Systeme Voreingenommenheit aufweisen, die manchmal die Voreingenommenheit der Gesellschaft widerspiegelt und sie manchmal sogar verstärkt. Hier werde ich einige Varianten von Voreingenommenheit in natürlichen und künstlichen Entscheidungsprozessen beschreiben und ihre Genese vergleichen. Daraus kann man Schlüsse ziehen, welche Entscheidungen man getrost dem Algorithmus überlassen kann, wo man sich gegen solche Entscheidungen wehren sollte, und ob man die Lage verbessern kann.


https://www.frontiersin.org/articles/10.3389/fncom.2021.543872/full


Prof. Dr. Abigail Morrison (nstitute for Advanced Simulation, ForschZentr.Jülich, Dr. Computational Neuroscience, MSc AI)

13:00
13:45
Vortrag

Die Digitalisierung des Gesundheitswesen verspricht, Patient*innen die Hoheit über ihre eigenen Gesundheitsdaten zu geben und ihnen dadurch zu mehr Mitbestimmung zu verhelfen. Patient*innen können beispielsweise frei entscheiden, welche Daten sie in der elektronischen Patientenakte speichern und mit welchen Ärzten sie diese teilen. Digitale Angebote wie Gesundheitsportale, Gesundheitsassistenten und Symptom-Checker sollen zudem die Kompetenz und damit auch die Selbstbestimmung und Eigenverantwortung der Bürger*innen in Sachen Gesundheit verbessern. Wird die lang geforderte Patienten-Selbstbestimmung im digitalisierten Gesundheitswesen endlich Wirklichkeit?

Selbstbestimmung im Gesundheitswesen bedeutet nicht, dass Patient*innen als mündig gesehen werden und ohne Bevormundung handeln können. Wie die Diskussion um die vermeintlich mangelhafte „Gesundheitskompetenz“ in der deutschen Bevölkerung zeigt, gehen Expert*innen davon aus, dass Bürger*innen zur Selbstbestimmung erst befähigt werden müssen – in Zukunft auch mithilfe digitaler Geräte und Angebote. Wie wandelt sich Selbstbestimmung, wenn sie digital gefördert und an bestimmte Voraussetzungen geknüpft wird? Inwiefern macht es ein digitales Gesundheitssystem sogar möglich, Selbstbestimmung zu kontrollieren und zu lenken durch die Erstellung und Zuschreibung von Datenprofilen, durch die Information über beängstigende Gesundheitsrisiken und die Definition von gesundheitskompetentem Verhalten? Wird Überwachung zu einem neuen Gesundheitsbedürfnis?


http://www.samerski.de/


Prof. Dr. Silja Samerski (Hochschule Emden, FB Soziales und Gesundheit)

13:45
14:30 Vortrag

Die digitale und automatisierte Koordination und Kontrolle von Arbeitsprozessen nehmen fortlaufend zu. Ein solches algorithmisches Management ist insbesondere im Feld der Plattformarbeit verbreitet. Wie zahlreiche Analysen zeigen, schränkt es die Handlungsspielräume von Beschäftigten ein und ersetzt menschliche Kontakte mit face-to-interface-Interaktionen. Mit Analysen algorithmischen Managements geht allerdings meist eine Fetischisierung von Algorithmen einher, die als objektiv agierende Dinge interpretiert werden. Das vernachlässigt, dass sie ihre Wirkung erst im Rahmen menschlicher Praktiken entfalten. Die Praktiken der Nutzenden sind aber für die Entwicklung und Wirkung von Technik zentral, denn Technik existiert nicht losgelöst von vermachteten und sozialen Strukturen. Wie sind Algorithmen sozial konstruiert und welche Interpretationen und Theorien entwickeln Beschäftigte gegenüber intransparenten Algorithmen? Wie beeinflussen diese ihre Handlungen? Exemplarisch zeigt das die plattformvermittelte Kurierarbeit, in der algorithmisches Management umfassend eingesetzt wird und zugleich zahlreiche Konflikte zwischen Plattformen und Beschäftigten existieren.


Heiner Heiland (Soziologie TU Darmstadt, BA Rechtswissenschaft, MA Sozialwissenschaft)

14:30
15:30 Verleihung


FIfF

15:30
17:45 Vortrag

Als in den 1980er Jahren das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung gegründet wurde, neigte sich das erste Jahrhundert der Telefonie seinem Ende zu. Es wurden Glasfaserkabel in die Böden verlegt, staatliche Telekommunikationsunternehmen wurden zerschlagen und privatisiert, und Fragen des Gemeinwohls, der Mitbestimmung oder der sozialen Beherrschung von Technologie wurden in den Hintergrund gedrängt.

Vierzig Jahre später beobachten wir einen nicht weniger tiefschürfenden Wandel: Die Hyperscale-Rechenzentren der Plattformökonomie, die Ressourcen-intensiven Blockchain-Technologien der Finanzwirtschaft und der Handelskrieg zwischen den USA und China um die Vorherrschaft in Segmenten wie Halbleiter oder KI stellen die Fragen nach dem Verhältnis zwischen neuen Technologien, alten Nationalstaaten und international operierenden Tech-Konzernen neu. Auf Basis von historischen Fallstudien und ethnografischen Beobachtungen gehen wir den Fragen nach, welche Interessen die Politik digitaler Infrastrukturen prägen, welche Konfliktlinien auszumachen sind und welche Handlungsspielräume sich die Zivilgesellschaft zurückerobern müsste.


https://www.snf.ch/en/8mvtobGSOfpsJroW/news/news-140618-horizons-interview-with-monika-dommann-on-copyright-and-place-of-book-in-humanities (aus Authors and Apparatus: A Media History of Copyright) und Buch zum Vortrag: Data Centers: Edges of a Wired Nation


Prof. Dr. Monika Domman (Uni Zürich Historisches Seminiar) und Max Stadler

17:45
18:30 Verleihung


FIfF

18:30
ab 19:30 Gespräche


FIfF

19:30
10:00 - 10:05 Info


10:00
10:05 - 11:15 Bericht


FIfF

10:05
11:15 - 11:30 Austausch


FIfF

11:15
11:30 - 11:40 Info


FIfF

11:30
12:00 - 15:00 FIfF


FIfF

12:00 unter 2021.fiffkon.de/mv


  • FIfF-Regionalgruppe München
  • +49 (0) 421 - 33 65 92 55