Forschungsprojekte

Forschung 2

Im Rahmen seiner Schwerpunkte bearbeitet das ITSL eine Reihe von Forschungsprojekten.

 

Laufende Forschungsprojekte:

Nachvollziehbare Algorithmen: ein Rechtsrahmen für den Einsatz von Künstlicher Intelligenz

Projektlaufzeit:     1. Juli 2021 bis 30. Juni 2024

Fördermittelgeber:     Stiftung Mercator Schweiz

Projektteam:

•    Prof. Dr. Florent Thouvenin, Professor für Informations- und Kommunikationsrecht, Vorsitzender des Lenkungsausschusses des ITSL und Direktor der Digital Society Initiative (DSI) der Universität Zürich. Florent Thouvenin befasst sich in seiner umfassenden Forschung mit Herausforderungen der Digitalisierung für das Recht. In jüngerer Zeit liegt der Fokus auf dem Datenschutzrecht und auf der rechtlichen Erfassung von KI-Systemen.

•    Prof. Dr. Nadja Braun Binder, MBA, Professorin für öffentliches Recht an der Universität Basel. Nadja Braun Binder befasst sich seit knapp 20 Jahren mit Rechtsfragen zur Digitalisierung in Staat und Verwaltung. Seit mehreren Jahren liegt ein besonderer Fokus auf dem KI-Einsatz in der öffentlichen Verwaltung und rechtlichen Fragen im Zusammenhang mit digitaler Demokratie sowie mit dem Einfluss sozialer Medien auf die politische Meinungsbildung.

•    Dr. Stephanie Volz, wissenschaftliche Geschäftsführerin des ITSL und Dozentin an der Rechtwissenschaftlichen Fakultät der Universität Zürich. Sie ist seit vielen Jahren mit Fragen rund um die Digitalisierung beschäftigt, zuerst in der Forschung, dann in der Praxis und nun wieder in der Forschung. Thematische Schwerpunkte in diesem Bereich waren und sind Medien-, Datenschutz- und Wettbewerbsrecht.
•    Dr. Franziska Oehmer, wissenschaftliche Geschäftsführerin des ITSL sowie Oberassistentin und Dozentin am fög – Forschungszentrum Öffentlichkeit und Gesellschaft der Universität Zürich. Ihre Lehr- und Forschungsschwerpunkte liegen im Bereich der Governance von Plattformen, Media Literacy und der Mediatisierung des Rechts.

•    Fabienne Graf, wissenschaftliche Mitarbeiterin am ITSL. Als Doktorandin der Universität Luzern und der Humboldt-Universität zu Berlin forscht sie zur Technizität im Softwarepatentrecht sowie den damit verbundenen erkenntnistheoretischen Problemen. Ihr Forschungsoutput umfasst Themen des Rechts der neuen Technologien, der Immaterialgüter und der Rechtsphilosophie.
•    Liliane Obrecht, derzeit Studentin in Assistenzfunktion bei Nadja Braun Binder; ist Mit-Autorin einer Studie zu KI in der öffentlichen Verwaltung im Auftrag des Kantons Zürich, hat ihre Masterarbeit zum Thema Datenschutz und Digitalisierung im Rahmen der COVID-19-Pandemie verfasst und beginnt demnächst ihr Doktoratsstudium an der juristischen Fakultät der Universität Basel.

Projektbeschrieb
Ziele
Bei der Regulierung von Künstlicher Intelligenz (KI) stellen sich vielfältige und komplexe Fragen. Zentrale Hausforderungen umfassen: die fehlende Transparenz und Nachvollziehbarkeit der Entscheidungen von KI-Systemen, die Risiken für den Schutz der Privatsphäre, die Gefahr von Diskriminierung und die Gefahr von Manipulation. Unklarheiten bestehen auch bei der Haftung für Schäden, die von KI-Systemen verursacht werden.

Besondere gesellschaftliche Relevanz hat der Einsatz von KI in der Verwaltung und im Bereich der Medien und Informations-Intermediäre: Im Rahmen der Verwaltung tritt der Staat seinen Bürger:innen regelmässig hoheitlich gegenüber. Zudem sind alle Bürger:innen von Verwaltungshandeln betroffen. Dabei handelt es sich oft um besonders sensible Bereiche, etwa den der Sozialversicherungen. Die klassischen Medien und die neuen Informations-Intermediäre (Social Media, Suchmaschinen, Micro-Blogging-Dienste, Foto- und Videoplattformen) haben durch die Selektion und Präsentation von Inhalten einen grossen Einfluss auf die öffentliche Meinungsbildung. Das zeigt sich gerade im Vorfeld von Abstimmungen und Wahlen als besonders relevant. Da Informations-Intermediäre nicht nur die öffentliche Meinungsbildung im Allgemeinen beeinflussen, sondern auch auf Ebene der individuellen Bürger:innen und Konsument:innen die Wahrnehmung von Inhalten steuern, ist das zunehmend problematisch. Die einzelnen Personen werden so in ihrem Denken und Handeln beeinflusst.

Hauptziel dieses Forschungsprojekts ist es, einen umfassenden Rechtsrahmen für den Einsatz von KI in der Schweiz zu schaffen. Hierfür werden allgemein-gültige gesetzliche Bestimmungen ebenso wie ausgewählte sektorspezifische Regelungen für die öffentliche Verwaltung und den Bereich der Medien (publizistische Medien und Informations-Intermediäre) entwickelt bzw. angewendet. Diese Rechtsnormen sollen die zentralen Herausforderungen von KI-Systemen erfassen und den Eintritt von konkreten Nachteilen für die Bürger:innen verhindern. Die Ergebnisse werden zum einen im Rahmen von White Papers erläutert, zum anderen den Entscheidungsträger:innen in Politik und Verwaltung sowie einer interessierten Öffentlichkeit zugänglich gemacht. Das Projekt enthält zudem eine Reihe von Massnahmen zur Förderung des Eingangs der erarbeiteten Rechtsnormen in den Gesetzgebungsprozess.

Gewisse Herausforderungen lassen sich nicht nur durch den Erlass neuer, sondern auch durch eine geeignete Auslegung bestehender Rechtsnormen bewältigen. Neben der Entwicklung von Normen werden deshalb auch neue Möglichkeiten zur Auslegung und Anwendung des geltenden Rechts erarbeitet, die in wissenschaftlichen Publikationen erläutert werden. Diese Publikationen richten sich primär an die Fachöffentlichkeit wie Wissenschaftler:innen, Richter:innen und Mitarbeitende der Verwaltung, aber auch an interessierte Mitglieder der Zivilgesellschaft.

Die neuen Rechtsnormen und die White Papers werden zusammen mit den wissenschaftlichen Publikationen zur Auslegung und Anwendung der bestehenden Rechtsnormen einen umfassenden Rechtsrahmen bilden. Mit diesem lassen sich die zentralen Herausforderungen bewältigen, die durch den Einsatz von KI-Systemen entstehen.

Fokusbereiche
Neben der Erarbeitung eines allgemeingültigen Rechtsrahmens für KI in der Schweiz, analysiert das Projekt zudem zwei Bereiche vertieft: Ein erster Fokus liegt auf der Verwendung von KI-Systemen in der öffentlichen Verwaltung. Diese ist besonderen Regeln unterworfen, etwa dem verfassungsrechtlichen Diskriminierungsverbot und den Verfahrensgrundrechten. Mit Blick auf KI-Anwendungen ergeben z.B. der Anspruch auf vorgängige Äusserung der Bürger:innen, ihre Mitwirkung in Verwaltungsverfahren und das Recht auf eine Begründung staatlicher Entscheidungen spezifische Fragen. Die Verhinderung von Diskriminierung und die Herstellung von Transparenz sind in diesem Zusammenhang besonders wichtig. Die rechtliche Regelung muss dabei diese Punkte adäquat adressieren, ohne die Digitalisierung der Verwaltung und den Einsatz von KI zu behindern.

Ein zweiter Fokus liegt auf dem Bereich der Medien und Informations-Intermediäre, die in Demokratien die wichtigsten Informationsquellen bilden und besonderes Wirkungspotenzial auf die Meinungs- und Willensbildung haben. Das trifft vor allem im Zusammenhang mit Wahlen und Abstimmungen zu. Um den neuen Mediennutzungsgewohnheiten Rechnung zu tragen, werden im Rahmen des Projekts nicht nur Normen für publizistische Medien wie Zeitungen, Radio oder TV-Nachrichten erarbeitet, sondern auch für Informations-Intermediäre. Unter Informations-Intermediären werden dabei Onlineangebote verstanden, die den Nutzenden Inhalte Dritter, meist in strukturierter und recherchierbarer Form, zur Verfügung stellen. Dazu zählen insb. soziale Medien wie Twitter und Facebook, aber auch Suchmaschinen sowie Micro-Blogging-Dienste, Foto- und Videoplattformen. Diese vermitteln nicht nur Inhalte ihrer Nutzer:innen («user generated content»), sondern auch Beiträge publizistischer Medien. Letztere wiederum greifen in ihrer Berichterstattung zunehmend auch Diskussionen auf, die in den sozialen Medien geführt werden. Mit Blick auf dieses komplexe Zusammenwirken von publizistischen Medien und Informations-Intermediären bei der Meinungsbildung wird im Rahmen des Projekts zum einen untersucht, ob (auch) das Schweizer Recht besondere Bestimmungen zur Verwendung von KI-Systemen durch Medien und Informations-Intermediäre bedarf. Zum anderen wird, sofern bejaht, erforscht wie diese aussehen müssten.

Vorgehensweise
Der rechtliche Rahmen für die Erfassung solch vielfältiger Fragen zu KI kann nicht von Rechtswissenschaftler:innen allein gebildet werden. Das Projekt verfolgt deshalb einen interdisziplinären und kollaborativen Ansatz. Zwei interdisziplinäre Workshops, an denen Kolleg:innen aus der Informatik, Ethik, Soziologie, Psychologie sowie den Kommunikations- und Medienwissenschaften teilnehmen werden. Ein solcher Austausch stellt sicher, dass die Entwicklung der Rechtsnormen auf dem neusten Stand wissenschaftlicher Kenntnisse beruht.

Überzeugende Lösungen, die Umsetzung durch das Parlament finden, können nur unter Einbezug der relevanten Stakeholder entwickelt werden. Dies umfassen primär Vertreter:innen der Zivilgesellschaft, Entwickler:innen von KI-Systemen sowie deren Anwender:innen (Unternehmen und Behörden). Mit Blick auf die Fokusbereiche werden zudem Personen aus der öffentlichen Verwaltung ebenso wie Vertreter:innen der Medien und Informations-Intermediäre beigezogen. Die genannten Stakeholdergruppen werden bereits in frühen Projektphasen im Rahmen von Multi-Stakeholder-Dialogen konsultiert. Dieses Vorgehen stellt sicher, dass ihre Bedürfnisse und Erfahrungen angemessen in die Entwicklung der Rechtsnormen und White Papers einfliessen können.

 

Datenschutz und Forschung

Angetrieben von Durchbrüchen in der Datenverarbeitung wurden im Bereich der datenintensiven Forschung in den vergangenen Jahren grosse Fortschritte erzielt. Bei den Daten, die für diese Art von Forschung notwendig sind, handelt es sich regel-mässig um Personendaten im Sinn des Datenschutzrechts. Dies gilt umso mehr, als der Begriff der Personendaten als Folge der technischen Entwicklung in der Praxis der Gerichts- und Verwaltungsbehörden laufend ausgedehnt worden ist. Unzählige Forschungsprojekte müssen deshalb sicherstellen, dass die Vorgaben des Daten-schutzrechts eingehalten werden.

Die Konzepte und Ansätze des geltenden europäischen und schweizerischen Datenschutzrechts wurden allerdings lange vor dem Aufkommen der neuen, datengetriebenen Forschungsansätze entwickelt. Entsprechend fehlt in diesen Datenschutzgesetzen ein strukturierter Umgang mit den Herausforderungen datenbasierter Forschung und es wird teilweise davon ausgegangen, dass sich die Probleme durch einfache Mittel (Anonymisierung oder Publikation von Ergebnissen in anonymisierter Form) lösen lassen. Dies ist heute aber kaum noch der Fall. Dies sorgt bei vielen Forschenden für Unsicherheit darüber, welche Forschungsarbeiten unter welchen Voraussetzungen zulässig sind. Dies kann zwar im Einzelfall durchaus beantwortet werden; die Rechtsunsicherheit ist aber (auch für spezialisierte Juristen) erheblich. Weitgehend ungeklärt ist namentlich, wie die Interessen innerhalb des datenschutzrechtlichen Normensystems ausgeglichen werden sollen, insb. das Erkenntnisinteresse der Allgemeinheit und die Interessen der betroffenen Individuen am Schutz ihrer Privatsphäre und/oder an der «informationellen Selbstbestimmung». Diese Interessenabwägung spiegelt sich auch in einer Grundrechtskollision, namentlich zwischen der Wissenschaftsfreiheit (Art. 20 BV) und dem Schutz von persönlicher Freiheit und Privatsphäre (Art. 10 und 13 BV).

Die Rechtsunsicherheit schafft die Gefahr, dass vielversprechende Forschungs-projekte nicht durchgeführt werden oder sich Verzögerungen oder hohe Kosten ergeben. Dies liesse sich bei einer hinreichend klaren Rechtslage weitgehend vermeiden. Hinzu kommt die derzeit vielzitierte Gefahr, dass Europa in Forschung und Entwicklung wegen der strengen Vorgaben im Datenschutzrecht gegenüber den USA und China zurückfällt.

Vor diesem Hintergrund macht das ITSL das Thema «Datenschutz und Forschung» im laufenden Jahr (und teilweise auch darüber hinaus) zu einem Forschungs-schwerpunkt. Ziel ist es, in der Schweiz und darüber hinaus massgebliche Beiträge zur Frage zu leisten, wie das Datenschutzrecht ausgelegt und angewendet werden kann, um Forschung weitgehend zu ermöglichen – ohne dabei die schützenswerten Interessen der betroffenen Personen zu gefährden.

Governance von Desinformation in digitalisierten Öffentlichkeiten

Gemeinsames Forschungsprojekt des Center for Information Technology, Society, and Law (ITSL) und des Forschungszentrums Öffentlichkeit und Gesellschaft (fög) der Universität Zürich.

Desinformationen haben im Kontext der Digitalisierung an Bedeutung gewonnen. Neue Kommunikationskanäle, allen voran Social Media und Messengerdienste wie Whatsapp, Telegram oder Signal, ermöglichen den kommunikativen Austausch und die Verbreitung von Information an ein grosses Publikum, darunter auch absichtlich und unabsichtlich verbreitete Falschnachrichten. Auch in der Schweiz herrscht aktuell eine erhöhte Sorge um problematische Auswirkungen von Desinformation.

Blickt man auf die Governance von Desinformation, besteht derzeit ein Flickenteppich von Lösungsansätzen, Regeln und Instanzen. Die Thematik wurde bislang entweder aus kommunikations- und medienwissenschaftlicher oder aus juristischer Perspektive angeschaut, die beiden Perspektiven jedoch noch nie verknüpft. Ziel unseres Forschungsprojektes ist es nun, aufzuzeigen, wo konkret Regelungs- und Durchsetzungslücken bestehen. Diese Erkenntnisse bilden die Grundlage für die Formulierung von Governance-Optionen von Desinformation, die staatliche, organisationale und individuelle Massnahmen berücksichtigt und gegebenenfalls als Anstoss für politische und gesetzliche Massnahmen fungieren kann.

Governance-Mechanismen für den Zugang zu und die Nutzung von Daten in Gesundheitskrisen

Gemeinsames Forschungsprojekt des Center for Information Technology, Society, and Law (ITSL) der Universität Zürich und der Universität Genf.

Der Zugang zu Daten für die Entscheidungsfindung ist in einer Krise im Bereich der öffentlichen Gesundheit von grösster Bedeutung. Wie sich in der aktuellen Krise gezeigt hat, ist der Zugang zu und die effektive Nutzung von relevanten Daten nicht immer möglich. Das Forschungsprojekt zielt darauf ab, bestehende Barrieren für den Zugang und die Nutzung von Daten in Krisen im Bereich der öffentlichen Gesundheit zu identifizieren und alternative Governance-Mechanismen zu entwickeln, um den Zugang zu und die Nutzung von Daten zu erleichtern, die zur Bewältigung der Krise benötigt werden.

Vor allem kulturelle, rechtliche und infrastrukturelle Barrieren wurden als Hauptformen von Barrieren identifiziert. Um diese Barrieren zu überwinden, sind erhebliche Fortschritte in Bezug auf Datenkompetenz, Interoperabilität und neuartige datenschutzrechtliche Ansätze notwendig. Während der Fokus dieses Projekts auf der Verbesserung des Zugangs und der Nutzung von Daten in Krisenzeiten liegt, sind einige grundlegende Veränderungen notwendig, die auch für "normale" Zeiten gelten, um angemessene Reaktionen auf zukünftige Krisen im Bereich der öffentlichen Gesundheit zu ermöglichen.

Rethink Privacy!

Der Schutz der Privatsphäre ist entscheidend für das individuelle und soziale Wohlbefinden. In der digitalen Welt hinterlassen wir – wissentlich oder unwissentlich – unzählige Datenspuren. Die heutigen allgegenwärtigen Datenverarbeitungspraktiken von Unternehmen und Behörden setzen an diesen Datenspuren an und können so auf vielfältige Weise unsere Privatsphäre beeinträchtigen.

Das Forschungsprojekt „Rethink Privacy!“ setzt sich vertieft mit den Gefahren dieser Datenverarbeitungspraktiken für den Einzelnen und die Gesellschaft auseinander. Um sicherzustellen, dass die Verarbeitung von Datenspuren letztlich dem Einzelnen und der Gesellschaft zugutekommt, wollen wir bestehende Konzepte zum Schutz der Privatsphäre neu überdenken. Dies geschieht aus vier verschiedenen Perspektiven: Jener der Philosophie, der Kommunikationswissenschaft, des Rechts und der Technik.

Das Forschungsprojekt ist in drei Teile gegliedert: Im ersten Teil – „Deconstructing Privacy“ werden Definitionen und Wahrnehmungen untersucht, welche mit dem Begriff „Privatsphäre“ verknüpft sind. Ebenfalls analysiert werden die bestehenden Mechanismen zu deren Schutz. Darauf aufbauend geht der zweite Teil – „Reshaping Privacy“ - von der Annahme aus, dass die Verarbeitung von Datenspuren für den Einzelnen und die Gesellschaft sowohl nützlich als auch schädlich sein kann, dass aber die derzeitigen regulatorischen und technischen Versuche, Schäden („harms“) zu vermeiden, nicht überzeugen. Wir untersuchen exemplarisch drei (potenzielle) Schäden der Verarbeitung von Datenspuren im Detail: Manipulation, Diskriminierung und Abschreckungseffekte (sog. „Chilling Effects“). Durch die Analyse dieser konkreten Schäden entwickeln wir ein besseres Verständnis dafür, wie Einzelpersonen, Gruppen und die Gesellschaft insgesamt durch die Bearbeitung von Datenspuren betroffen sind. Im dritten Teil – „Governing Privacy“ – erarbeiten alle Disziplinen gemeinsam Regeln, die darauf abzielen, Schäden zu minimieren, welche durch die Verarbeitung von Datenspuren verursachten werden und gleichzeitig die Vorteile dieser Verarbeitungspraktiken zu nutzen.

 

Abgeschlossene Forschungsprojekte:

ScanVan

Das ScanVan-Projektteam an der EPFL hat eine neue "sphärische" Kamera und spezielle Algorithmen entwickelt, um die 3D-Digitalisierung von Schweizer und europäischen Städten zu ermöglichen. Während herkömmliche Kameras immer ein begrenztes Sichtfeld haben, ist die ScanVan-Kamera in der Lage, Bilder in alle Richtungen gleichzeitig aufzunehmen. Das System wird auf einem Fahrzeug montiert, welches den aufzunehmenden Bereich abfährt. Mittels Photogrammetrie wird aus den Bildern eine 3D-Punktwolke des erfassten Bereichs erzeugt. Das Projekt wurde vom Schweizerischen Nationalfonds im Rahmen des NFP 75 "Big Data" gefördert.

Das ITSL ist dem Projekt im Frühjahr 2020 beigetreten, um die möglichen Datenschutzprobleme des Projekts im Lichte des schweizerischen und europäischen Datenschutzrechts zu analysieren. Der Input führte zur Umsetzung verschiedener Massnahmen zur Umsetzung von Privacy by Design. Das Interface wurde so konzipiert, dass dieser Aspekt in ihrer Funktionsweise integriert ist. Es wurden Algorithmen programmiert, um Personen und Fahrzeuge aus den aufgenommenen sphärischen Bildern zu löschen. Zusätzlich erlaubt das User Interface jedem Nutzer auf einfache Weise, auf mögliche Datenschutzprobleme hinzuweisen und deren Entfernung zu verlangen.

ScanVan: Data Protection Analysis (PDF, 2 MB) (Englisch)

Weitere Informationen zu diesem Projekt finden Sie auf der ScanVan-Projektwebsite und im folgenden Video:

YouTube: ScanVan

 

Automatisierte Entscheidungen

Der technische Fortschritt – insbesondere im Bereich der künstlichen Intelligenz (KI) bzw. des maschinellen Lernens – führt dazu, dass in immer mehr Bereichen des täglichen Lebens automatisierte Entscheidungen gefällt werden. Weil es letztlich Algorithmen sind, die anhand bestimmter entscheidungsrelevanter Parameter ein Resultat vermitteln, ist nicht nur von „automatisierten“, sondern auch von „algorithmischen“ Entscheidungen bzw. Einzelentscheidungen die Rede.

Auch die Gesetzgeber sind auf die Automatisierung des Alltags und die damit einhergehende Delegation gewisser Entscheidungen von Menschen an Maschinen aufmerksam worden. So adressiert seit Mai 2018 die in der Europäischen Union geltende Datenschutzgrundverordnung (DSGVO) in einigen Bestimmungen und Erwägungen dieses Phänomen. Trotz dieser bereits bestehenden Ansätze, steht die Forschung zur Frage, wie grundsätzlich aus rechtlicher und regulatorischer Sicht mit automatisierten Entscheidungen umgegangen werden soll, noch am Anfang.

In diesem von der Hasler Stiftung finanzierten Forschungsprojekt untersucht das ITSL einerseits die Natur und Charakteristika automatisierter Entscheidungen und prüft andererseits den Bedarf nach und die Ausgestaltung einer allfälligen Regulierung. Das Zusammenführen dieser beiden komplementären Teile ermöglicht Antworten auf die zentrale Forschungsfrage, wie aus rechtlicher und regulatorischer Sicht mit automatisierten Entscheidungen umzugehen ist.

Im Rahmen dieses Projektes fand am 13. November 2019 eine öffentliche Veranstaltung statt. Einzelne Beiträge dieser Veranstaltung wurden in erweiterter Form Anfang 2020 in der Schweizerischen Zeitschrift für Wirtschafts- und Finanzmarktrecht veröffentlicht. Zudem hat das ITSL vom 12. bis zum 14. September 2019 einen vom Schweizerischen Nationalfonds (SNF) geförderten internationalen Expertenworkshop mit Rechts- und Kommunikationswissenschaftlern sowie Informatikern durchgeführt. Eine Zusammenfassung des Workshops findet sich hier (PDF, 440 KB)

 International Expert Workshop
Zoom (JPG, 2 MB)
International Expert Workshop, 09/2019, Lavin
 International Expert Workshop
Zoom (JPG, 2 MB)
International Expert Workshop, 09/2019, Lavin
 International Expert Workshop
Zoom (JPG, 1 MB)
International Expert Workshop, 09/2019, Lavin
 International Expert Workshop
Zoom (JPG, 999 KB)
International Expert Workshop, 09/2019, Lavin

Forschungsgruppe Künstliche Intelligenz (Stiftung für Technologiefolgen-Abschätzung)

Im Auftrag der Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) führte das ITSL zusammen mit anderen Forschenden aus der Schweiz und Österreich eine interdisziplinäre Studie über die Risiken und Chancen der Künstlichen Intelligenz (KI) durch. Die Forschungsgruppe bestand aus Forschern aus den Bereichen Informatik, Betriebswirtschaftslehre, Wirtschaft, Erziehungswissenschaften, Kommunikationswissenschaften, Recht und Ethik. Hauptziel der Studie war es, die politischen Entscheidungsträger in die Lage zu versetzen, fundierte Entscheidungen in Bezug auf die KI zu treffen. Die interdisziplinäre Studie bewertet die Auswirkungen von KI die vier Bereiche der Arbeitswelt, der Bildung, des Konsums und der Verwaltung. Ein Schwerpunkt liegt auf Deep-Learning-Algorithmen. Die Studie ist im April unter dem Titel «Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz» erschienen, wurde an einer online-Medienkonferenz vorgestellt und ist hier erhältlich.

Grundlagen des Rechts auf Privatsphäre

Die Entwicklungen der Informations- und Telekommunikationstechnik ermöglichen heute die massenhafte Erfassung und Auswertung von Personendaten. In den Mittelpunkt rückt dadurch das Recht auf Privatsphäre. Die Konturen dieses Rechts auf Privatsphäre sind aber relativ unscharf geblieben, obwohl seine Wurzeln bis zur Allgemeinen Erklärung der Menschenrechte (AEMR) ins Jahr 1948 zurückreichen. Das Forschungsprojekt arbeitet die Grundlagen des Rechts auf Privatsphäre auf und untersucht, wie das moderne Datenschutzrecht daran ansetzt.

Zwischen Solidarität und Personalisierung - Big Data im Versicherungswesen

Unternehmen der Versicherungsbranche haben ein grosses Interesse an Big Data-Anwendungen. Mittels profiling, predictive analytics oder quantified self-Anwendungen lassen sich Risiken der Versicherungsnehmer viel genauer eingrenzen. Andererseits gründen Versicherungssysteme moralisch auf dem Prinzip der Solidarität; individuelle Risiken sollen auf eine grössere Gruppe verteilt werden. Diesen für die Herausforderungen der Digitalisierung paradigmatischen Zielkonflikt hat ein vom Nationalen Forschungsschwerpunkt NFP 75 – Big Data gefördertes Projekt untersucht, an dem das ITSL beteiligt war. Das Projekt verband interdisziplinär Forschende aus Ethik, Wirtschaftswissenschaft und Recht. Die Ergebnisse dieser Forschung sind hier publiziert

Eigentum an Daten

Die Zunahme datengetriebener Geschäftsmodelle und der damit zusammenhängende Bedeutungs- und Wertgewinn von Daten hat die Frage in den Vordergrund gerückt, ob Daten jemandem gehören und, wenn ja, wem. Obwohl das Thema bereits auf der politischen Tagesordnung steht, sind zentrale rechtliche Fragen bislang offen oder nur kursorisch beantwortet worden. In einem von der Hasler Stiftung finanzierten einjährigen Forschungsprojekt werden diese grundlegenden Fragen in Bezug auf ein mögliches Ausschliesslichkeitsrecht an Daten erörtert: Wie liesse sich ein solches Recht begründen? Wie hätte es auszusehen? Wie müsste das Recht beschränkt und wie könnte es implementiert werden?

Im Rahmen dieses Projektes fand am 29. März 2017 eine öffentliche Veranstaltung statt. Zudem hat das ITSL vom 6. bis zum 8. Juli 2017 einen vom Schweizerischen Nationalfonds (SNF) geförderten internationalen Expertenworkshop mit Rechtswissenschaftlern und Informatikern durchgeführt. Eine Zusammenfassung des Workshops findet sich hier (PDF, 223 KB).

 International Exploratory Workshop
Zoom (JPG, 1 MB)
International Exploratory Workshop, 07/2017, Schaffhausen
06.-08.07.2017
Zoom (JPG, 1 MB)
 
International Exploratory Workshop, 07/2017, Schaffhausen