La Chaire

CHAIRE PLURALISME CULTUREL & ÉTHIQUE DU NUMÉRIQUE

Direction Joëlle Farchy,
Professeure à l’Université Paris1 Panthéon-Sorbonne

Les algorithmes et les applications de l’intelligence artificielle, l’utilisation massive d’Internet et des objets connectés, les prises de décision automatisées, la circulation colossale des données de tous ordres ont une influence croissante dans nos vies, nos libertés fondamentales et suscitent le débat public. Du fisc à la sécurité nationale, des médias à l’éducation, de la santé aux assurances, des banques à la justice, du transport au travail, tous les secteurs sont concernés.Capture decran 2019-10-28 a 11.36.44

D’aucuns y voient la promesse d’une humanité augmentée, capable de résister aux maladies et à la mort, quand ce n’est pas de conquérir d’autres planètes et d’y installer de la vie humaine. D’autres, comme Tim Berners Lee, fondateur du World Wide Web, sont plus critiques : le web aurait échoué à servir l’humanité comme il aurait dû le faire et à tenir les promesses de mettre le numérique au service de l’intérêt collectif. Dès lors, comment peut-on encore produire un sens commun, de la transparence, de la sécurité et de la confiance autour de ces outils afin de mieux les concevoir, les exploiter et les contrôler ?

La Chaire « Pluralisme culturel & Éthique du numérique » est née dans le but de nourrir la réflexion autour deux questions clés :

• la diversité et la qualité des contenus culturels et médiatiques,
• le traitement des données dans le respect de la vie privée et du débat démocratique.

 

Diversité et qualité des contenus culturels et médiatiques

L’offre de contenus, culturels ou informatifs, en ligne n’a jamais été aussi abondante et les plateformes numériques, ces grands infomédiaires, sont devenues la clef de voûte de leur circulation. Les plateformes ne se contentent pas de véhiculer ces contenus mais les amplifient, les orientent et les redirigent, notamment à l’aide de recommandations algorithmiques.

En filtrant les informations et contenus, les algorithmes sont susceptibles d’augmenter la propension des individus à ne fréquenter que des objets, des personnes, des opinions, des cultures conformes à leurs propres goûts et habitudes, et à rejeter l’inconnu au détriment du pluralisme et de la diversité culturelle. C’est la fameuse théorie de la « bulle de filtre » qui enfermerait les utilisateurs dans une information personnalisée à son paroxysme jusqu’à les parquer dans un environnement idéologique hermétique sans autre perspective informationnelle que celle correspondant à leurs intérêts étroits. À l’inverse, le numérique peut également ouvrir les individus, par le biais de recommandations appropriées, à la découverte de nouveaux univers.

Cette nouvelle ère nécessite donc des formes inédites d’apprentissage, de décryptage par les utilisateurs mais également de régulation publique plus en accord avec les usages. Les outils en faveur de la diversité, centrés sur la présence de contenus dans l’offre des opérateurs, semblent en effet peu adaptés à un monde délinéarisé et personnalisé. Les acteurs traditionnels comme les nouveaux entrants ont, de plus, besoin de références statistiques objectives communes et renouvelées afin de s’adapter. La question de la visibilité des contenus, de leur « découvrabilité » et des mécanismes de recommandation opaques qui parviennent à transformer l’offre en demande des internautes, devient centrale.

Enfin, les rumeurs, diffamations, contenus haineux, autrefois portés par le bouche-à-oreille, trouvent un nouvel écho à l’ère d’Internet et des réseaux sociaux qui en permettent une circulation et une diffusion massive et rapide, d’autant plus problématique lorsque le modèle économique de valorisation du « clic » facilite l’émergence d’une industrie de l’information de basse qualité.

 

 

Traitement des données dans le respect de la vie privée et du débat démocratique

Dans les agendas politiques européens et nationaux, le traitement et l’exploitation des données sont identifiés comme des leviers majeurs de compétitivité dans la mesure où l’intelligence artificielle s’appuie sur des quantités considérables de données d’apprentissage. Une approche économique soutenable, à la fois du point de vue des équilibres économiques et de la protection des citoyens, nécessite cependant un encadrement et des formes de gouvernance claires de ces traitements. Les entreprises doivent en effet rendre compatibles la récupération massive de données personnelles, au cœur des modèles de l’économie numérique, et soigner leur bonne réputation liée à la confiance que les internautes leur accordent.

De même, une approche juridique tenable nécessite de ne pas occulter le lien entre les personnes et leurs données, marqueurs de leurs comportements, goûts, habitudes ... dans une société de surveillance massive. Les données en provenance d’objets connectés, de plus en plus nombreux, sont notamment sources de potentialités considérables de contrôle, d’utilisation marchande, de prévision ou de prédiction.

Le règlement général pour la protection des données (RGPD), entré en application le 25 mai 2018, introduit le cadre juridique européen d’une économie numérique respectueuse des libertés individuelles. Il compose désormais un modèle pour nombre d’autres pays et continents. Les données personnelles auxquelles s’applique le RGPD, constituent en effet une part très substantielle du développement de l’économie numérique et des traitements algorithmiques. A elles seules, les données personnelles n’en épuisent cependant pas le champ.

Les prises de décision automatisées portent des risques de biais, discriminations et exclusions potentiels. La personnalisation très fine des services que permet l’exploitation massive de données pose des questions éthiques lorsqu’elle remet en question le principe de mutualisation : le contrat social associé, notamment dans certains domaines comme l’assurance ou la santé, est en passe d’être rediscuté. De plus, un algorithme qui jouit d’un fort degré d’autonomie interroge sur la déresponsabilisation éventuelle de l’humain, celui-ci ayant délégué à la machine la prise de certaines décisions. Dans ce contexte, comment éviter de laisser émerger des pratiques qui autorisent des choix éthiques pris par un petit groupe de techniciens au mépris du débat démocratique ?

 Capture decran 2019-10-28 a 11.46.07

 

Objectifs

La Chaire se donne trois objectifs :

  • Objectiver les pratiques. La construction d’un observatoire statistique constitue une priorité afin de produire des études et analyses de marché et de fournir des outils d’aide à la décision pour les opérateurs privés et publics.
  • Construire un espace d’échanges. Une approche académique pluridisciplinaire permet de développer l’apport des sciences humaines et sociales aux formations des ingénieurs, informaticiens ou data scientists. Il s’agit également de mêler l’approche du monde académique avec les attentes des usagers, des entreprises et des régulateurs afin de confronter les points de vue.
  • Sensibiliser les citoyens. Un réel effort de communication, de pédagogie, d’acculturation doit être fourni afin de sensibiliser le public au fonctionnement des nouvelles technologies. Des rencontres entre chercheurs, entrepreneurs, régulateurs et membres de la société civile seront organisées autour de journées de formation et de conférences débat. Des publications (sous forme de vidéo ou d’articles) seront réalisées pour assurer une large diffusion d’un approche éthique et pluraliste du numérique

La Chaire a donc vocation à devenir une plateforme de ressources et d’échanges où convergent les chercheurs ainsi que les acteurs publics et privés qui souhaitent étudier, partager, comprendre et se former aux enjeux du monde numérique en construction.

 

Les enseignants chercheurs mobilisés dans la chaire

La Chaire fonctionne de manière souple et réactive en mobilisant, selon les projets, un réseau national et international d’experts. A titre indicatif, les enseignants – chercheurs suivants ont fait part de leur intérêt pour la démarche portée par la Chaire :

  •        Martine BEHAR-TOUCHAIS, PR, EDS-Institut de recherche juridique de la Sorbonne, Sorbonne Affaires
  •        Jean BEUVE, MCF, Centre d’économie de la Sorbonne
  •        David BIHANIC, MCF, Ecole des arts de la Sorbonne
  •        Nicolas HERBAUT, MCF, Centre de recherche en informatique
  •        Cécile MÉADEL, PR, Centre d’Analyse et de recherche interdisciplinaire sur les médias (Carism)
  •        Emmanuel PICAVET, PR, Centre de Philosophie Contemporaine de la Sorbonne
  •        Judith ROCHFELD, PR, EDS-Institut de recherche juridique de la Sorbonne-DReDIS