Montréal: Une déclaration pour une IA responsable en décembre 2018

Le 14 juin dernier, une étape de plus dans le développement d’une éthique de l’intelligence artificielle a été franchie. Les premiers résultats des recherches et débats concernant la Déclaration de Montréal pour une IA responsable ont été dévoilé dans le cadre de l’événement Frontière IA au virage campus MIL, nouvel espace dédié à l’innovation. La déclaration finale quant à elle doit voir le jour en décembre 2018.

Pourquoi une déclaration éthique?

L’idée de cette déclaration, visant à réguler les utilisations de l’IA, vient d’un groupe de chercheurs de l’Université de Montréal et de figures de proue dans le domaine de l’intelligence artificielle dont, entre autres, Yoshua Bengio, titulaire au département d’informatique et de recherche opérationnelle de L’UdeM et directeur du Mila, un institut de recherches international sur les algorithmes, Marc Antoine Dilhac, chercheur en philosophie à l’UdeM et Christophe Abrassart, codirecteur scientifique de la coconstruction et membre du centre de recherche en éthique.

« Les balises de la pré-déclaration ont été posées et présenté les 2 et 3 novembre derniers lors d’un forum sur l’IA, et elles sont en fait des valeurs fondamentales sur lesquelles il est absolument nécessaire d’apposer une réflexion en lien avec les intelligences artificielles » avait déclaré Mr Dilhac, en soulignant le fait qu’il s’agit d’un projet collectif.

C’est un domaine qui n’est pas encore bien balisé et nous avons des incertitudes à ce niveau-là. Des incertitudes qui concernent la qualité de vie des personnes, la protection de la vie privée, et de la démocratie même comme système qui nous permet de prendre des décisions collectives et de promouvoir le bien commun.

IA

À terme, l’objectif est de créer un document qui offrira une liste de recommandations concrètes sur les pratiques et usages de l’IA et qui tiendra compte du bien-être et de l’intérêt collectif dans le but d’éviter les dérives préjudiciables à l’humain.

« À l’heure actuelle, il y a encore un décalage entre la vitesse à laquelle la technologie progresse, et notre sagesse collective » a déclaré Yoshua Bengio. « Si on laisse les choses aller, ce n’est pas certain que ce sera pour le meilleur pour la plupart d’entre nous »

Une méthodologie participative

L’originalité de cette déclaration est qu’elle se construit en lien direct avec des informations recueillies auprès de la population via des rencontres thématiques qui impliquent des délibérations citoyennes. Recommandations via le site internet, questionnaires en ligne, mémoires, séances de consultations et délibérations publiques : l’implication des citoyens a été encouragé de multiples façons.

Au total des dizaines d’événements ont été organisés pour engager la discussion autour des enjeux sociétaux de l’intelligence artificielle et une quinzaine d’ateliers de délibération entre experts et citoyens ont été tenus sur plusieurs mois dans différents lieux publics de la région de Montréal. Cafés, bibliothèques, écoles; les lieux de discussions se sont multipliés afin d’inclure des participants de tout âge et milieux sociaux. Dans le but de recueillir des opinions diversifiées qui soient représentatives des enjeux auxquels le public est confronté. Au total, la participation active de plus de 500 citoyens, experts et parties prenantes a été enregistrée.

IAPourquoi impliquer directement le public? Comme l’explique Martin Gilbert, conseiller en éthique pour IVADO (institut de valorisation des données) et chercheur au centre de recherche en éthique à l’UdeM : « Se poser la question de l’éthique c’est répondre à la question : comment les choses devraient être? Mais ce n’est pas parce que c’est faisable que c’est moralement acceptable et que c’est souhaitable pour le plus grand nombre.  “Les répercussions de l’IA auront un impact direct sur les citoyens et le public, car elles interviennent dans tous les domaines.”

La collaboration entre chercheurs et citoyens s’est faite par le biais de scénarios concrets sur diverses thématiques (justice, bien-être, démocratie, autonomie, connaissance, responsabilité, vie privée) afin d’analyser concrètement les problématiques qui pourraient se poser et la façon dont elle pourrait influencer nos vies dans les prochaines décennies.

À l’heure actuelle les résultats de ces consultations sont loin d’être définitifs, mais les scénarios proposés ont permis de mettre en avant quelques préoccupations fondamentales du public; notamment la volonté de toujours conserver l’humain au centre dans un monde qui devient de plus en plus artificiellement intelligent.Il est possible de consulter les résultats de cette première étape de délibération sur le site internet de la déclaration de Montréal pour une IA responsable. Les rencontres se poursuivront à l’automne, et il sera de nouveau possible aux citoyens qui le souhaitent de s’impliquer avant le dévoilement des résultats finaux en décembre 2018.

«Nous souhaitons que cette déclaration soit l’étincelle à l’origine d’un large dialogue entre le public, les experts et les représentants des pouvoirs publics» explique le recteur de l’Université de Montréal, Guy Breton.


Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *