Nouvelles technologies
Créé en 2018, Impact AI est un collectif de réflexion et d'action pour éclairer les enjeux éthiques et sociétaux de l’intelligence artificielle (IA). Pour Marcin Detyniecki, chief data scientist chez AXA et membre fondateur d’Impact AI, l’IA est un outil qu’il convient d’encadrer pour profiter de tout son potentiel.

Inclusion et diversité, neutralité des algorithmes, sensibilisation et éducation au numérique, soutien aux projets innovants et positifs… Impact AI est un think tank concentré sur le développement éthique et responsable de l’intelligence artificielle (IA). Initiative française lancée par 30 entreprises dans la foulée de la présentation de la stratégie nationale en intelligence artificielle en mars 2018, le collectif accueille les grands groupes, les entreprises de taille intermédiaire (ETI), les PMEs et les start-ups, les institutions, les organismes de recherche ou de formation et les acteurs de la société civil et regroupe quelques soixante entreprises membres aujourd’hui.



Quel est le rôle du collectif Impact IA?

Notre mission est d’intérêt général. A travers nos productions (études, événements, baromètre, livres blancs...), notre ambition est de nourrir le débat public, stimuler et accompagner l’émergence d’une IA de confiance, et formuler des recommandations aux pouvoirs publics. Nous soutenons le développement et le partage d’outils favorisant l’usage responsable de l’IA. La sensibilisation, la formation et l’éducation font partie de nos chantiers prioritaires. Nous élaborons également un rapport annuel sur l’impact de l’IA en France en nous appuyant sur les retours d’expérience de nos membres ainsi qu’un baromètre sur la perception des Français face à ces technologies.



En quoi l'intelligence artificielle pose-t-elle des questions éthiques?

Dans l’imaginaire collectif, l’IA est souvent personnifiée. Mais il faut la considérer plutôt comme un outil. La comparaison avec le marteau est intéressante: c’est son utilisation qui peut être soit dangereuse (assommer quelqu’un), soit utile (construire un abri). Néanmoins, c’est un outil qui par nature est un défi pour l’homme. Le machine learning en particulier, qui permet aux machines d’apprendre par elles-mêmes, pose le problème de «l’effet boîte noire». C’est-à-dire que personne, ni même leurs concepteurs, n’est capable d’expliquer comment fonctionnent les réseaux neuronaux, tant ils sont complexes. Il est donc important de le savoir et d’être transparent quand on manipule ces techniques. L’autre problème inhérent à l’IA, c’est qu’elle est dépendante de la data. L’humain qui l’utilise est donc susceptible de reproduire des biais, à l’instar de la discrimination.



Dans quels cas une innovation peut-elle être interdite pour des raisons éthiques?

En matière de régulation, l’IA est traitée avec les sujets relatifs à la data, notamment dans le domaine de la vie privée. Les règlementations ne sont donc pas spécifiques à l’IA, mais elles contraignent l’application de l’IA dans certains contextes. Et c’est toujours en analysant son utilisation que la loi va statuer, au regard de certaines dérives qu’elle suppose. Par exemple, une décision de justice ne peut pas être motivée sur la base des résultats d’un système à «effet de boîte noire». Car un juge doit toujours expliquer sa décision. Pour prendre un autre cas, celui de la reconnaissance faciale, il n’existe pas de consensus mondial. En Asie, le principe est largement en vigueur, tandis qu’elle est interdite en Californie par exemple. Mais la tendance générale est à la méfiance des sociétés envers la surveillance biométrique à distance. Par ailleurs, sans être officiellement interdite, il y a un consensus international autour de l’idée que l’IA ne doit pas faire croire qu’elle est humaine. Elle doit toujours se présenter en tant que robot.



Les entreprises françaises sont-elles assez équipées en matière d’éthique de l’IA?

La première réaction a été de publier des chartes éthiques, pour se montrer transparentes sur les difficultés, voire les dangers de l’IA. Ce qui a été généralement perçu comme de l’«ethical washing». Dans les faits, en tout cas concernant les membres d’Impact AI, la rédaction de ces chartes a été le commencement d’une réflexion primordiale et d’initiatives concrètes d'implémentation. Cela a donné lieu à la création de comités éthiques pour mener des arbitrages, rédiger des textes, créer des règles, etc. Mais cela a également permis de travailler sur la culture d’entreprise et d’avancer en termes de formations des collaborateurs.



Comment les entreprises peuvent-elles garantir que leur utilisation de l’IA est responsable?

La solution à court ou à moyen terme, c’est de se munir d’une gouvernance qui permette d’identifier et de nommer des responsables de ce sujet en interne. D’autant que cela devient un besoin fort des utilisateurs, qui sont désormais informés et comprennent les enjeux. A long terme, il est nécessaire d’investir dans la recherche. De manière générale, ces sujets ne doivent pas être perçus comme des contraintes. Une IA digne de confiance peut même représenter un avantage économique, compétitif.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.