Digital Society Forum Digital Society Forum
Partenaires 10/07/2019

Quatre propositions pour une intelligence artificielle responsable et inclusive

Face aux défis sociaux et éthiques que représente l’IA, pour les entreprises, les institutions et les particuliers, le collectif Impact AI s’est constitué en 2018, pour lancer des réflexions collectives, structurer des groupes de travail, produire des connaissances et lancer des pistes.
Le collectif, dont le Digital Society Forum fait partie, regroupe également des grandes entreprises, des entreprises de services numériques, des sociétés de conseil en stratégie, des start-up et des écoles.

Quatre grandes propositions


A l’issue de sa première année de travail, le collectif vient de faire paraître un livre blanc .
Il y énonce notamment quatre propositions pour un engagement collectif, visant à développer un usage responsable et à impact positif, que tout membre se doit de respecter :

- Assurer les conditions d’un meilleur partage des données personnelles,
- Bâtir les conditions de la confiance,
- Encourager l’IA inclusive
- Préparer les jeunes aux métiers de demain

Et quatre grands thèmes


Cette année, les réflexions ont porté sur quatre grands thèmes : Education, IA for good, IA responsable et Observatoire. Chacun a donné lieu à la création d’un groupe de travail dédié.

L’Observatoire étudie la façon dont les Français perçoivent l’IA dans leur vie personnelle et professionnelle, pour identifier des sujets de travail prioritaires. Le travail et la santé sont ainsi apparus comme deux domaines où les Français estiment que la révolution de l’IA se fera particulièrement sentir.

Le groupe IA responsable s’est concentré sur la définition d’une IA responsable. Celle-ci est définie comme «une intelligence artificielle conçue pour rester toujours sous le contrôle humain. Elle est fiable et robuste c’est-à-dire qu’elle fait ce qu’elle promet et que son fonctionnement garantit sûreté et sécurité. Elle est aussi respectueuse du droit, du consentement de l’utilisateur, de la vie privée et des libertés fondamentales ; son fonctionnement est explicable et transparent.»
Pour le groupe de travail, l’IA responsable doit l’être by design, dès sa conception. Pour en faciliter le développement et l’adoption, le groupe a mis en place une boîte à outils dédiée.

Le groupe chargé de l’éducation s’est penché sur le défi de la formation à l’IA, dans un monde où « On estime à ce jour que 85 % des métiers de 2030 n’existent pas encore ». Pour « développer l’intelligence artificielle d’aujourd’hui qui permettra l’éclosion de ces emplois de demain », il faut donc développer la formation des salaries en entreprises mais aussi en formation initiale, pour les jeunes générations. Pour aller dans cette direction, le groupe a développé une cartographie des formations existantes et lance un premier atelier participative avec des professionnels du domaine.

Enfin le groupe IA for good veut inclure les usages de l’IA dans le champ de la « Tech for good », les usages de la technologie pour le bien commun et le progrès social. Le collectif se donne pour mission « de détecter, de sélectionner et d’accompagner concrètement des associations et entreprises sociales et solidaires innovantes qui démultiplieront leur impact grâce à l’IA.” En 2018-2019, trois projets ont été sélectionnés de façon pilote, dans les domaines de l’éducation, de la santé et du handicap.

Découvrez le détail des réflexions et des propositions dans le Livre Blanc, à télécharger ici




Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF