Blogs DHNET.BE
DHNET.BE | Créer un Blog | Avertir le modérateur

Permettre l’émergence de l’IA en France

La France doit réaffirmer sa souveraineté et définir un cadre de confiance pour l’utilisation de l’intelligence artificielle au bénéfice de ses citoyens, en tenant compte du cadre européen. La protection des données (en particulier, mais pas uniquement, des données personnelles des citoyens) est un enjeu critique : le partage d’information et de données est en effet un facteur clé de succès du développement des usages liés à l’intelligence artificielle mais ce partage de données fait aussi apparaître des risques importants en matière de protection de la vie privée et d’atteinte à la dignité humaine : risque de disparition de la vie privée du fait de la collecte massive de données personnelles, de la possibilité de « désanonymiser » certaines données, du profilage très poussé permis par l’apprentissage profond ; risque de perte de contrôle au profit des machines, etc. Pour prévenir ces risques, le traitement de ces données devra se faire en pleine adéquation avec les lois et règlements en vigueur, au niveau national comme européen. La France devra également être en mesure de définir des restrictions en matière de circulation des données lorsque les objectifs essentiels de politique publique le justifient. La rédaction de ces lois et règlements doit aussi s’appuyer sur une réflexion prospective qui reste à faire et qui demande une prise de conscience ainsi qu’une formation adaptée des acteurs du secteur législatif et juridique. Dans ce contexte, le principe d’autodétermination informationnelle introduit par la loi pour une République numérique apporte une maîtrise supplémentaire par chaque citoyen des données personnelles le concernant. Les dispositions de cette même loi sur la transparence des algorithmes publics ont des conséquences directes sur l’édification d’un climat de confiance relatif aux traitements des données réalisées par des algorithmes d’intelligence artificielle. L’information des citoyens sur l’usage de leur données prévu par la loi « informatique et libertés » et le nouveau règlement européen relatif aux données personnelles sont des éléments clés dans ce contexte. Mais il devra être envisagé d’aller plus loin encore en travaillant notamment au plan technique à la définition de solutions sécurisées et respectueuses de la vie privée par défaut (« privacy par design » et « security by design »), en renforçant la compréhension de ce que font réellement les systèmes reposant sur l’intelligence artificielle, et en améliorant la transparence sur les traitements réalisés par les systèmes intelligents. La définition et la mise en place de schéma de certification ou de validation du niveau de robustesse ou de fiabilité d’une “intelligence artificielle” constituent un objectif prépondérant en matière de renforcement de la confiance. Il ne pourra être atteint que par la mobilisation de l’ensemble des acteurs. La France doit par ailleurs se poser la question de sa souveraineté à l’aune de l’émergence de l’intelligence artificielle : cette nouvelle situation remet-elle en cause la capacité de la France à assurer la protection de ses objectifs essentiels ? La France maîtrise-t-elle seule ou en coopération au niveau européen les technologies clés de l’intelligence artificielle et les services associés sur l’ensemble de la chaîne de valeur ? Dispose-t-elle en son sein de l’ensemble des compétences pour assurer cette protection ? En matière de souveraineté et de sécurité nationale en effet, l’intelligence artificielle, comme la plupart des technologies du numérique, fait apparaître à la fois de nouvelles opportunités et de nouvelles menaces potentielles. L’IA met ainsi en évidence le risque de nouvelles dépendances économiques, vis-à-vis de détenteurs de certaines technologies critiques ou, ce qui est plus nouveau, de détenteurs de gros volumes de données. Le risque d’affaiblissement de notre souveraineté nationale du fait du développement de l’intelligence artificielle reste, à ce stade, appréhendé de façon assez générale et devrait faire l’objet d’investigations plus approfondies. Mais a contrario, l’intelligence artificielle apparaît comme une opportunité de moderniser les systèmes de protection et de défense des systèmes d’information en complément de l’expertise humaine. La détection de failles de sécurité, de fuites de données voire l’automatisation de certaines tâches de traitement d’incident par l’intelligence artificielle sont aujourd’hui devenues des réalités.

Les commentaires sont fermés.