Pourquoi il faut réguler l’intelligence artificielle

© iStock

Aucun robot tueur n’a encore fait son apparition mais les organismes de réglementation doivent réagir dès maintenant à l’IA.

La simple mention de l’expression ” intelligence artificielle ” (IA) peut évoquer des visions apocalyptiques de robots tueurs déchaînés, comme ceux que l’on voit dans les films de la saga Terminator, ou inspirer des craintes de pertes d’emplois généralisées dues au remplacement des humains par des machines. La réalité, à l’aube de 2019, est plus prosaïque : l’IA permet de dicter des messages texte au lieu de les taper, ou d’invoquer de la musique par le biais d’un haut-parleur intelligent posé sur le plan de travail de la cuisine. Cependant, cela ne signifie pas pour autant que les décideurs politiques peuvent ignorer l’IA. Dès lors qu’elle est utilisée dans un nombre croissant de domaines, il devient légitime de craindre d’éventuels impacts involontaires. Comment les organismes de réglementation devraient-ils réagir ?

La réponse n’est pas de créer un ensemble spécifique de lois relatives à l’IA.

La préoccupation immédiate est que la ruée vers l’acquisition des données nécessaires à la formation des systèmes d’IA empiète sur la vie privée. Surveiller tout ce qu’ils font en ligne, du shopping à leurs lectures, en passant par leurs publications sur les réseaux sociaux, permet aux géants d’Internet de créer des profils personnels détaillés qui peuvent être utilisés pour cibler des publicités ou recommander des articles susceptibles d’intéresser certaines personnes. La meilleure réponse à ce phénomène n’est pas de réglementer directement l’utilisation de l’IA, mais plutôt de se concentrer sur les règles relatives à la collecte, au traitement et au stockage des données à caractère personnel.

Le RGPD, un ensemble de règles sur la protection des données et de la vie privée introduit par l’Union européenne en mai 2018, était un pas dans la bonne direction, donnant aux citoyens de l’Union, au moins, plus de contrôle sur leurs données (et incitant certaines sociétés internet à étendre des droits similaires à tous les utilisateurs dans le monde). L’Union clarifiera et renforcera encore les règles en 2019 avec sa directive sur la protection de la vie privée et les communications électroniques. Certains détracteurs prétendent que de telles règles entravent l’innovation et renforcent les géants du Web, qui peuvent supporter les coûts de la mise en oeuvre de la conformité réglementaire, ce qui est impossible pour les start-up. Ils n’ont pas tort. Or, l’approche de l’Europe semble tout de même préférable à celle plus détachée des Etats-Unis. La Chine, quant à elle, se contente de permettre à ses géants de l’Internet de recueillir autant de données personnelles qu’ils le souhaitent, à condition que le gouvernement y ait accès.

La crainte du biais algorithmique

Au fur et à mesure que les systèmes d’intelligence artificielle commencent à être appliqués dans des domaines comme les services de police préventifs, les peines d’emprisonnement, le recrutement d’employés ou la notation de crédit, un deuxième sujet de préoccupation est celui du ” biais algorithmique ” : la crainte que lorsque les systèmes sont formés en utilisant des données historiques, ils apprennent et maintiennent les biais existants. Les partisans de l’utilisation de l’intelligence artificielle dans les services du personnel (par exemple, pour analyser les curriculum vitae des candidats à un poste) affirment que l’utilisation de machines impartiales pourrait réduire les biais. Pour assurer l’équité, les systèmes d’intelligence artificielle doivent pouvoir mieux expliquer comment ils prennent leurs décisions (un domaine qui fait l’objet de nombreuses recherches) et devraient aider les humains à prendre de meilleures décisions, plutôt que de prendre des décisions à leur place.

Un troisième domaine dans lequel l’IA est source d’inquiétudes est celui de l’auto-conduite. De nombreuses entreprises testent actuellement des véhicules autonomes et exploitent des services pilotes de ” robotaxi ” sur la voie publique. Mais ces systèmes ne sont pas parfaits. La preuve en est qu’en mars 2018, un piéton a été tué par une voiture autonome à Tempe, en Arizona (devenant ainsi la première victime du genre). La bonne réponse est d’exiger de la part des constructeurs de véhicules autonomes qu’ils publient régulièrement des rapports de sécurité, qu’ils mettent des conducteurs de sécurité dans leurs voitures pour les surveiller pendant les essais, et qu’ils installent des enregistreurs de données style ” boîte noire ” pour que les enquêteurs puissent déterminer ce qui s’est passé en cas de problème.

Bref, étant donné l’étendue de l’application de l’IA – comme l’électricité ou l’Internet, elle peut être appliquée dans presque tous les domaines – la réponse n’est pas de créer un ensemble spécifique de lois ou un organisme de réglementation semblable à la Food and Drug Administration (FDA) aux Etats-Unis. Les règles existantes en matière de respect de la vie privée, de discrimination, de sécurité des véhicules, etc., devraient plutôt être adaptées pour tenir compte de l’IA.

Et ces robots tueurs ? Il s’agit encore de science-fiction, mais la question de savoir si les futurs systèmes d’armes autonomes doivent être interdits, comme les armes chimiques, est de plus en plus à l’ordre du jour géopolitique. La discussion officielle sur la question lors d’une conférence des Nations unies en août 2018 a été bloquée par les Etats-Unis et la Russie, mais les efforts pour entamer des négociations sur un traité international se poursuivront en 2019.

Soyons réalistes

Quant au rythme et à l’ampleur des pertes d’emplois liées à l’IA, ils demeurent l’un des sujets les plus débattus et les plus incertains dans le monde des affaires. A l’avenir, plus qu’aujourd’hui, les travailleurs devront certainement acquérir de nouvelles compétences, que ce soit pour faire face à des changements dans leur emploi actuel ou pour en changer. Comme au cours de la révolution industrielle, l’automatisation exigera des changements dans l’éducation, et ce pour faire face aux changements dans la nature du travail. Pourtant, rien n’indique que les politiciens prennent cette réalité au sérieux ; beaucoup préfèrent diaboliser les immigrés ou la mondialisation. En 2019, l’intelligence artificielle est un domaine auquel les décideurs politiques doivent commencer à réfléchir sérieusement.

Par Tom Standage.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content