img_pub
Rubriques

Un principe de précaution face à l’intelligence artificielle

FLORENCE– Pour les dirigeants politiques du monde entier, la meilleure manière de prendre une décision consiste à la fonder sur les faits, aussi imparfaites que puissent être les données disponibles. Mais comment procéder lorsque les éléments de preuve se font rares, voire inexistants? C’est le dilemme auquel sont aujourd’hui confrontés ceux qui doivent anticiper les retombées des "algorithmes prédictifs avancés" –ces composantes binaires que sont le machine learning et de l’intelligence artificielle (IA).  

Le 3 mai 2018 à 13h23

Dans les cercles académiques, ceux qui s’intéressent à l’IA se divisent en deux catégories: les "singularitaristes" et les "présentistes". De manière générale, pour les singularitaristes, même s’il est possible que les technologies d’IA représentent une menace existentielle pour l’humanité, les avantages l’emportent sur les coûts. Mais bien que cette école inclue certaines sommités, et qu’elle attire d’importants financements, son rendement académique échoue jusqu’à présent à démontrer sa conception de manière convaincante.

Dans le camp opposé, les présentistes tendent à se concentrer sur l’équité, la responsabilité et la transparence liées aux nouvelles technologies. Ils s’inquiètent par exemple de la mesure dans laquelle l’automatisation impactera le marché du travail. Mais ici encore, les recherches sont peu convaincantes. La revue MIT Technology Review a ainsi récemment comparé les conclusions de 19 études majeures de prévision des disparitions d’emplois, et a déterminé que le nombre d’emplois "détruits" à travers le monde atteindrait 1,8 à 2 milliards.

En somme, aucune "vérité utile" ne se dégage de l’une ou l’autre des parties au débat. A l’heure où les prévisions relatives à l’impact de l’IA oscillent de la simple perturbation du marché du travail à une véritable extinction de l’humanité, le monde a clairement besoin d’un cadre d’analyse et de gestion des ruptures technologiques qui s’annoncent.

L’incomplétude des données constitue évidemment un problème courant pour les chercheurs en technologie. Même dans un contexte "normal", l’étude des technologies émergentes s’apparente à la résolution d’un puzzle dans le noir ou à la bougie. Les hypothèses issues de théories établies ne sont pas remises en question, et l’obtention de résultats favorables consiste à quantifier les probabilités d’événements défavorables, puis à gérer les risques qui s’y rattachent.

Mais de temps à autre émerge un puzzle scientifique "post-normal", que les philosophes Silvio Funtowicz et Jerome Ravetz ont défini pour la première fois en 1993 comme un problème "dans lequel les faits sont incertains, les valeurs remises en question, les enjeux élevés, et les décisions urgentes". Face à ces défis– dont fait partie l’IA –les mesures politiques ne peuvent se permettre d’attendre que la science les rattrape.

Aujourd’hui, l’élaboration des politiques relatives à l’IA s’opère principalement dans le Nord planétaire, ce qui néglige les préoccupations des pays moins développés, tout en rendant plus difficile la gestion des technologies à double usage. Pire encore, les décideurs politiques échouent bien souvent à songer suffisamment aux impacts environnementaux potentiels, et se concentrent quasi-exclusivement sur les effets anthropogéniques de l’automatisation, de la robotique et des machines.

Même sans données fiables, les responsables politiques doivent progresser dans la gouvernance de l’IA. Et tandis que le monde patiente en quête d’une certitude scientifique (qui n’arrivera peut-être jamais), une solution existe qui pourrait nous guider dans l’inconnu: le "principe de précaution". Adopté mondialement en 1992 dans le cadre de la Convention de Rio organisée par les Nations Unies sur le développement durable, puis incorporé à l’un des traités fondateurs de l’Union européenne, le principe de précaution énonce que le manque de certitude ne saurait justifier un manque de protection de la santé humaine ou de l’environnement. Cette approche semble adaptée face à l’incertitude d’un avenir fondé sur les technologies.

Le principe de précaution a néanmoins ses détracteurs. Mais si ses mérites sont débattus depuis des années, nous devons accepter que le manque de preuves d’effets défavorables est différent du manque de preuves d’absence d’effets défavorables. Cette idée simple s’applique à une multitude de problématiques du développement humain –de la santé publique à la mortalité infantile. Trois bonnes raisons justifient qu’elle soit désormais appliquée à l’IA.

Pour commencer, l’application du principe de précaution dans le contexte de l’IA contribuerait à rééquilibrer les discussions mondiales liées aux mesures politiques, en conférant aux voix les moins entendues davantage d’influence dans les débats, qui sont aujourd’hui monopolisés par les intérêts des grandes entreprises. L’élaboration des politiques s’en trouverait également plus inclusive, plus délibérative, et produirait des solutions plus proches des besoins sociétaux. L’Institute of Electrical and Electronics Engineers et la Future Society de la Kennedy School of Government de Harvard conduisent d’ores et déjà leurs travaux dans cet esprit participatif. D’autres organisations professionnelles et centres de recherche devraient s’en inspirer.

Par ailleurs, en appliquant le principe de précaution, les organes de gouvernance pourraient réorienter le poids de la responsabilité sur les épaules des créateurs d’algorithmes. Imposer une exigence d’explicabilité des décisions algorithmiques pourrait faire évoluer les incitations, prévenir l’invisibilité, contribuer à des décisions d’affaires plus transparentes, et permettre au secteur public de rattraper le secteur privé dans le développement des technologies. De même, en imposant aux entreprises technologiques et aux Etats d’identifier et d’envisager plusieurs options, le principe de précaution replacerait au premier plan les problématiques négligées, telles que l’impact environnemental.

Il est rare que la science soit susceptible de contribuer à la gestion d’une innovation longtemps avant que les conséquences de cette innovation soient étudiables. Mais dans le contexte des algorithmes, du machine learning et de l’IA, l’humanité ne peut se permettre d’attendre. Le bien-fondé du principe de précaution réside non seulement en ce qu’il s’ancre dans le droit international public, mais également dans ses antécédents en tant que cadre de gestion de l’innovation dans de nombreux contextes scientifiques. Nous devons l’adopter avant que les bienfaits du progrès se retrouvent inégalement répartis, voire irréversiblement dommageables.

Traduit de l’anglais par Martin Morel

©Project Syndicate 1995–2018
Par
Le 3 mai 2018 à 13h23

à lire aussi

Sahara. Pourquoi le ralliement du Canada est plus disruptif qu’il n’y paraît
DIPLOMATIE

Article : Sahara. Pourquoi le ralliement du Canada est plus disruptif qu’il n’y paraît

Le ralliement d’Ottawa au plan d’autonomie marocain intervient au moment où il était peut-être le moins attendu. Ni porté par ses intérêts économiques dans la région, ni dicté par sa culture politique interne, ce choix rompt avec l’attentisme canadien et devrait, par ricochet, faire évoluer davantage le rapport de force diplomatique au Sahara en faveur du Maroc.

Batteries : le Chinois BTR accélère ses projets industriels au Maroc après un solide début d’année 2026
Quoi de neuf

Article : Batteries : le Chinois BTR accélère ses projets industriels au Maroc après un solide début d’année 2026

Le spécialiste des matériaux pour batteries lithium-ion prévoit dans le Royaume 60.000 tonnes de capacités d’anodes et 50.000 tonnes de cathodes, alors que son chiffre d’affaires trimestriel a progressé de 27 %, à 4,31 milliards de yuans.

Tomate : après une chute brutale des prix, les exportations reprennent et soulagent les producteurs
AGRICULTURE

Article : Tomate : après une chute brutale des prix, les exportations reprennent et soulagent les producteurs

Après plusieurs semaines de flambée des prix, le marché de la tomate connaît une chute brutale des cours, passant de 300 DH à 100 dirhams la caisse chez les producteurs. Face à cette situation, les exportations ont repris afin de rééquilibrer le marché et limiter les pertes des agriculteurs.

Les prévisions météo de ce jeudi 30 avril 2026
Les prévisions quotidiennes

Article : Les prévisions météo de ce jeudi 30 avril 2026

Voici les prévisions météorologiques pour le jeudi 30 avril 2026, établies par la Direction générale de la météorologie: - Pluies ou averses orageuses avec risque […]

Grands barrages : 16 en cours de réalisation, 7 autres programmés
ECONOMIE

Article : Grands barrages : 16 en cours de réalisation, 7 autres programmés

Le programme de construction des barrages se poursuit à travers plusieurs régions du Royaume, avec des niveaux d’avancement globalement élevés. Malgré des rythmes d’exécution différenciés, la majorité des projets a franchi le cap des 60 % de réalisation. L’investissement total mobilisé s’élève à 29,5 milliards de dirhams pour une capacité d'au moins 5 milliards de m³ supplémentaires.

Valeurs. Après un rebond de plus de 16% depuis mars 2026, quel potentiel pour Label Vie en Bourse ?
Actus

Article : Valeurs. Après un rebond de plus de 16% depuis mars 2026, quel potentiel pour Label Vie en Bourse ?

Après un point bas atteint mi-mars 2026, le titre Label Vie a rebondi de plus de 16% pour revenir autour de 4.189 DH au 29 avril 2026. Malgré ce mouvement, les analystes continuent d’identifier un potentiel de revalorisation, avec des lectures qui varient selon les hypothèses retenues sur la croissance et les équilibres du modèle.

Médias24 est un journal économique marocain en ligne qui fournit des informations orientées business, marchés, data et analyses économiques. Retrouvez en direct et en temps réel, en photos et en vidéos, toute l’actualité économique, politique, sociale, et culturelle au Maroc avec Médias24

Notre journal s’engage à vous livrer une information précise, originale et sans parti-pris vis à vis des opérateurs.

Toute l'actualité