L'intelligence artificielle (IA) s'impose de plus en plus comme l’accélérateur ultime de la performance, de l’efficacité, de la transparence et de l’accessibilité dans l’administration publique. L’aide à la décision administrative, la détection automatique de fraudes fiscales ou d’infractions routières, la lutte contre le blanchiment d’argent, les Robots d’accueil dans les administrations, les voicebots interactifs dans les langues locales, la génération automatique de rapports ou de résumés administratifs, l’analyse d’images aériennes pour cartographier les camps de populations déplacées,… les applications de la Machine Learning (ML)1, du Deep Learning (DL)2, du Traitement du langage naturel (NLP)3, de la Vision par ordinateur (Computer Vision)4, des Systèmes experts5 ou de l’IA générative6 dans l’administration électronique n’en finissent pas.
A Singapour, les retards aux heures de pointe ont diminué de 20 % et la vitesse moyenne a augmenté de 15 % grâce au système de gestion du trafic basé sur l'intelligence artificielle qui utilise des données en temps réel pour surveiller le flux de circulation, prévoir les schémas d'embouteillage et ajuster les feux de signalisation en conséquence. Dans l’e-Santé, le gouvernement estonien a développé un système d'information sanitaire basé sur l'IA afin de gérer les données des patients et d'améliorer la prestation des soins. Ce système intègre les données de divers prestataires de soins de santé, permettant un accès en temps réel aux dossiers des patients et facilitant la prise de décision par les professionnels de santé. Des algorithmes d'IA analysent les données des patients afin d'identifier les tendances, prévoir les problèmes de santé potentiels et recommander des mesures préventives, ce qui améliore en fin de compte les résultats en matière de santé publique. Aussi et dans le cadre d'une initiative mondiale unique en son genre, l’Estonie est entrain de fournir à tous ses élèves et enseignants du système scolaire secondaire un accès à ChatGPT Edu. En France, le Gouvernement a donné un coup de projecteur sur trente projets financés par le plan d’investissement France 2030 mettant l’intelligence artificielle (IA) au service de la santé, de l’agriculture ou encore de l’éducation, entre autres, pour rendre meilleure la vie de ses citoyens.
Toutefois, ces changements rapides soulèvent de profondes préoccupations éthiques. Celles-ci découlent du potentiel des systèmes d'IA à intégrer des biais et des discriminations, à contribuer à la dégradation du climat ou au remplacement de l’humain, à la manipulation de l’opinion ou à la menace des droits de l'homme et bien d'autres choses encore.
Adoptés en mai 2019 par les 42 pays membres et partenaires de l’OCDE, des Principes pour une IA responsable et digne de confiance, constituent le premier cadre intergouvernemental pour orienter le développement de l’intelligence artificielle de manière éthique et bénéfique pour l’humanité; à savoir, le bénéfice pour les individus et la planète, le respect des droits humains, valeurs démocratiques et équité, la transparence et explicabilité, la robustesse, la sécurité et la fiabilité, et en fin, la responsabilité.
L’OCDE et le G20 se sont alignés sur ces principes, ce qui leur donne une portée quasi mondiale. En 2020, l’OCDE a créé l’Observatoire mondial des politiques de l’IA (OECD.AI), une plateforme qui suit l’application concrète de ces principes dans chaque pays. En 2021, la Conférence générale de l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), réunie à Paris du 9 au 24 novembre 2021, à l’occasion de sa 41e session a adopté le premier cadre global dit «Recommandation sur l’éthique de l’intelligence artificielle». Le document vise à établir un cadre global — valeurs, principes, actions — pour guider les États, les entreprises, et la société civile, afin d’orienter l’IA vers le bien-être humain, social et environnemental. Le 1er aout 2024, le règlement européen sur l’IA est entré en vigueur. Connu aussi sous le nom d'AI Act, le règlement européen sur l’IA est le premier cadre législatif au monde qui encadre le développement, la mise sur le marché et l’utilisation des systèmes d’IA. Celui-ci, prévoit des obligations pour les fournisseurs de systèmes d'IA à des fins générales (GPAI) et interdit certains systèmes d'IA attentatoires aux droits fondamentaux. Il prohibe la notation sociale par les autorités publiques. L’identification biométrique à distance en temps réel dans les lieux publics est également interdite, sauf dans des cas exceptionnels, comme les enquêtes pour des infractions graves. L'exploitation de la vulnérabilité des personnes (enfants et populations fragiles) pour influencer leur comportement de manière nuisible, est proscrite. Enfin, les pratiques manipulatrices visant à tromper les utilisateurs à leur insu sont également interdites.
Outre ses principes pour une IA responsable et digne de confiance, l’OCDE propose des lignes directrices pour les gouvernements afin de favoriser une IA responsable :
- Investir dans la recherche et le développement en IA fiable;
- Favoriser un écosystème d’innovation inclusif, avec des infrastructures et des compétences accessibles à tous;
- Adapter les cadres légaux et réglementaires pour encourager la transparence, la sécurité et l’équité;
- Développer les capacités humaines : former les citoyens, les décideurs et les travailleurs à comprendre et utiliser l’IA de façon responsable;
- Encourager la coopération internationale, car l’IA dépasse les frontières.
Enfin et selon les «Recommandations sur l’éthique de l’intelligence artificielle» de l’UNESCO, l’objectif est de mettre les systèmes d’IA au service de l’humanité, des individus, des sociétés, de l’environnement et des écosystèmes, ainsi que de prévenir les préjudices.

