L’Ukraine déploie une feuille de route pour la réglementation de l’IA

Le ministère ukrainien de la Transformation numérique a présenté le 7 octobre sa feuille de route réglementaire pour l’intelligence artificielle (IA). publié sur le site Internet du ministère et déclare que son objectif est d’aider les entreprises locales à se préparer à l’adoption d’une loi analogue à la loi sur l’IA de l’Union européenne. Il vise également à sensibiliser les citoyens à la protection contre les risques liés à l’IA.

Selon l’annonce de la feuille de route, elle repose sur une approche ascendante qui suggère de passer de moins à plus, et elle fournira aux entreprises des outils pour se préparer aux exigences futures avant d’adopter des lois.

En rapport: L’Ukraine exige que les entreprises locales de cryptographie fournissent des données financières

La feuille de route fixe une période préliminaire pour permettre aux entreprises de s’adapter aux lois potentielles dans les deux à trois prochaines années. Oleksandr Borniakov, vice-ministre de la Transformation numérique, souligne :

« Nous prévoyons de créer une culture d’autoréglementation des entreprises de plusieurs manières. Notamment en signant des codes de conduite volontaires qui témoigneront de l’utilisation éthique de l’IA par les entreprises. Un autre outil est un livre blanc qui familiarisera les entreprises avec l’approche, le calendrier et les étapes de mise en œuvre de la réglementation.

Le projet de loi ukrainienne sur l’IA, selon la feuille de route, est attendu pour 2024, mais à peine la loi de l’UE sur l’IA autorisant la loi nationale en tiendra-t-elle compte.

En juin, la loi européenne sur l’IA a été adoptée par le Parlement européen. Une fois mise en œuvre, la loi interdirait certains services et produits d’IA tout en en limitant ou en restreignant d’autres.

Parmi les technologies totalement interdites figurent la surveillance biométrique, les systèmes de notation sociale, la police prédictive, ce que l’on appelle la « reconnaissance des émotions » et les systèmes de reconnaissance faciale non ciblés. Les modèles d’IA générative, tels que ChatGPT d’OpenAI et Bard de Google, seraient autorisés à fonctionner si leurs sorties étaient étiquetées comme générées par l’IA.