L’IA entre dans une ère de contrôle des entreprises

Un rapport annuel sur les progrès de l’IA a mis en évidence la domination croissante des acteurs de l’industrie sur les universités et le gouvernement dans le déploiement et la protection des applications d’IA.

L’indice AI 2023 – compilé par des chercheurs de l’Université de Stanford ainsi que des sociétés d’IA telles que Google, Anthropic et Hugging Face – suggère que le monde de l’IA entre dans une nouvelle phase de développement. Au cours de l’année écoulée, un grand nombre d’outils d’IA se sont généralisés, des chatbots comme ChatGPT aux logiciels de génération d’images comme Midjourney. Mais les décisions sur la manière de déployer cette technologie et sur la manière d’équilibrer les risques et les opportunités reposent fermement entre les mains des entreprises.

L’IA de pointe nécessite d’énormes ressources, mettant la recherche hors de portée des universités

L’AI Index indique que, pendant de nombreuses années, le milieu universitaire a ouvert la voie au développement de systèmes d’IA de pointe, mais que l’industrie a maintenant fermement pris le relais. « En 2022, il y avait 32 modèles d’apprentissage automatique importants produits par l’industrie, contre seulement trois produits par le milieu universitaire », indique-t-il. Cela est principalement dû aux demandes de ressources de plus en plus importantes – en termes de données, de personnel et de puissance de calcul – nécessaires pour créer de telles applications.

En 2019, par exemple, OpenAI a créé GPT-2, un premier grand mode de langage, ou LLM – la même classe d’application utilisée pour alimenter ChatGPT et le chatbot Bing de Microsoft. GPT-2 coûte environ 50 000 $ à former et contient 1,5 milliard de paramètres (une métrique qui suit la taille et la sophistication relative d’un modèle). Passez à 2022 et Google a créé son propre LLM à la pointe de la technologie, appelé PaLM. Cela coûte environ 8 millions de dollars à former et contient 540 milliards de paramètres, ce qui le rend 360 fois plus grand que GPT-2 et 160 fois plus cher.

Les besoins croissants en ressources du développement de l’IA déplacent fermement le rapport de force vers les acteurs de l’entreprise. De nombreux experts du monde de l’IA craignent que les incitations du monde des affaires ne conduisent également à des résultats dangereux alors que les entreprises se précipitent sur les produits et écartent les problèmes de sécurité dans le but de déjouer leurs rivaux. C’est l’une des raisons pour lesquelles de nombreux experts appellent actuellement à un ralentissement voire à une pause dans le développement de l’IA, comme dans la lettre ouverte signée la semaine dernière par des personnalités comme Elon Musk.

À mesure que les systèmes d’IA sont plus largement déployés, les incidents d’utilisation abusive ont considérablement augmenté

À mesure que les outils d’IA se généralisent, il n’est pas surprenant que le nombre d’erreurs et de cas d’utilisation malveillants augmente également ; en soi, cela n’indique pas un manque de protection adéquate. Mais d’autres éléments de preuve suggèrent un lien, comme la tendance des entreprises comme Microsoft et Google à couper leurs équipes de sécurité et d’éthique de l’IA.

Le rapport note cependant que l’intérêt des législateurs et des décideurs pour la réglementation de l’IA augmente. Une analyse des dossiers législatifs de 127 pays a noté que le nombre de projets de loi contenant l’expression «intelligence artificielle» est passé d’un seul adopté en 2016 à 37 adoptés en 2022. Aux États-Unis, l’examen est également en augmentation au niveau de l’État, avec cinq projets de ce type. projets de loi proposés en 2015 à 60 projets de loi liés à l’IA proposés en 2022. Un tel intérêt accru pourrait fournir un contrepoids à l’autorégulation des entreprises.

Le rapport AI Index couvre cependant beaucoup plus de terrain que cela. Tu peux le lire en entier ici ou voir quelques faits saillants sélectionnés ci-dessous :

source site-132