Sécuriser l’IA générative à travers la pile technologique

La recherche montre que D’ici 2026, plus de 80 % des entreprises exploiteront des modèles, des API ou des applications d’IA générative, contre moins de 5 % aujourd’hui.

Cette adoption rapide soulève de nouvelles considérations en matière de cybersécurité, d’éthique, de confidentialité et de gestion des risques. Parmi les entreprises qui utilisent aujourd’hui l’IA générative, seules 38 % atténuent les risques de cybersécurité et seulement 32 % s’efforcent de remédier à l’inexactitude des modèles.

Mes conversations avec des professionnels de la sécurité et des entrepreneurs se sont concentrées sur trois facteurs clés :

  1. L’adoption de l’IA générative en entreprise apporte des complexités supplémentaires aux défis de sécurité, tels que l’accès trop privilégié. Par exemple, alors que les outils conventionnels de prévention des pertes de données surveillent et contrôlent efficacement les flux de données dans les applications d’IA, ils ne parviennent souvent pas à gérer des données non structurées et des facteurs plus nuancés tels que des règles éthiques ou un contenu biaisé dans les invites.
  2. La demande du marché pour divers produits de sécurité GenAI est étroitement liée au compromis entre le potentiel de retour sur investissement et les vulnérabilités de sécurité inhérentes aux cas d’utilisation sous-jacents pour lesquels les applications sont utilisées. Cet équilibre entre opportunités et risques continue d’évoluer en fonction du développement continu des normes d’infrastructure d’IA et du paysage réglementaire.
  3. Tout comme les logiciels traditionnels, l’IA générative doit être sécurisée à tous les niveaux de l’architecture, en particulier au niveau de l’interface principale, des applications et des couches de données. Vous trouverez ci-dessous un aperçu des différentes catégories de produits de sécurité au sein de la pile technologique, mettant en évidence les domaines dans lesquels les responsables de la sécurité perçoivent un retour sur investissement et un potentiel de risque importants.
Tableau montrant les données pour sécuriser la pile technologique GenAI

Crédits images : Capitale de Forgepoint

L’adoption généralisée des chatbots GenAI donnera la priorité à la capacité d’intercepter, d’examiner et de valider avec précision et rapidité les entrées et les sorties correspondantes à grande échelle sans diminuer l’expérience utilisateur.

Couche d’interface : équilibrer la convivialité et la sécurité

Les entreprises voient un immense potentiel dans l’exploitation des chatbots orientés client, en particulier des modèles personnalisés formés sur des données spécifiques au secteur et à l’entreprise. L’interface utilisateur est susceptible d’effectuer des injections rapides, une variante des attaques par injection visant à manipuler la réponse ou le comportement du modèle.

En outre, les responsables de la sécurité de l’information (RSSI) et les responsables de la sécurité sont de plus en plus sous pression pour activer les applications GenAI au sein de leurs organisations. Alors que la consumérisation de l’entreprise est une tendance continue, l’adoption rapide et généralisée de technologies telles que ChatGPT a déclenché une volonté sans précédent, menée par les employés, de les utiliser sur le lieu de travail.

L’adoption généralisée des chatbots GenAI donnera la priorité à la capacité d’intercepter, d’examiner et de valider avec précision et rapidité les entrées et les sorties correspondantes à grande échelle sans diminuer l’expérience utilisateur. Les outils de sécurité des données existants reposent souvent sur des règles prédéfinies, ce qui entraîne des faux positifs. Des outils tels que Rebuff et Harmonic Security de Protect AI exploitent les modèles d’IA pour déterminer dynamiquement si les données transitant par une application GenAI sont sensibles ou non.

Source-146