PVML combine une plateforme d’accès et d’analyse des données centrée sur l’IA avec une confidentialité différentielle

Les entreprises accumulent plus de données que jamais pour alimenter leurs ambitions en matière d’IA, mais elles s’inquiètent également de savoir qui peut accéder à ces données, qui sont souvent de nature très privée. PVML propose une solution intéressante en combinant un outil d’analyse de données de type ChatGPT avec les garanties de sécurité d’une confidentialité différentielle. Grâce à la génération augmentée par récupération (RAG), PVML peut accéder aux données d’une entreprise sans les déplacer, éliminant ainsi un autre problème de sécurité.

La société basée à Tel Aviv a récemment annoncé avoir levé un tour de table de 8 millions de dollars dirigé par NFX, avec la participation de FJ Labs et Gefen Capital.

Crédits images : PVML

L’entreprise a été fondée par le couple Shachar Schnapp (PDG) et Rina Galperin (CTO). Schnapp a obtenu son doctorat en informatique, spécialisé dans la confidentialité différentielle, puis a travaillé sur la vision par ordinateur chez General Motors, tandis que Galperin a obtenu sa maîtrise en informatique avec une spécialisation sur l’IA et le traitement du langage naturel et a travaillé sur des projets d’apprentissage automatique chez Microsoft.

« Une grande partie de notre expérience dans ce domaine vient de notre travail dans de grandes entreprises et de grandes entreprises où nous avons constaté que les choses ne sont peut-être pas aussi efficaces que nous l’espérions en tant qu’étudiants naïfs », a déclaré Galperin. « La principale valeur que nous souhaitons apporter aux organisations en tant que PVML est la démocratisation des données. Cela ne peut se produire que si, d’une part, vous protégez ces données très sensibles, mais, d’autre part, vous permettez d’y accéder facilement, ce qui est aujourd’hui synonyme d’IA. Tout le monde veut analyser des données à l’aide de texte libre. C’est beaucoup plus simple, plus rapide et plus efficace — et notre sauce secrète, la confidentialité différentielle, permet cette intégration très facilement.

La confidentialité différentielle est loin d’être un nouveau concept. L’idée principale est de garantir la confidentialité des utilisateurs individuels dans de grands ensembles de données et de fournir des garanties mathématiques à cet effet. L’un des moyens les plus courants d’y parvenir consiste à introduire un certain degré de caractère aléatoire dans l’ensemble de données, mais d’une manière qui ne modifie pas l’analyse des données.

L’équipe affirme que les solutions d’accès aux données actuelles sont inefficaces et génèrent beaucoup de frais généraux. Souvent, par exemple, de nombreuses données doivent être supprimées pour permettre aux employés d’accéder en toute sécurité aux données, mais cela peut s’avérer contre-productif, car vous ne pourrez peut-être pas utiliser efficacement les données expurgées pour certaines tâches (plus les données supplémentaires). le délai d’accès aux données rend les cas d’utilisation en temps réel souvent impossibles).

Crédits images : PVML

La promesse d’utiliser la confidentialité différentielle signifie que les utilisateurs de PVML n’ont pas à modifier les données d’origine. Cela évite presque tous les frais généraux et déverrouille ces informations en toute sécurité pour les cas d’utilisation de l’IA.

Pratiquement toutes les grandes entreprises technologiques utilisent désormais la confidentialité différentielle sous une forme ou une autre et mettent leurs outils et bibliothèques à la disposition des développeurs. L’équipe PVML affirme que cette méthode n’a pas encore été réellement mise en pratique par la plupart des acteurs de la communauté des données.

« Les connaissances actuelles sur la confidentialité différentielle sont plus théoriques que pratiques », a déclaré Schnapp. « Nous avons décidé de passer de la théorie à la pratique. Et c’est exactement ce que nous avons fait : nous développons des algorithmes pratiques qui fonctionnent mieux sur les données dans des scénarios réels.

Aucun travail différentiel en matière de confidentialité n’aurait d’importance si les outils et la plate-forme d’analyse de données de PVML n’étaient pas utiles. Le cas d’utilisation le plus évident ici est la possibilité de discuter avec vos données, le tout avec la garantie qu’aucune donnée sensible ne peut fuir dans le chat. En utilisant RAG, PVML peut réduire les hallucinations à presque zéro et la surcharge est minime puisque les données restent en place.

Mais il existe également d’autres cas d’utilisation. Schnapp et Galperin ont souligné comment la confidentialité différentielle permet également aux entreprises de partager désormais des données entre unités commerciales. Par ailleurs, cela peut également permettre à certaines entreprises de monétiser l’accès à leurs données à des tiers par exemple.

« Aujourd’hui, sur le marché boursier, 70 % des transactions sont effectuées par l’IA », a déclaré Gigi Levy-Weiss, associée générale et co-fondatrice de NFX. « C’est un avant-goût des choses à venir, et les organisations qui adoptent l’IA aujourd’hui auront une longueur d’avance demain. Mais les entreprises ont peur de connecter leurs données à l’IA, parce qu’elles craignent d’être exposées – et pour de bonnes raisons. La technologie unique de PVML crée une couche invisible de protection et démocratise l’accès aux données, permettant des cas d’utilisation de monétisation aujourd’hui et ouvrant la voie à demain.

Source-146