La sécurité dès la conception

W
Bienvenue au TechCrunch Exchange, une newsletter hebdomadaire sur les startups et les marchés. Il est inspiré de la chronique quotidienne TechCrunch+ d’où il tire son nom. Vous le voulez dans votre boîte de réception tous les samedis ? Inscrivez-vous ici.

La capacité de la technologie à se réinventer la roue a ses inconvénients : cela peut signifier ignorer des vérités flagrantes que d’autres ont déjà apprises. Mais la bonne nouvelle est que les nouveaux fondateurs découvrent parfois la situation par eux-mêmes plus rapidement que leurs prédécesseurs. — Anna

IA, confiance et sécurité

Cette année est une année olympique, une année bissextile. . . et aussi le année électorale. Mais avant de m’accuser de défaut de paiement des États-Unis, je ne pense pas seulement à la suite de Biden contre Trump : plus de 60 pays organisent des élections nationales, sans parler de celles du Parlement européen.

La direction dans laquelle chacun de ces votes pourrait avoir un impact sur les entreprises technologiques ; différents partis ont tendance à avoir des points de vue différents sur la réglementation de l’IA, par exemple. Mais avant même que les élections n’aient lieu, la technologie aura également un rôle à jouer pour garantir leur intégrité.

L’intégrité électorale n’était probablement pas dans l’esprit de Mark Zuckerberg lorsqu’il a créé Facebook, et peut-être même pas lorsqu’il a acheté WhatsApp. Mais respectivement 20 et 10 ans plus tard, la confiance et la sécurité sont désormais une responsabilité à laquelle Meta et les autres géants de la technologie ne peuvent échapper, qu’ils le veuillent ou non. Cela signifie travailler à prévenir la désinformation, la fraude, les discours de haine, le CSAM (matériel pédosexuel), l’automutilation et bien plus encore.

Cependant, l’IA rendra probablement la tâche plus difficile, et pas seulement à cause des deepfakes ou de l’autonomisation d’un plus grand nombre d’acteurs malveillants. Déclare Lotan Levkowitz, associé commandité chez Grove Ventures :

Toutes ces plateformes de confiance et de sécurité disposent de cette base de données de partage de hachage, donc je peux y télécharger ce qui est une mauvaise chose, la partager avec toutes mes communautés, et tout le monde va y mettre fin ensemble ; mais aujourd’hui, je peux entraîner le modèle pour essayer de l’éviter. Ainsi, même le travail de confiance et de sécurité le plus classique, grâce à la génération AI, devient de plus en plus difficile, car l’algorithme peut aider à contourner toutes ces choses.

De la réflexion au premier plan

Bien que les forums en ligne aient déjà appris une ou deux choses sur la modération du contenu, il n’existait pas de guide de réseau social à suivre pour Facebook à sa naissance, il est donc quelque peu compréhensible qu’il lui faudra un certain temps pour se montrer à la hauteur. Mais il est décourageant d’apprendre à partir des documents internes de Meta que dès 2017, il y avait encore des réticences internes à adopter des mesures susceptibles de mieux protéger les enfants.

Zuckerberg était l’un des cinq PDG de la technologie des médias sociaux qui ont récemment comparu lors d’une audience du Sénat américain sur la sécurité en ligne des enfants. Témoigner n’était pas de loin une première pour Meta, mais le fait que Discord ait été inclus mérite également d’être noté ; bien qu’il se soit étendu au-delà de ses racines de jeu, cela rappelle que des menaces à la confiance et à la sécurité peuvent survenir dans de nombreux endroits en ligne. Cela signifie qu’une application de jeu social, par exemple, pourrait également exposer ses utilisateurs à un risque de phishing ou de toilettage.

Les nouvelles entreprises s’approprieront-elles plus rapidement que les FAANG ? Ce n’est pas garanti : les fondateurs fonctionnent souvent à partir de principes premiers, ce qui est bon et mauvais ; la courbe d’apprentissage de la modération de contenu est réelle. Mais OpenAI est beaucoup plus jeune que Meta, il est donc encourageant d’apprendre qu’elle forme une nouvelle équipe pour étudier la sécurité des enfants, même si cela peut être le résultat de l’examen minutieux auquel elle est soumise.

Certaines startups n’attendent cependant pas les signes de difficultés pour agir. Fournisseur de solutions de confiance et de sécurité basées sur l’IA et faisant partie du portefeuille de Grove Ventures, ActiveFence reçoit davantage de demandes entrantes, m’a dit son PDG Noam Schwartz.

« J’ai vu beaucoup de personnes contacter notre équipe, provenant d’entreprises qui viennent d’être fondées ou même pré-lancées. Ils réfléchissent à la sécurité de leurs produits dès la phase de conception [and] en adoptant un concept appelé safety by design. Ils intègrent des mesures de sécurité à l’intérieur de leurs produits, de la même manière qu’aujourd’hui vous pensez à la sécurité et à la confidentialité lorsque vous développez vos fonctionnalités.

ActiveFence n’est pas la seule startup dans cet espace, que Wired a décrit comme « la confiance et la sécurité en tant que service ». Mais c’est l’un des plus grands, surtout depuis qu’il a acquis Spectrum Labs en septembre. Il est donc bon d’entendre que parmi ses clients figurent non seulement de grands noms qui ont peur des crises de relations publiques et des contrôles politiques, mais aussi des équipes plus petites qui viennent tout juste de démarrer. La technologie a également la possibilité d’apprendre des erreurs passées.

Source-146