vendredi, novembre 8, 2024

MVP versus EVP : Est-il temps d’introduire l’éthique dans le modèle de startup agile ?

La trajectoire de fusée d’une startup est bien connue : se faire une idée, constituer une équipe et créer ensemble un produit minimum viable (MVP) que vous pouvez présenter aux utilisateurs.

Cependant, les startups d’aujourd’hui doivent reconsidérer le modèle MVP alors que l’intelligence artificielle (IA) et l’apprentissage automatique (ML) deviennent omniprésents dans les produits technologiques et que le marché est de plus en plus conscient des implications éthiques de l’augmentation ou du remplacement des humains dans le processus de prise de décision.

Un MVP vous permet de recueillir des commentaires critiques de votre marché cible qui informent ensuite le développement minimum requis pour lancer un produit, créant ainsi une puissante boucle de rétroaction qui stimule les activités dirigées par le client d’aujourd’hui. Ce modèle allégé et agile a connu un vif succès au cours des deux dernières décennies, en lançant des milliers de startups à succès, dont certaines sont devenues des entreprises d’un milliard de dollars.

Cependant, créer des produits et des solutions performants qui fonctionnent pour la majorité ne suffit plus. De la technologie de reconnaissance faciale qui a un préjugé contre les personnes de couleur aux algorithmes de prêt de crédit qui discriminent les femmes, ces dernières années ont vu plusieurs produits alimentés par l’IA ou le ML tués en raison de dilemmes éthiques qui surgissent en aval après des millions de dollars ont été canalisés dans leur développement et leur commercialisation. Dans un monde où vous avez une chance de mettre une idée sur le marché, ce risque peut être fatal, même pour les entreprises bien établies.

Les startups n’ont pas à abandonner le modèle économique lean au profit d’une alternative plus prudente. Il existe un terrain d’entente qui peut introduire l’éthique dans la mentalité des startups sans sacrifier l’agilité du modèle Lean, et cela commence par l’objectif initial d’une startup : obtenir une preuve de concept à un stade précoce devant des clients potentiels.

Cependant, au lieu de développer un MVP, les entreprises devraient développer et déployer un produit éthiquement viable (EVP) basé sur l’intelligence artificielle responsable (RAI), une approche qui prend en compte les considérations éthiques, morales, juridiques, culturelles, durables et socio-économiques au cours de le développement, le déploiement et l’utilisation de systèmes AI/ML.

Et bien qu’il s’agisse d’une bonne pratique pour les startups, c’est également une bonne pratique standard pour les grandes entreprises technologiques qui créent des produits d’IA/ML.

Voici trois étapes que les startups, en particulier celles qui intègrent des techniques d’IA/ML importantes dans leurs produits, peuvent utiliser pour développer un EVP.

Trouver un déontologue pour mener la charge

Les startups ont des directeurs de la stratégie, des directeurs des investissements, voire des directeurs des divertissements. Un directeur de l’éthique est tout aussi important, sinon plus. Cette personne peut travailler avec différentes parties prenantes pour s’assurer que la startup développe un produit qui correspond aux normes morales fixées par l’entreprise, le marché et le public.

Ils doivent servir de liaison entre les fondateurs, la direction générale, les investisseurs et le conseil d’administration avec l’équipe de développement – en s’assurant que tout le monde pose les bonnes questions éthiques d’une manière réfléchie et sans risque.

Les machines sont entraînées sur la base de données historiques. S’il existe un biais systémique dans un processus commercial actuel (comme des pratiques de prêt inégales en fonction de la race ou du sexe), l’IA en tiendra compte et pensera que c’est ainsi qu’elle devrait continuer à se comporter. S’il s’avère par la suite que votre produit ne respecte pas les normes éthiques du marché, vous ne pouvez pas simplement supprimer les données et rechercher de nouvelles données.

Ces algorithmes ont déjà été entraînés. Vous ne pouvez pas effacer cette influence plus qu’un homme de 40 ans ne peut annuler l’influence de ses parents ou de ses frères et sœurs plus âgés sur son éducation. Pour le meilleur ou pour le pire, vous êtes coincé avec les résultats. Les responsables de l’éthique doivent détecter ce parti pris inhérent à l’ensemble de l’organisation avant qu’il ne s’enracine dans les produits alimentés par l’IA.

Intégrer l’éthique dans l’ensemble du processus de développement

L’IA responsable n’est pas qu’un point dans le temps. Il s’agit d’un cadre de gouvernance de bout en bout axé sur les risques et les contrôles du parcours d’IA d’une organisation. Cela signifie que l’éthique doit être intégrée tout au long du processus de développement, en commençant par la stratégie et la planification en passant par le développement, le déploiement et les opérations.

Au cours de la définition de la portée, l’équipe de développement doit travailler avec le responsable de l’éthique pour connaître les principes éthiques généraux de l’IA qui représentent des principes comportementaux valables dans de nombreuses applications culturelles et géographiques. Ces principes prescrivent, suggèrent ou inspirent comment les solutions d’IA doivent se comporter face à des décisions morales ou à des dilemmes dans un domaine d’utilisation spécifique.

Par-dessus tout, une évaluation des risques et des préjudices doit être effectuée, identifiant tout risque pour le bien-être physique, émotionnel ou financier de toute personne. L’évaluation devrait également examiner la durabilité et évaluer les dommages que la solution d’IA pourrait causer à l’environnement.

Au cours de la phase de développement, l’équipe doit constamment se demander dans quelle mesure son utilisation de l’IA est conforme aux valeurs de l’entreprise, si les modèles traitent différentes personnes de manière équitable et s’ils respectent le droit des personnes à la vie privée. Ils devraient également déterminer si leur technologie d’IA est sûre, sécurisée et robuste et dans quelle mesure le modèle opérationnel est efficace pour garantir la responsabilité et la qualité.

Les données utilisées pour entraîner le modèle sont un élément essentiel de tout modèle d’apprentissage automatique. Les startups doivent se préoccuper non seulement du MVP et de la manière dont le modèle est prouvé initialement, mais également du contexte éventuel et de la portée géographique du modèle. Cela permettra à l’équipe de sélectionner le bon ensemble de données représentatif pour éviter tout futur problème de biais de données.

N’oubliez pas la gouvernance continue de l’IA et la conformité réglementaire

Compte tenu des implications sur la société, ce n’est qu’une question de temps avant que l’Union européenne, les États-Unis ou un autre organe législatif adoptent des lois sur la protection des consommateurs régissant l’utilisation de l’IA/ML. Une fois qu’une loi est adoptée, ces protections sont susceptibles de s’étendre à d’autres régions et marchés du monde.

C’est déjà arrivé : l’adoption du règlement général sur la protection des données (RGPD) dans l’UE a conduit à une vague d’autres protections des consommateurs dans le monde qui obligent les entreprises à prouver leur consentement pour la collecte d’informations personnelles. Aujourd’hui, des personnes de tous horizons politiques et commerciaux demandent des directives éthiques concernant l’IA. Encore une fois, l’UE ouvre la voie après avoir publié une proposition de 2021 pour un cadre juridique pour l’IA.

Les startups déployant des produits ou des services optimisés par l’IA/ML doivent être prêtes à démontrer une gouvernance continue et une conformité réglementaire – en veillant à créer ces processus maintenant avant que les réglementations ne leur soient imposées plus tard. Effectuer une analyse rapide de la législation proposée, des documents d’orientation et d’autres directives pertinentes avant de créer le produit est une étape nécessaire de l’EVP.

De plus, il est conseillé de revoir le paysage réglementaire/politique avant le lancement. Avoir quelqu’un qui est intégré dans les délibérations actives qui se déroulent actuellement à l’échelle mondiale au sein de votre conseil d’administration ou conseil consultatif aiderait également à comprendre ce qui est susceptible de se produire. Les règlements arrivent, et il est bon d’être préparé.

Il ne fait aucun doute que l’IA/ML présentera un énorme avantage pour l’humanité. La capacité d’automatiser les tâches manuelles, de rationaliser les processus métier et d’améliorer l’expérience client est trop importante pour être ignorée. Mais les startups doivent être conscientes des impacts que l’IA/ML aura sur leurs clients, le marché et la société en général.

Les startups ont généralement une chance de réussir, et il serait dommage qu’un produit par ailleurs très performant soit tué, car certaines préoccupations éthiques n’ont été découvertes qu’après sa mise sur le marché. Les startups doivent intégrer l’éthique dans le processus de développement dès le début, développer un EVP basé sur RAI et continuer à assurer la gouvernance de l’IA après le lancement.

L’IA est l’avenir des entreprises, mais nous ne pouvons pas perdre de vue le besoin de compassion et l’élément humain dans l’innovation.

Source-146

- Advertisement -

Latest