Deal Dive: Amorai, coach en relations avec l’IA, propose plus de questions que de réponses

Construire et entretenir des relations est difficile, et le COVID-19 n’a certainement pas aidé. De multiples études ont montré que les adultes sont devenus encore plus seuls depuis le début de la pandémie.

Les fondateurs essaient de trouver des solutions technologiques. Il existe de nombreuses startups qui cherchent à lutter contre la solitude – certaines formées des années avant la pandémie – notamment ElliQ et Replika axés sur les seniors, qui créent un compagnon d’IA, et Infection AI’s Pi, un robot de soutien émotionnel. Mais un nouveau venu a vraiment attiré mon attention cette semaine : Amorai.

La startup a créé un coach relationnel IA pour aider les gens à grandir et à favoriser des relations réelles en offrant des conseils et des réponses aux questions relationnelles. La société a été fondée par l’ancienne PDG de Tinder, Renate Nyborg, et a été incubée dans le fonds AI d’Andrew Ng. La société vient de lever un montant non divulgué de financement de pré-amorçage qui n’a pris que 24 heures à lever, a déclaré Nyborg au podcast Recode Media de Vox en avril.

Bien que lutter contre la solitude soit une grande mission – et certains groupes de personnes peuvent être plus ouverts à discuter avec un bot qu’un humain – cela donne l’impression que cela a le potentiel de tourner si mal si vite. Mais qu’est ce que je sais? J’ai donc contacté un expert.

Il s’avère que je ne suis pas le seul à me méfier un peu de ce concept. Maarten Sap, professeur à l’Université Carnegie Mellon et chercheur pour l’Allen Institute of AI à but non lucratif, a partagé mon inquiétude. Les recherches de SAP se concentrent sur l’intégration du bon sens social et de l’intelligence sociale dans l’IA. Il a également effectué des recherches sur le développement de modèles d’apprentissage approfondi des langues qui aident à comprendre la cognition humaine. Essentiellement, il sait une chose ou deux sur la façon dont l’IA interagit avec les humains.

Sap m’a dit que si l’idée de créer une solution technologique pour aider à favoriser les relations réelles est admirable – et il y a certainement des preuves qu’il y aura des cas d’utilisation solides pour l’IA dans la lutte contre ces types de problèmes – celui-ci lui donne une pause.

« Je dis cela avec un esprit ouvert, je ne pense pas que cela fonctionnera », a-t-il déclaré. « Ont-ils fait les études qui montrent comment cela fonctionnera ? Fait [Amorai] augmenter [users’] compétences sociales? Parce que oui, je ne sais pas dans quelle mesure ces choses se transfèrent.

La plus grande chose qui le fait réfléchir, a-t-il dit, est la crainte que ce type d’application donne à tous ses utilisateurs le même conseil, bon ou mauvais, et qu’il soit difficile pour l’IA de bien saisir les nuances de certaines relations. . De plus, les gens feraient-ils de toute façon confiance aux conseils de l’IA plutôt qu’à une autre personne ?

« L’idée des artistes de ramassage m’est en quelque sorte venue à l’esprit », a déclaré Sap. « Est-ce que cela va vous donner des conseils pour dire à un groupe d’hommes hétéros de harceler les femmes ou d’essayer de coucher avec elles ? Ou sont leurs garde-fous pour ça ?

Si le modèle est conçu pour apprendre de lui-même, il pourrait créer une chambre d’écho basée sur les types de questions que les gens se posent. Cela, à son tour, pourrait orienter le modèle vers une direction problématique si rien n’est fait. Les utilisateurs de Bing l’ont peut-être déjà appris à la dure lorsque son IA a dit aux gens qu’ils n’étaient pas satisfaits de leur mariage.

Sap a déclaré qu’une façon dont cela pourrait certainement fonctionner serait s’il y avait une touche humaine à cela. Une surveillance humaine pour s’assurer que l’application donne les bons conseils aux bonnes personnes pourrait en faire un outil puissant. Mais nous ne savons pas si c’est le cas car l’entreprise ne répond pas aux questions ou n’accepte pas les entretiens.

Ce cycle met également en évidence la profondeur réelle du FOMO dans l’IA. Quelqu’un qui fait des recherches sur ce sujet tous les jours ne voit pas comment cette entreprise pourrait vraiment fonctionner, et pourtant Amorai a levé des fonds en 24 heures avant le lancement dans un mauvais marché.

Bien sûr, les investisseurs en savent plus sur l’entreprise que ce qui est publié, et bien sûr, ces préoccupations peuvent servir de retour d’information pour la startup. Mais comme beaucoup de startups d’IA, je dois supposer que cela se construit avec de bonnes intentions, même si rien de concret ne le prouve.

Je ne crois pas non plus qu’il s’agissait d’un petit tour de pré-amorçage – quelque chose que je suppose généralement lorsqu’une entreprise ne divulgue pas le total du financement; si c’était gros, vous voudriez que les gens sachent – mais dans ce cas, je pense que c’est probablement le contraire. C’est beaucoup de pression pour lever beaucoup d’argent avant d’exécuter ou de trouver un produit adapté au marché.

« Quand j’entends parler de ce genre d’idées et de startups, cela vient d’un bon endroit, mais c’est souvent juste l’état d’esprit solutionniste technologique », a déclaré Sap.

Source-146