Betaworks n’est pas étranger à l’investissement dans l’intelligence artificielle et l’apprentissage automatique, mais la dernière cohorte de son « accélérateur thématique » Camp indique une confiance dans le domaine au-delà de la fascination actuelle pour les chatbots. Le fondateur et PDG, John Borthwick, a décrit l’entreprise comme étant « passionnément intéressée » par le domaine de l’IA en tant qu’augmentation plutôt que simplement comme produit en soi.
Ils ne sont pas les seuls non plus : « Ce camp en particulier comptait deux fois plus de candidats que l’année dernière », m’a dit Borthwick. « Ce qui est amusant, c’est que vous lancez un appel ouvert, et sous cette bannière, cette thèse, vous obtenez plus de diversité que prévu. Nous pensons qu’au cours des deux ou trois prochaines années, nous verrons un nombre incroyable d’entreprises créer et utiliser des modèles d’IA pour améliorer les flux de travail et les comportements humains.
C’est peut-être la qualité la plus universellement utile de ChatGPT qui (en supposant que vous puissiez savoir quand il vous met) peut répondre rapidement et de manière satisfaisante à une question sur presque n’importe quel sujet, ou donner une réponse raisonnable à quelque chose comme un problème de codage. Rares sont ceux qui parlent avec les IA juste pour le plaisir (même s’il y en a qui le font) ; si cela peut faciliter votre travail, pourquoi ne pas le laisser faire ?
Borthwick a noté que Betaworks investit dans l’IA et le ML depuis 2016, alors qu’ils étaient bien plus rudimentaires.
« Nous avons commencé par passer systématiquement par l’intersection du ML et d’une modalité particulière : l’apprentissage automatique et l’audio, les médias synthétiques, tous ces différents objets de données ou médias », a-t-il déclaré. « Au cours des deux dernières années, nous avons réfléchi au rôle de l’IA en ce qui concerne les flux de travail humains, et nous y croyons fermement et souhaitons investir et faire évoluer le marché vers l’augmentation. »
Cela revient à considérer l’IA comme « un vélo pour l’esprit » plutôt que comme un produit purement génératif ou autonome. Cela est visible dans les entreprises sélectionnées, dont beaucoup utilisent ou utilisent l’IA pour accélérer ou améliorer les processus existants plutôt que de faire quelque chose de complètement nouveau. Chacun recevra un financement de 500 000 $, en plus de tout ce qu’il a déjà collecté.
« Nous examinons l’ensemble de la pile d’IA ; Certaines choses dans ce camp sont presque des applications, alors il y a des choses qui relèvent beaucoup plus de la catégorie des middlewares », a poursuivi Borthwick. « Le programme vise vraiment à trouver l’adéquation produit-marché et à développer une feuille de route produit, il s’agit moins d’exercices performatifs de collecte de fonds. Environ la moitié des entreprises effectuent leur relance avant ou pendant le programme.
Ils ont fait appel cette année à trois co-investisseurs : Greycroft, Differential et Mozilla, qui feront tous des co-investissements et mettront leurs ressources et réseaux à la disposition des startups. Betaworks s’occupe toujours de tout le travail de l’accélérateur.
Voici les 12 entreprises de la cohorte de cette année, résumées à partir des résumés qu’elles ont envoyés ; J’ai posé à chaque entreprise la question la plus évidente à laquelle je pouvais penser (en italique) après avoir entendu ce qu’elle essayait de faire. Par souci de brièveté, j’ai également résumé leurs réponses, parfois détaillées. Vous trouverez plus de détails sur chacun, y compris les fondateurs et leurs antécédents, sur Betaworks.
- Armilla Assurance : Un service d’évaluation de la qualité et de la fiabilité des systèmes d’IA. L’entreprise propose ensuite une assurance contre les pertes dues à des performances d’IA inférieures à son niveau évalué.
Quelles mesures sont utilisées pour évaluer les risques et l’adéquation de l’IA, et si elles sont conformes aux normes de l’industrie, pourquoi l’entreprise ne les évaluerait-elle pas simplement en interne ?
Armilla utilise à la fois des normes industrielles et des méthodes de test exclusives pour fournir une mesure objective de la qualité et une garantie de performance, bien qu’elles ne remplacent pas l’inclusion de ces mesures dans le processus de développement.
- Bionic Health : soins de santé préventifs utilisant un modèle basé sur l’IA et formé sur les données (« pratiques, protocoles et flux de travail du monde réel des médecins, des praticiens et des patients ») provenant de leur propre clinique en Caroline du Nord. A également construit un système de dossiers de santé électroniques plus intelligent qui utilise des intégrations pour améliorer la recherche et les informations. 3,5 millions de dollars déjà levés lors d’un tour de table.
Pourquoi voudrais-je utiliser un modèle d’IA basé sur les décisions de médecins et de spécialistes de la santé, plutôt que de demander à un médecin ou à un autre spécialiste de la santé accrédité ?
Le système assiste les médecins et non le consommateur, et le DSE amélioré devrait réduire le travail de bureau dans ce contexte, permettant aux médecins et aux patients de se concentrer sur la prise de décisions éclairées en matière de soins.
- Deftly : une plate-forme ML qui regroupe et synthétise les commentaires des clients et d’autres signaux pour créer des modifications et des fonctionnalités de produit plus facilement exploitables.
Comment une startup en phase de démarrage pourrait-elle rassembler et synthétiser des « trésors de commentaires dispersés sur les produits » ?
Pas de réponse directe, mais les données contenues dans les formulaires de commentaires, les notes de réunion et autres canaux sont ingérées et partagées dans un tableau de bord pour une interprétation plus facile par les équipes produit.
- Globe : crée de grands modèles de langage pour les équipes qui ont besoin de « rassembler, échanger et comprendre des informations complexes », comme dans le cadre d’études à grande échelle ou de développement de produits. Le LLM ingère tous les documents pertinents et peut être consulté à n’importe quel niveau de détail, de l’aperçu aux détails techniques ou aux citations exactes des documents pertinents.
Compte tenu des limites des LLM, pourquoi devrais-je faire confiance à un seul pour fournir plusieurs niveaux de détail de données ou de projets complexes ?
L’objectif est de faire apparaître des informations utiles, et en particulier des informations dont on n’avait peut-être pas connaissance au départ, plutôt que d’en extraire de nouvelles informations. Il semble agir davantage comme une recherche sémantiquement améliorée.
- GroupLang : Travailler sur un logiciel qui permet aux LLM d’interagir avec des groupes de personnes plutôt qu’avec des individus, une tâche qui implique de redéfinir les préférences des utilisateurs, la confidentialité et d’autres questions intéressantes.
Quel est un exemple d’un groupe devant interagir collectivement avec un LLM ?
C’est plus qu’un usage collectif pourrait être bénéfique, disent-ils, comme une tâche complexe partagée où un système central suit les informations importantes pour toutes les personnes impliquées.
- Âmes ouvertes :
Vise à créer des modèles d’IA conversationnelle qui « pensent et se comportent de manière autonome comme de vraies personnes », avec des sentiments, des personnalités et une complexité interne.
C’est toute une affirmation. Mais ne s’agit-il pas plus ou moins d’un modèle affiné avec un personnage artificiel chargé via des instructions initiales ?
Le réglage fin des personnages produit principalement un changement dans les modèles de discours, mais pas dans la façon dont le modèle fonctionne en interne. Leur approche consiste à augmenter les LLM avec des processus non visibles supplémentaires pour simuler de « riches monologues intérieurs » qui informent le comportement.
- Pangaea : Utilisation de l’IA et de certaines technologies back-end personnalisées pour créer des jeux plus rapidement et effectuer des tâches chronophages, avec le développement propriétaire d’un Battle Royale rogue-lite (Project Rise) avec des cartes générées de manière procédurale.
Les jeux multijoueurs compétitifs nécessitent un gameplay et un équilibre des cartes minutieux. Comment y parvenir avec ce niveau de génération procédurale ?
Certains jeux sont plus axés sur des équilibres parfaits que d’autres, et dans ce cas, il est plus important de s’assurer qu’ils sont « équitables » et que la perte ne résulte pas directement d’une mauvaise génération de processus. Il y aura des salles, des défis, des niveaux et des règles conçus à la main pour garantir que l’expérience soit bien adaptée. De plus, si vous mourez, vous renaîtrez sous la forme d’un monstre et conserverez une partie de votre progression.
- Plastic Labs : vise à améliorer la viabilité du LLM en « gérant en toute sécurité le flux de données psychologiques intimes entre les utilisateurs et les modèles ». Ainsi, vous bénéficiez d’une personnalisation entre différents agents sans avoir à apprendre et à stocker vos différentes préférences et tendances à chaque fois.
En quoi consiste réellement ce cadre et comment peut-il rester efficace si les applications d’IA en question utilisent toutes des modèles de base ou des processus de réglage différents ?
Un « relais middleware sécurisé ». Certaines approches fonctionnent dans tous les LLM, car tous les modèles de base semblent partager la capacité de « construire et comprendre des prédictions sur les états mentaux internes ». Ce que représente exactement cette capacité n’est pas clair (bien que l’équipe ait ses théories), mais ils affirment qu’elle permet leur personnalisation portable.
- Shader : une application de caméra sociale qui permet aux utilisateurs de créer des filtres AR à l’aide d’une interface simple et sans code comprenant la voix et de simples tapotements et balayages.
À quoi ressemble le processus de création et comment le filtre peut-il être partagé sur des plateformes propriétaires comme Instagram ou Snapchat ?
Vous décrivez ce que vous voulez avec une invite traditionnelle comme « visage d’elfe cyberpunk », puis cela peut être mappé sur votre visage en direct. Le filtre lui-même reste sur Shader, vous devrez exporter les vidéos vers d’autres services. Il existe plusieurs exemples sur leur IG et Tiktok.
- Unakin : Vise également à réduire le temps de développement avec les assistants de code IA. First est un agent de programmation d’interface utilisateur qui crée des interfaces de jeu fonctionnelles avec des invites textuelles ou visuelles, et d’autres sont à venir.
L’agent proposé existe-t-il et de quoi est-il spécifiquement capable actuellement par rapport aux autres LLM générateurs de code ?
Ils l’utilisent en interne pour améliorer la recherche de code, la génération de code (pas encore testé mais devrait être compétitif dans la création d’interface utilisateur en particulier) et un processus d’image en code grâce auquel les fichiers Figma et Adobe peuvent être transformés directement en interface utilisateur du jeu. .
- Vera : Aide les lieux de travail à adopter l’IA en filtrant ce qui entre et sort des modèles, selon les règles établies par l’entreprise. Il s’agit essentiellement du genre de surveillance que l’informatique obtient pour les autres logiciels d’entreprise, mais pour l’IA générative.
Cela enregistre donc toutes les entrées et sorties des IA utilisées par une entreprise et permet de contrôler plus étroitement ce qui est demandé ou répondu ?
Fondamentalement oui, il répond aux problèmes de sécurité et de confidentialité en rendant les interactions observables et en interceptant des éléments tels que des informations sensibles avant qu’elles ne soient envoyées au LLM. Les réponses peuvent également être vérifiées pour la cohérence et les erreurs.
- Waverly : Un « réseau social d’idées » qui utilise l’IA pour les « remixer », et utilise l’IA conversationnelle comme méthode de contrôle du flux.
Comment exactement le modèle d’IA « remixe » les idées, et comment une IA conversationnelle offre-t-elle un meilleur moyen de contrôler son flux ?
L’outil « WordDJ » n’a pas de clavier mais vous permet de déplacer des blocs de texte comme des aimants de réfrigérateur ou de les combiner. L’agent conversationnel permet aux utilisateurs de décrire plus précisément ce qu’ils aimeraient voir plus ou moins plutôt que de désactiver des comptes ou autres.