Tim Cook dit qu’Apple intégrera l’IA dans les produits alors que les chercheurs travaillent à résoudre les biais

Le PDG Tim Cook a donné un aperçu rare, bien que réservé, du jardin clos d’Apple lors de la partie questions-réponses d’un récent appel sur les résultats lorsqu’on lui a demandé ce qu’il pensait de l’intelligence artificielle générative (IA) et où il « voyait cela aller ».

Cook s’est abstenu de révéler les plans d’Apple, déclarant d’emblée : « Nous ne commentons pas les feuilles de route des produits ». Cependant, il a fait étroit que l’entreprise était intéressée par l’espace :

«Je pense qu’il est très important d’être délibéré et réfléchi dans la façon dont vous abordez ces choses. Et il y a un certain nombre de problèmes qui doivent être triés. … Mais le potentiel est certainement très intéressant.

Le PDG a ajouté plus tard que l’entreprise considérait « l’IA comme énorme » et « continuerait à l’intégrer dans nos produits de manière très réfléchie ».

Les commentaires de Cook sur l’adoption d’une approche « délibérée et réfléchie » pourraient expliquer l’absence de l’entreprise dans l’espace de l’IA générative. Cependant, certains éléments indiquent qu’Apple mène ses propres recherches sur des modèles connexes.

Un document de recherche programmé qui sera publié lors de la conférence Interaction Design and Children en juin détaille un nouveau système pour lutter contre les biais dans le développement d’ensembles de données d’apprentissage automatique.

Le biais – la tendance d’un modèle d’IA à faire des prédictions injustes ou inexactes basées sur des données incorrectes ou incomplètes – est souvent cité comme l’une des préoccupations les plus urgentes pour le développement sûr et éthique des modèles d’IA générative.

Le papier, qui peut actuellement être lire en préimpression, détaille un système par lequel plusieurs utilisateurs contribueraient à développer l’ensemble de données d’un système d’IA avec une entrée égale.

Le développement de l’IA générative en statu quo n’ajoute pas de rétroaction humaine avant les étapes ultérieures, lorsque les modèles ont généralement déjà acquis un biais d’entraînement.

La nouvelle recherche d’Apple intègre la rétroaction humaine aux toutes premières étapes du développement du modèle afin de démocratiser essentiellement le processus de sélection des données. Le résultat, selon les chercheurs, est un système qui utilise une « approche pratique et collaborative pour introduire des stratégies de création d’ensembles de données équilibrés ».

En rapport: Le problème de la boîte noire de l’IA : défis et solutions pour un avenir transparent

Il convient de mentionner que cette étude de recherche a été conçue comme un paradigme éducatif pour encourager l’intérêt des novices pour le développement de l’apprentissage automatique.

Il pourrait s’avérer difficile de mettre à l’échelle les techniques décrites dans l’article pour les utiliser dans la formation de grands modèles de langage (LLM) tels que ChatGPT et Google Bard. Cependant, la recherche démontre une approche alternative pour lutter contre les préjugés.

En fin de compte, la création d’un LLM sans biais indésirable pourrait représenter un moment décisif sur la voie du développement de systèmes d’IA au niveau humain.

De tels systèmes risquent de perturber tous les aspects du secteur technologique, en particulier les mondes de la fintech, du trading de crypto-monnaie et de la blockchain. Des bots impartiaux de négociation d’actions et de cryptographie capables de raisonner au niveau humain, par exemple, pourraient bouleverser le marché financier mondial en démocratisant les connaissances commerciales de haut niveau.

De plus, la démonstration d’un LLM impartial pourrait grandement contribuer à satisfaire les préoccupations gouvernementales en matière de sécurité et d’éthique pour l’industrie de l’IA générative.

Cela est particulièrement remarquable pour Apple, car tout produit d’IA génératif qu’il développe ou choisit de prendre en charge bénéficierait du chipset d’IA intégré de l’iPhone et de son empreinte de 1,5 milliard d’utilisateurs.