OpenAI déploie un mode vocal avancé et non, il ne ressemblera pas à ScarJo

OpenAI a commencé à déployer sa fonctionnalité avancée Voice Mode. À partir d’aujourd’hui, un petit nombre d’utilisateurs payants de ChatGPT pourront avoir un tête-à-tête avec le chatbot IA. Tous les membres de ChatGPT Plus devraient avoir accès à l’ensemble d’outils étendu d’ici l’automne de cette année.

Dans une annonce sur X, la société a déclaré que cette version avancée de son mode vocal « offre des conversations plus naturelles et en temps réel, vous permet d’interrompre à tout moment et détecte et répond à vos émotions ».

La prise en charge des conversations vocales est arrivée en septembre dernier dans ChatGPT et la version la plus avancée a fait l’objet d’une démonstration publique en mai. ChatGPT-4o utilise un seul modèle multimodal pour les capacités vocales plutôt que les trois modèles distincts utilisés par sa solution audio précédente, ce qui réduit la latence dans les conversations avec le chatbot.

OpenAI a suscité de nombreuses critiques lors de la démo de mai pour avoir lancé une option vocale qui ressemblait étrangement à Scarlett Johansson, dont la carrière d’actrice comprenait le doublage du personnage d’IA Samantha dans le film de Spike Jonze. Son. La date de sortie du mode vocal avancé a été repoussée peu de temps après la réaction négative. Même si la société a insisté sur le fait que le doubleur n’imitait pas la performance de Johansson, la voix similaire a depuis été supprimée.

Source-145