Scarlett Johansson n'était pas contente du nouveau système ChatGPT d'OpenAI qui ressemble à « elle »

En mars, OpenAI a lancé son dernier produit, ChatGPT-4, et il y a une semaine, a présenté un nouveau modèle vocal, surnommé « Sky », qui, selon de nombreux commentateurs, sonnait presque affectueux – et très similaire à Samantha, l'assistante virtuelle exprimée par Scarlett Johansson. dans le film d'amour de Spike Jonze en 2013 Son. Malheureusement pour OpenAI, cela ressemblait un peu trop à Johansson, qui a déclaré dans un communiqué qu'elle était « choquée » et « en colère » que la voix ressemble si étroitement à la sienne – surtout après avoir précédemment refusé une invitation à exprimer Sky lors de son développement.

Dans la déclaration, partagée par Bobby Allyn de NPR sur X (anciennement connu sous le nom de Twitter), Johansson a révélé que Sam Altman, PDG d'OpenAI récemment évincé et réintégré, l'avait contactée pour lui demander d'exprimer ChatGPT-4. « Après mûre réflexion et pour des raisons personnelles », a-t-elle écrit, « j'ai décliné l'offre ». Cependant, elle a été alertée du nouveau système Sky par des amis et des proches qui ont remarqué les similitudes avec sa voix dans Sonet a contacté Altman – qui avait annoncé la sortie du produit en poster le mot «elle» sur X — demander des détails sur la création du produit.

Sky a depuis été désactivé, OpenAI publiant sur X : « Nous avons entendu des questions sur la façon dont nous avons choisi les voix dans ChatGPT, en particulier Sky. Nous travaillons à suspendre l’utilisation de Sky pendant que nous y répondons. Dans un article de blog ci-joint, la société affirme que la voix « appartient à une actrice professionnelle différente utilisant sa propre voix naturelle » et a été conçue pour être « accessible » et « naturelle et facile à écouter ».

Vous pouvez lire la déclaration complète de Johansson ci-dessous. Notamment, Johansson a eu une certaine chance en s’attaquant à de grandes entreprises dans le passé ; Disney a réglé son procès pour impayé Veuve noire redevances il y a quelques années.

« En septembre dernier, j'ai reçu une offre de Sam Altman, qui souhaitait m'embaucher pour exprimer le système ChatGPT 4.0 actuel. Il m'a dit qu'il pensait qu'en exprimant le système, je pourrais combler le fossé entre les entreprises technologiques et les créatifs et aider les consommateurs à se sentir à l'aise avec le changement sismique concernant les humains et Al. Il a dit qu'il pensait que ma voix réconforterait les gens.
Après mûre réflexion et pour des raisons personnelles, j'ai décliné l'offre. Neuf mois plus tard, mes amis, ma famille et le grand public ont tous remarqué à quel point le nouveau système nommé « Sky » me ressemblait.
Quand j'ai entendu la démo publiée, j'ai été choqué, en colère et incrédule que M. Altman poursuive une voix qui ressemblait si étrangement à la mienne que mes amis les plus proches et les médias ne pouvaient pas faire la différence. M. Altman a même insinué que la similitude était intentionnelle, en tweetant un seul mot « elle » – une référence au film dans lequel j'exprimais un système de chat, Samantha, qui noue une relation intime avec un humain.
Deux jours avant la sortie de la démo ChatGPT 4.0, M. Altman a contacté mon agent pour me demander de reconsidérer ma décision. Avant que nous puissions nous connecter, le système était là.
À la suite de leurs actions, j’ai été obligé d’engager un conseiller juridique, qui a écrit deux lettres à M. Altman et OpenAl, expliquant ce qu’ils avaient fait et leur demandant de détailler le processus exact par lequel ils ont créé la voix « Sky ». Par conséquent, OpenAl a accepté à contrecœur de retirer la voix de « Sky ».
À une époque où nous sommes tous aux prises avec les deepfakes et la protection de notre propre image, de notre propre travail, de notre propre identité, je pense que ce sont des questions qui méritent une clarté absolue. J’attends avec impatience une résolution sous forme de transparence et l’adoption d’une législation appropriée pour contribuer à garantir la protection des droits individuels. »