Dans une déclaration publique, Scarlett Johansson a critiqué OpenAI pour avoir imité sa voix dans l'application ChatGPT. Il y a neuf mois, OpenAI a contacté Johansson pour obtenir des commentaires sur son système d'IA, mais elle a refusé pour des raisons privées. En entendant la voix, Johansson a déclaré qu'elle était choquée et furieuse parce que cela ressemblait tellement à la sienne que même ses amis les plus proches et les médias ne pouvaient pas faire la différence. Après avoir reçu de nombreux retours négatifs, OpenAI a décidé de supprimer l'option vocale « Sky » de ChatGPT en raison de ce litige.
Lors de l'événement OpenAI pour présenter le nouveau modèle GPT-4o, la voix « Sky » a été fortement promue et saluée pour sa réactivité et sa convivialité. Le personnage compagnon de l'IA joué par Scarlett Johansson dans le film "Her" de 2013 a été immédiatement associé à cette voix. Sam Altman, PDG d'OpenAI, a semblé reconnaître cette similitude en tweetant simplement « elle » après la conférence. Malgré cela, OpenAI a déclaré plus tard dans un article de blog que la voix de "Sky" était celle d'une autre actrice professionnelle, dont l'identité est gardée secrète pour préserver sa vie privée, et que la voix n'était pas calquée sur celle de Johansson.
Johansson a révélé qu'Altman lui avait présenté l'idée en premier lieu, laissant entendre que son implication pourrait contribuer à combler le fossé entre la technologie et la créativité et à accroître le niveau de confort des clients avec l'intelligence artificielle. Deux jours avant la première de "Sky", Altman a tenté de la convaincre de changer d'avis. Suite à son refus, les avocats de Johansson ont contacté OpenAI pour demander que la voix soit supprimée, et l'entreprise s'est rapidement conformée.
De nombreux commentateurs, dont l'animateur de "The Daily Show" Desi Lydic et l'épouse de Johansson, Colin Jost, ont critiqué la nature complaisante et sexiste de la voix de "Sky", déclenchant des débats plus larges sur l'incident. Après avoir examiné des centaines de réponses, OpenAI a justifié sa décision en affirmant que la voix avait été choisie pour ses caractéristiques intemporelles et fiables. Cet incident met en évidence la contradiction persistante entre les avancées technologiques et les considérations éthiques, et survient en même temps que les démissions de l'équipe de sécurité d'OpenAI et les inquiétudes persistantes de l'industrie du divertissement quant à la possibilité que l'IA remplace les emplois humains.