OpenAI semble éprouver des difficultés avec la notion de consentement, la législation et les droits d’auteur en général, comme en témoigne la dernière polémique impliquant la célèbre actrice Scarlett Johansson.

L’origine de la controverse : un contact gênant avec Scarlett Johansson

Depuis plusieurs semaines, OpenAI, la société derrière le célèbre ChatGPT, fait face à des accusations préoccupantes. Après les poursuites engagées par le New York Times pour utilisation illégale de données et les soupçons entourant l’entraînement de leur IA de génération vidéo Sora sur des millions de vidéos YouTube, une affaire encore plus délicate éclate : l’appropriation supposée de la voix de Scarlett Johansson pour le nouvel assistant vocal « Sky ».

En septembre 2023, Scarlett Johansson reçoit un appel de Sam Altman, le patron d’OpenAI. Altman, dans une optique stratégique, sollicite l’actrice pour prêter sa voix à GPT Voice. Cet assistant vocal, dévoilé en mai 2024, aurait, selon Altman, pu tirer parti de la notoriété de Johansson, notamment pour son rôle de voix de l’IA dans le film « Her », pour instaurer une confiance chez les utilisateurs.

Cependant, l’actrice refuse catégoriquement après une mûre réflexion, évoquant des raisons personnelles. Cette décision, pourtant claire, n’a pas empêché certains observateurs de noter des similarités frappantes entre la voix de GPT Voice et celle de Johansson.

Le tweet maladroit et le retour de Sam Altman

Un événement marquant survient le 13 mai 2024, jour de la présentation de GPT Voice. Altman poste un simple tweet contenant le mot « her », une référence explicite au film dans lequel Johansson avait prêté sa voix. Cette publication, perçue comme une provocation, attise les soupçons autour de l’usage non consenti de la voix de l’actrice.

Pour aggraver les choses, Altman recontacte l’agent de Johansson seulement 48 heures avant la démonstration officielle pour solliciter à nouveau son autorisation. N’attendant pas de réponse, OpenAI procède à la démonstration, incluant la voix de Sky.

Le démenti officiel de Sam Altman

Face à l’ampleur des accusations, OpenAI se voit contraint de publier un démenti. Sam Altman, via un communiqué, justifie sa position :

« La voix de Sky n’est pas celle de Scarlett Johansson et n’a jamais été conçue pour lui ressembler. Nous avons recruté la voix de Sky avant de prendre contact avec Mme Johansson. Par respect pour Mme Johansson, nous avons cessé d’utiliser la voix de Sky dans nos produits. Nous sommes désolés pour Mme Johansson de ne pas avoir mieux communiqué. »

Cependant, ce démenti laisse plusieurs zones d’ombre. Si la voix de Sky n’a jamais été pensée pour ressembler à celle de Johansson, pourquoi Altman contacte-t-il l’actrice à deux reprises ? Si une autre artiste a été sélectionnée avant, pourquoi OpenAI s’applique-t-il soudainement à retirer la voix de Sky ?

Précédents litigieux : une tendance inquiétante

L’affaire Johansson n’est pas un cas isolé. OpenAI a déjà fait l’objet de critiques similaires. Le New York Times a engagé des poursuites pour utilisation illégale de ses données, et des rumeurs circulent sur l’entraînement de l’IA Sora avec des vidéos YouTube sans autorisation. Ces antécédents jettent une ombre sur les pratiques de la société et soulèvent des questions quant à son respect des droits d’auteur et du consentement.

La crédibilité d’OpenAI se trouve, une nouvelle fois, mise à l’épreuve. Les accusations de Johansson viennent s’ajouter à une liste déjà longue de griefs, fragilisant davantage l’image de la société. Répondre de manière convaincante à ces critiques devient impératif pour OpenAI, afin de restaurer la confiance et prouver sa conformité à la législation.

Perspectives et interrogations

Cette affaire soulève des questions cruciales pour l’avenir de l’IA et de la protection des droits d’auteur. À l’heure où les technologies avancées prolifèrent, où se situent la limite de l’éthique et du respect des individus ? OpenAI devra démontrer sa capacité à opérer dans le respect des lois et des droits de chacun.

Il est essentiel de se demander : cette polémique incitera-t-elle d’autres entreprises technologiques à revoir leurs pratiques ? Comment garantir que les voix, aussi bien littéralement que figurativement, resteront protégées dans un monde de plus en plus dominé par l’intelligence artificielle ?

Ça vous a plu ? 4.4/5 (29)

Partagez maintenant.

Jessica, journaliste expérimentée avec dix ans en gestion de projet et production de contenu, est diplômée de Sciences Po en Communication et Médias. Elle apporte une expertise stratégique et un regard éclairé sur l'actualité tech, enrichissant chaque sujet avec une écriture précise et captivante. Contact : [email protected].

Publiez votre avis