Avec la sortie du biopic « Oppenheimer », le 21 juillet dernier, le scénariste et réalisateur Christopher Nolan, connu pour ses deux superproductions emblématiques et cérébrales « Interstellar » et « Inception », s’attaque à la menace d’une guerre thermonucléaire et à l’anéantissement de l’humanité.
Le journaliste J.Kim Murphy nous relate l’épisode dans Variety (15 juillet 2023 : Christopher Nolan Warns of terrifying possibilities as AI reaches « Oppenheimer moment ») dans lequel le visionnaire Nolan a fait preuve de la plus grande prudence à l’égard de l’intelligence artificielle, en marge d’une projection spéciale d’Oppenheimer à New-York.
A l’origine du mythe
Le film retrace l’histoire de J.Robert Oppenheimer, physicien charismatique et cérébral interprété par Cillian Murphy, qui a été chargé de diriger le projet Manhattan à Los Alamos, au nouveau Mexique, afin de fabriquer la bombe atomique pendant la Seconde Guerre Mondiale. Oppenheimer a été salué comme un héros à l’issue des bombardements d’Hiroshima et de Nagasaki, qui ont mis fin à la guerre contre le Japon en 1945, l’Allemagne s’étant déjà rendue.
Quelques années plus tard, en 1954, son habilitation de sécurité lui a été retirée lors de son audience tristement célèbre, devant les conseillers de la commission de l’énergie atomique, en raison de ses liens étroits avec la gauche universitaire de l’Université californienne de Berkeley – entre autres sa petite amie et son frère, tous deux membres du parti communiste – et de son opposition à la construction d’une super bombe à hydrogène, encouragée par son collègue Edward Teller.
Hollywood n’a pas peur de s’attaquer aux mythes.
Le correspondant du New York Times, Dennis Overbye interroge Nolan : « J.Robert Oppenheimer est-il donc la personne la plus importante qui ait jamais vécu ? »
Le réalisateur Christopher Nolan le pense. Il sera assurément l’homme qui aura détruit le monde. « Qui est plus important que ça ? »
C’est peut-être l’homme qui appuie sur le bouton qui détruit le monde.
Mais Nolan poursuit « Il faut avoir un bouton sur lequel appuyer. Je pense qu’il est très facile d’affirmer qu’Oppenheimer est la personne la plus importante qui ait jamais vécu, car c’est lui qui a facilité et réalisé les armes atomiques et même la bombe à hydrogène, parce qu’il a laissé Teller travailler dessus. C’est donc lui qui a été capable de rassembler les forces de manière efficace. »
« Existe-t-il un univers parallèle dans lequel il ne s’agit pas d’Oppenheimer, mais de quelqu’un d’autre ? C’est tout à fait possible, mais cela ne doit pas contribuer à diminuer son importance dans l’Histoire. L’Histoire ne se bâtit pas qu’à partir de simples évolutions sociétales mais est faite par des individualités fortes. C’est un débat très philosophiques ».
« Vers un moment Oppenheimer »
Le 16 juillet dernier, lors d’une table ronde, animée par présentateur de l’émission Meet the Press, Chuck Todd, en présence du directeur du laboratoire national de recherche de Los Alamos, M.Thom Mason, des physiciens Carlo Rovelli et Kip Thorne, et du co-auteur d ’ « American Prometheus : the Triumph and Tragedy of J.Robert Oppenheimer », dont s’inspire le biopic, Christopher Nolan insiste sur le fait que les gens doivent « être tenus responsables » du développement de l’intelligence artificielle.
Il avertit : « l’intelligence artificielle est sur le point d’atteindre un moment Oppenheimer. Au cours des 15 dernières années, de plus en plus d’entreprises ont utilisé des termes comme algorithmes, en ignorant leur réelle signification mathématique. Les personnes, dans mon business, dans l’industrie cinématographique, qui ne font que d’en parler, ne veulent simplement pas assumer la responsabilité des conséquences de ce que produit algorithme. »
« Appliquée à l’IA, cette perspective est tout simplement terrifiante » poursuit-il. « Non seulement parce que les systèmes propres à l’intelligence artificielle serviront les infrastructures défensives et probablement seront en charge de l’activation des armes nucléaires. Si l’on considère que l’IA est une entité distincte de la personne qui est à l’activation et à la programmation, nous sommes bel et bien condamnés. Nous devons tenir les gens responsables de ce qu’ils font avec les outils dont ils disposent ».
Les commentaires du réalisateur interviennent alors que l’industrie cinématographique américaine a été quasi à l’arrêt quelques jours, le 17 juillet dernier ; la SAG –AFTRA ayant ordonné une grève pour rejoindre les membres du second syndicat, la WGA sur les piquets de grève, pour la première fois depuis 1980. Les parties prenantes, syndicats et grands studios restent en désaccord sur une dizaine de points, dont seulement quelques- uns ont été rendus publics. Selon les sources, le principal point d’achoppement est la demande du syndicat majoritaire de percevoir 2% des revenus générés par les émissions en streaming.
Parmi les nombreux désaccords entre les syndicats et les grands studios Hollywoodiens, la question de l’intelligence artificielle et ses répercussions sur les pratiques et la qualité du travail dans l’industrie cinématographique américaine reste un problème majeur. Le syndicat SAG-AFTRA ne cherche pas à bannir l’IA d’Hollywood, mais veut s’assurer que toute utilisation de l’image d’un artiste/interprète doit s’accompagner d’une nécessaire compensation et de son consentement préalable. Le diable se cacherait-il dans les détails ?
« Il s’agit d’une proposition très habilement élaborée par les studios dont les profanes ignorent les failles » affirment les syndicats. « Cela permettrait aux studios d’avoir carte blanche pour générer des profils d’artistes-interprètes grâce à l’IA, ou d’en détourner les usages à d’autres fins ». La SAG-AFTRA souhaite imposer aux studios le consentement du syndicat pour toute utilisation individuelle de l’IA, ce que les grands studios ont refusé à la table de négociations.
« Avec les conflits de travail actuellement à Hollywood, nous ne pouvons ignorer les dérives propres à l’IA, à savoir que lorsque vous innovez par des biais technologiques, vous devez maintenir un haut niveau de responsabilité » a déclaré Christopher Nolan.
« Pensez-vous que nous continuerons à réexaminer le cas Oppenheimer » interroge le modérateur, Chuck Todd ? « Au fur et à mesure que notre compréhension de la physique quantique progresse, au fur et à mesure que nous apprivoisons l’atome ? »
« Je l’espère », déclare Nolan. « Lorsque je discute avec les principaux chercheurs dans le domaine de l’intelligence artificielle, ils parlent littéralement de ce moment- aujourd’hui- comme de leur moment Oppenheimer. Ils se tournent vers l’Histoire pour savoir quelles sont les responsabilités des scientifiques qui développement ces nouvelles technologies ».
Todd poursuit et questionne : « Pensez-vous que la Silicon Valley soit en train de s’interroger dessus en ce moment ? »
« Je ne dis pas que l’histoire personnelle d’Oppenheimer » apporte des réponses faciles à ces questions de fond, mais elle est une invitation à s’interroger sur la notion de responsabilité individuelle et collective des gens à la manœuvre », poursuit Nolan.
« Les regrets du parrain de l’intelligence artificielle »
Geoffroy Hinton, qui a contribué à l’invention de la technologie à l’origine de ChatGPT, craint que nous soyons en train de nous précipiter vers un danger similaire à celui que décrit Nolan.
Cade Metz, correspondant « Technologies » pour le New-York Times, s’est entretenu avec le parrain de l’IA le 30 mai 2023, alors que le monde commence à expérimenter le pouvoir de l’intelligence artificielle. Le nécessaire débat afin d’en limiter les risques s’est posé. Et l’un des avertissements, le plus retentissant, émane d’un homme qui est à l’origine de l’invention de cette technologie. Geoffroy Hinton a déclaré avoir quitté son emploi chez Google, où il a travaillé pendant plus de 10 ans, et est devenu l’une des voix les plus respectées. Ces entreprises, selon lui, courent à leurs pertes en encourageant des campagnes agressives de création de produits, basés sur l’IA générative, cette technologie qui alimente les chatbots populaires tels que ChatGPT.
Hinton poursuit en déclarant au New- York Times que jusqu’à l’année dernière, il pensait que Google avait été un bon « gestionnaire » de la technologie, mais que cela avait changé lorsque Microsoft a commencé à incorporer un chatbot dans son moteur de recherche Bing et que l’entreprise a commencé à manifester des craintes pour ses activités de recherche et développement.
« Certains dangers liés à l’IA des chatbots sont assez effrayants » a-t-il déclaré à la BBC, avertissant qu’ils pourraient devenir plus intelligents que les humains et être exploités par de mauvais acteurs. Ils peuvent produire beaucoup de texte automatiquement, ce qui permet d’obtenir des spambots très efficaces. « Cela permettra aux autocrates de manipuler leur électorat, ce genre de choses ».
Hinton ajoute cependant « être préoccupé par le risque existentiel de ce qui se passe lorsque ces choses deviennent plus intelligentes que nous ». « J’en suis arrivé que la conclusion que le type d’intelligence que nous développons est très différent de l’intelligence que nous avons. C’est comme si vous aviez 10 000 personnes et qu’à chaque fois qu’une personne apprend quelque chose, tout le monde le sait automatiquement. C’est ainsi que prospère la technologie des chatbots, qui peuvent en savoir beaucoup plus que n’importe quelle personne ».
Nolan, Hinton ne sont pas les seuls dans les hautes sphères de la recherche sur l’IA et du soft power hollywoodien à craindre les dérives technologiques.
Le mois dernier, Elon Musk a déclaré s’être brouillé avec le cofondateur de Google, Larry Page, parce que ce dernier ne prenait pas « la question de la sécurité de l’IA suffisamment au sérieux. M. Musk a déclaré à Fox News que M. Page voulait créer non pas une « super intelligence numérique, mais un dieu numérique » et « dès que possible ».
Les deux journalistes Josh Taylor et Alex Hern, dans The Guardian, du 2 mai 2023 (Godfather of AI, Geoffrey Hinton quits Google and warns over dangers of misinformation) indiquent que la Directrice générale de Mila, l’Institut Quebécois de l’IA, Valérie Pisano, a déclaré que « l’approche négligente de la sécurité des systèmes d’IA ne serait tolérée dans aucun autre domaine ». « La technologie est mise en place et lorsque le système interagit avec l’homme, ses développeurs attendent de voir ce qui se passe et procèdent à des ajustements en conséquences ».
Or l’inquiétude de M. Hinton sur le court-terme concerne un phénomène qui est devenu déjà une réalité : les utilisateurs des média sociaux par exemple ne sont plus en mesure de discerner le vrai, avec des photos, des vidéos, générés à l’IA qui inondent Internet. « Les récentes améliorations apportées à des générateurs d’images tels que Midjourney », indiquent Josh Taylor et Alex Hern, « permettent désormais de produire des images photoréalistes – une image du pape François vêtu d’un manteau Balenciaga, qui est devenue virale en mars dernier ».
Si le directeur scientifique de Google, Jeff Dean, a déclaré dans un communiqué, que Google appréciait les contributions de M. Hinton, à l’entreprise au cours de la dernière décennie, Geoffroy Hinton, quant à lui déclare que l’IA peut finir par remplacer des emplois tels que ceux de back-office : assistants juridiques, assistants personnels ou d’autres « travaux pénibles » à l’avenir.
Diplômée de la Business School de La Rochelle (Excelia – Bachelor Communication et Stratégies Digitales) et du CELSA – Sorbonne Université, Angélique Bouchard, 25 ans, est titulaire d’un Master 2 de recherche, spécialisation « Géopolitique des médias ». Elle est journaliste indépendante et travaille pour de nombreux médias. Elle est en charge des grands entretiens pour Le Dialogue.