Depuis plusieurs années, les technologues tirent la sonnette d’alarme quant au potentiel des systèmes d’IA avancés à causer des dommages catastrophiques à l’humanité.
Mais en 2024, ces avertissements ont été étouffés par une vision pratique et prospère de l’IA générative promue par l’industrie technologique – une vision qui a également profité à leur portefeuille.
Ceux qui mettent en garde contre les risques catastrophiques de l’IA sont souvent qualifiés de « pessimistes de l’IA », même si ce n’est pas un terme qu’ils affectionnent. Ils craignent que les systèmes d’IA prennent des décisions visant à tuer des gens, soient utilisés par les puissants pour opprimer les masses ou contribuent d’une manière ou d’une autre à la chute de la société.
En 2023, il semblait que nous étions au début d’une ère de renaissance pour la réglementation technologique. La disparition et la sécurité de l’IA – un sujet plus vaste qui peut englober les hallucinations, la modération insuffisante du contenu et d’autres façons dont l’IA peut nuire à la société – sont passées d’un sujet de niche discuté dans les cafés de San Francisco à un sujet de conversation apparaissant sur MSNBC, CNN et les premières pages du New York Times.
Pour résumer les avertissements émis en 2023 : Elon Musk et plus de 1 000 technologues et scientifiques ont appelé à une pause dans le développement de l’IA , demandant au monde de se préparer aux risques profonds de cette technologie. Peu de temps après, les meilleurs scientifiques d’OpenAI, de Google et d’autres laboratoires ont signé une lettre ouverte affirmant que le risque que l’IA provoque l’extinction de l’humanité devrait être davantage pris en compte. Quelques mois plus tard, le président Biden a signé un décret exécutif sur l’IA avec pour objectif général de protéger les Américains des systèmes d’IA . En novembre 2023, le conseil d’administration à but non lucratif derrière le premier développeur d’IA au monde, OpenAI, a licencié Sam Altman, affirmant que son PDG avait la réputation de mentir et qu’on ne pouvait pas lui faire confiance avec une technologie aussi importante que l’intelligence artificielle générale, ou AGI – autrefois le point final imaginé de l’IA, c’est-à-dire des systèmes qui montrent réellement une conscience de soi. (Bien que la définition évolue désormais pour répondre aux besoins commerciaux de ceux qui en parlent.)
Pendant un moment, il a semblé que les rêves des entrepreneurs de la Silicon Valley allaient passer au second plan par rapport à la santé globale de la société.
Mais pour ces entrepreneurs, le discours sur la fin de l’IA était plus préoccupant que les modèles d’IA eux-mêmes.
En réponse, le cofondateur d’a16z, Marc Andreessen, a publié « Pourquoi l’IA sauvera le monde » en juin 2023, un essai de 7 000 mots démantelant le programme des pessimistes de l’IA et présentant une vision plus optimiste de la manière dont la technologie évoluera.
« L’ère de l’intelligence artificielle est arrivée, et les gens sont en panique. Heureusement, je suis là pour apporter la bonne nouvelle : l’IA ne détruira pas le monde, et en fait, elle pourrait le sauver », a déclaré Andreessen dans son essai .
Dans sa conclusion, Andreessen a proposé une solution pratique à nos craintes concernant l’IA : aller vite et tout casser – en gros, la même idéologie qui a défini toutes les autres technologies du 21e siècle (et les problèmes qui en découlent). Il a fait valoir que les grandes entreprises technologiques et les startups devraient être autorisées à développer l’IA aussi rapidement et aussi agressivement que possible, avec peu ou pas d’obstacles réglementaires. Cela garantirait que l’IA ne tombe pas entre les mains de quelques entreprises ou gouvernements puissants et permettrait à l’Amérique de concurrencer efficacement la Chine, a-t-il déclaré.
Bien sûr, cela permettrait également aux nombreuses startups d’IA d’a16z de gagner beaucoup plus d’argent – et certains ont trouvé son optimisme technologique grossier à une époque de disparités de revenus extrêmes, de pandémies et de crises du logement.
Bien qu’Andreessen ne soit pas toujours d’accord avec Big Tech, gagner de l’argent est un domaine sur lequel l’ensemble du secteur peut s’accorder. Les cofondateurs d’a16z ont écrit une lettre au PDG de Microsoft, Satya Nadella, cette année, demandant essentiellement au gouvernement de ne pas réglementer du tout l’industrie de l’IA .
Pendant ce temps, malgré leurs hésitations en 2023, Musk et d’autres technologues n’ont pas ralenti leur rythme de croisière pour se concentrer sur la sécurité en 2024 – bien au contraire : les investissements dans l’IA en 2024 ont dépassé tout ce que nous avions vu auparavant. Altman est rapidement revenu à la tête d’OpenAI, et une masse de chercheurs en sécurité ont quitté l’entreprise en 2024 tout en tirant la sonnette d’alarme sur le déclin de sa culture de sécurité.
Le décret de Biden sur l’IA axé sur la sécurité est tombé en disgrâce cette année à Washington. Le nouveau président élu, Donald Trump, a annoncé son intention d’abroger le décret de Biden , arguant qu’il entrave l’innovation en matière d’IA. Andreessen dit avoir conseillé Trump sur l’IA et la technologie ces derniers mois, et Sriram Krishnan , un capital-risqueur de longue date chez a16z , est désormais le conseiller principal officiel de Trump sur l’IA.
Selon Dean Ball, chercheur en intelligence artificielle au Mercatus Center de l’université George Mason, les républicains à Washington ont plusieurs priorités liées à l’intelligence artificielle qui dépassent aujourd’hui la question de son échec. Il s’agit notamment de construire des centres de données pour alimenter l’intelligence artificielle, d’utiliser l’intelligence artificielle dans le gouvernement et l’armée, de concurrencer la Chine, de limiter la modération des contenus des entreprises technologiques de centre-gauche et de protéger les enfants contre les chatbots IA.
« Je pense que [le mouvement pour prévenir les risques catastrophiques liés à l’IA] a perdu du terrain au niveau fédéral. Au niveau des États et au niveau local, ils ont également perdu le seul combat majeur qu’ils avaient à mener », a déclaré Ball dans une interview avec TechCrunch. Bien sûr, il fait référence au projet de loi controversé SB 1047 sur la sécurité de l’IA en Californie.
Si l’IA a perdu la faveur des utilisateurs en 2024, c’est en partie parce que, à mesure que les modèles d’IA sont devenus plus populaires, nous avons également constaté à quel point ils peuvent être inintelligents. Il est difficile d’imaginer que Google Gemini devienne Skynet alors qu’il vous a simplement dit de mettre de la colle sur votre pizza .
Mais en même temps, 2024 a été une année où de nombreux produits d’IA ont semblé donner vie à des concepts de science-fiction. Pour la première fois cette année, OpenAI a montré comment nous pouvions parler avec nos téléphones et non à travers eux, et Meta a dévoilé des lunettes intelligentes avec compréhension visuelle en temps réel . Les idées sous-jacentes aux risques catastrophiques de l’IA proviennent en grande partie des films de science-fiction, et même s’il y a évidemment une limite, l’ère de l’IA prouve que certaines idées de science-fiction ne resteront peut-être pas fictives pour toujours.
Le plus grand combat contre l’IA de 2024 : SB 1047
La bataille pour la sécurité de l’IA en 2024 a atteint son paroxysme avec le projet de loi SB 1047 , soutenu par deux chercheurs en IA très réputés : Geoffrey Hinton et Yoshua Benjio. Le projet de loi visait à empêcher les systèmes d’IA avancés de provoquer des extinctions massives d’êtres humains et des cyberattaques qui pourraient causer plus de dégâts que la panne de CrowdStrike de 2024.
Le projet de loi SB 1047 a été adopté par l’Assemblée législative de Californie et a atteint le bureau du gouverneur Gavin Newsom, qui l’a qualifié de projet de loi à « impact démesuré ». Le projet de loi visait à empêcher le genre de choses contre lesquelles Musk, Altman et de nombreux autres dirigeants de la Silicon Valley avaient mis en garde en 2023 lorsqu’ils ont signé ces lettres ouvertes sur l’IA.
Mais Newsom a opposé son veto au projet de loi SB 1047. Quelques jours avant sa décision, il avait évoqué la régulation de l’intelligence artificielle sur scène dans le centre-ville de San Francisco, en déclarant : « Je ne peux pas tout résoudre. Que pouvons-nous résoudre ? »
Cela résume assez clairement la façon dont de nombreux décideurs politiques envisagent aujourd’hui le risque catastrophique de l’IA. Il ne s’agit pas simplement d’un problème avec une solution pratique.
Malgré tout, le projet de loi SB 1047 comportait des lacunes qui allaient au-delà de son objectif de réduire les risques catastrophiques liés à l’IA. Le projet de loi réglementait les modèles d’IA en fonction de leur taille, dans le but de ne réglementer que les plus gros acteurs. Cependant, cela ne tenait pas compte des nouvelles techniques telles que le calcul au moment des tests ou de l’essor des petits modèles d’IA, vers lesquels les principaux laboratoires d’IA se tournent déjà. En outre, le projet de loi a été largement considéré comme une attaque contre l’IA open source – et par procuration, contre le monde de la recherche – car il aurait empêché des entreprises comme Meta et Mistral de publier des modèles d’IA hautement personnalisables.
Mais selon l’auteur du projet de loi, le sénateur Scott Wiener, la Silicon Valley a joué un rôle déloyal pour influencer l’opinion publique sur le projet de loi SB 1047. Il avait précédemment déclaré à TechCrunch que les capital-risqueurs de Y Combinator et A16Z s’étaient engagés dans une campagne de propagande contre le projet de loi.
Plus précisément, ces groupes ont répandu l’idée que la loi SB 1047 enverrait les développeurs de logiciels en prison pour parjure. Y Combinator a demandé aux jeunes fondateurs de signer une lettre dans ce sens en juin 2024. À la même époque, Anjney Midha, associée générale d’Andreessen Horowitz, a fait une déclaration similaire dans un podcast.
La Brookings Institution a qualifié cette situation de l’ une des nombreuses déformations du projet de loi . Le projet de loi SB 1047 mentionnait que les dirigeants des entreprises technologiques devraient soumettre des rapports identifiant les lacunes de leurs modèles d’IA, et le projet de loi précisait que mentir sur un document gouvernemental constituait un parjure. Cependant, les investisseurs en capital-risque qui ont répandu ces craintes ont omis de mentionner que les personnes sont rarement accusées de parjure, et encore plus rarement condamnées.
YC a rejeté l’idée selon laquelle ils diffuseraient de la désinformation, déclarant auparavant à TechCrunch que le projet de loi SB 1047 était vague et pas aussi concret que le sénateur Wiener le prétendait.
De manière plus générale, le débat sur la SB 1047 a fait naître un sentiment croissant selon lequel les détracteurs de l’IA n’étaient pas seulement opposés à la technologie, mais aussi délirants. Le célèbre investisseur Vinod Khosla a déclaré que Wiener n’avait aucune idée des véritables dangers de l’IA lors de l’événement Disrupt 2024 de TechCrunch.
Yann LeCun, responsable scientifique de l’IA chez Meta, s’est longtemps opposé aux idées qui sous-tendent la catastrophe de l’IA, mais il s’est exprimé plus ouvertement cette année.
« L’idée que des systèmes [intelligents] puissent d’une manière ou d’une autre définir leurs propres objectifs et prendre le contrôle de l’humanité est tout simplement absurde, c’est ridicule », a déclaré LeCun à Davos en 2024 , soulignant que nous sommes très loin de développer des systèmes d’IA superintelligents. « Il existe de très nombreuses façons de concevoir [n’importe quelle technologie] de manière dangereuse, erronée, qui tue des gens, etc. Mais tant qu’il existe une façon de le faire correctement, c’est tout ce dont nous avons besoin. »
Le combat à venir en 2025
Les responsables politiques à l’origine du projet de loi SB 1047 ont laissé entendre qu’ils pourraient revenir en 2025 avec un projet de loi modifié pour faire face aux risques à long terme liés à l’IA. L’un des promoteurs du projet de loi, Encode, affirme que l’attention nationale suscitée par le projet de loi SB 1047 est un signal positif.
« Le mouvement pour la sécurité de l’IA a fait des progrès très encourageants en 2024, malgré le veto du projet de loi SB 1047 », a déclaré Sunny Gandhi, vice-président des affaires politiques d’Encode, dans un courriel adressé à TechCrunch. « Nous sommes optimistes quant au fait que la sensibilisation du public aux risques à long terme de l’IA s’accroît et que les décideurs politiques sont de plus en plus disposés à relever ces défis complexes. »
Gandhi affirme qu’Encode s’attend à des « efforts importants » en 2025 pour réguler les risques de catastrophe assistés par l’IA, bien qu’il n’en ait révélé aucun en particulier.
De l’autre côté, Martin Casado, associé général d’a16z, est l’un des leaders de la lutte contre la réglementation des risques catastrophiques liés à l’IA. Dans un éditorial de décembre sur la politique de l’IA, Casado a fait valoir que nous avons besoin d’une politique d’IA plus raisonnable à l’avenir, déclarant que « l’IA semble extrêmement sûre ».
« La première vague d’efforts stupides en matière de politique d’IA est en grande partie derrière nous », a déclaré Casado dans un tweet de décembre . « J’espère que nous pourrons être plus intelligents à l’avenir. »
Qualifier l’IA d’«extrêmement sûre» et tenter de la réglementer d’«idiote» est une simplification excessive. Par exemple, Character.AI, une start-up dans laquelle a16z a investi, fait actuellement l’objet d’une enquête et d’un procès pour des problèmes de sécurité des enfants. Dans le cadre d’un procès en cours, un garçon de 14 ans de Floride s’est suicidé après avoir prétendument confié ses pensées suicidaires à un chatbot Character.AI avec lequel il avait eu des conversations romantiques et sexuelles. Cette affaire montre comment notre société doit se préparer à de nouveaux types de risques liés à l’IA qui auraient pu paraître ridicules il y a quelques années à peine.
De plus en plus de projets de loi circulent pour lutter contre les risques à long terme liés à l’IA, notamment un projet qui vient d’être présenté au niveau fédéral par le sénateur Mitt Romney. Mais il semblerait que les pessimistes de l’IA aient du mal à se défendre en 2025.