Microsoft et a16z mettent de côté leurs différences et s’unissent pour plaider contre la réglementation de l’IA

Deux des plus grandes forces de deux écosystèmes technologiques profondément imbriqués – les grands acteurs historiques et les startups – ont arrêté de compter leur argent pour plaider conjointement pour que le gouvernement cesse et s’abstienne même d’envisager des réglementations qui pourraient affecter leurs intérêts financiers, ou comme ils aiment l’appeler, l’innovation.

« Nos deux entreprises ne sont peut-être pas d’accord sur tout, mais ce n’est pas une question de différences », écrivent ce groupe aux perspectives et intérêts très différents : les associés fondateurs d’a16z Marc Andreessen et Ben Horowitz, le PDG de Microsoft Satya Nadella et le président/directeur juridique Brad Smith. Un rassemblement véritablement intersectionnel, représentant à la fois les grandes entreprises et les gros investisseurs.

Mais c’est aux petites entreprises qu’ils s’intéressent, c’est-à-dire à toutes les entreprises qui auraient été affectées par la dernière tentative de dépassement réglementaire : le projet de loi SB 1047.

Imaginez être accusé de divulgation inappropriée de modèles ouverts ! Anjney Midha, associée générale d’a16z, a qualifié cette situation de « taxe régressive » sur les startups et de « capture réglementaire flagrante » par les grandes entreprises technologiques qui pourraient, contrairement à Midha et à ses collègues démunis, se permettre les avocats nécessaires pour se conformer.

Sauf que tout cela n’était que de la désinformation propagée par Andreessen Horowitz et d’autres intérêts financiers qui auraient pu être touchés en tant que bailleurs de fonds d’entreprises de plusieurs milliards de dollars. En fait, les petits modèles et les startups n’auraient été que légèrement touchés car la loi proposée les protégeait spécifiquement .

Il est étrange que le type même de coupe intentionnelle pour « Little Tech » que Horowitz et Andreessen défendent régulièrement ait été déformé et minimisé par la campagne de lobbying qu’eux et d’autres ont menée contre le projet de loi SB 1047. (L’architecte de ce projet de loi, le sénateur de l’État de Californie Scott Wiener, a récemment évoqué tout cela dans Disrupt .)

Ce projet de loi avait ses problèmes, mais son opposition a largement exagéré le coût de la mise en conformité et n’a pas réussi à soutenir de manière significative les affirmations selon lesquelles il découragerait ou pèserait sur les startups.

Cela fait partie du manuel établi que Big Tech – avec lequel Andreessen et Horowitz sont étroitement liés, malgré leur posture – applique au niveau de l’État où elle peut gagner (comme avec le SB 1047), tout en demandant des solutions fédérales dont elle sait qu’elles ne viendront jamais, ou qui n’auront aucun poids en raison des querelles partisanes et de l’incompétence du Congrès sur les questions techniques.

Cette déclaration commune récemment publiée sur « l’opportunité politique » est la dernière partie de la pièce : après avoir torpillé la SB 1047, ils peuvent dire qu’ils l’ont fait uniquement dans le but de soutenir une politique fédérale. Peu importe que nous attendions toujours la loi fédérale sur la confidentialité que les entreprises technologiques ont fait pression pendant une décennie tout en luttant contre les projets de loi des États.

Et quelles politiques soutiennent-ils ? « Une variété d’approches responsables fondées sur le marché. » En d’autres termes : ne touchez pas à notre argent, Oncle Sam.

Les réglementations devraient avoir « une approche scientifique et normative qui reconnaît les cadres réglementaires qui se concentrent sur l’application et l’utilisation abusive de la technologie » et devraient « se concentrer sur le risque que des acteurs malveillants utilisent l’IA à mauvais escient », écrivent les puissants VC et les dirigeants de Microsoft. Cela signifie que nous ne devrions pas avoir de réglementation proactive, mais plutôt des sanctions réactives lorsque des produits non réglementés sont utilisés par des criminels à des fins criminelles.

Cette approche a très bien fonctionné pour toute cette situation FTX, donc je peux comprendre pourquoi ils la préconisent.

« La réglementation ne devrait être mise en œuvre que si ses avantages dépassent ses coûts », écrivent-ils également. Il faudrait des milliers de mots pour expliquer à quel point cette idée, exprimée dans ce contexte, est hilarante. Mais fondamentalement, ce qu’ils suggèrent, c’est d’intégrer le renard au comité de planification du poulailler.

Les régulateurs devraient « permettre aux développeurs et aux startups de choisir les modèles d’IA à utiliser partout où ils développent des solutions et ne pas faire pencher la balance en faveur d’une plateforme en particulier », ajoutent-ils collectivement. Cela implique qu’il existe une sorte de plan visant à exiger une autorisation pour utiliser un modèle ou un autre. Comme ce n’est pas le cas, il s’agit d’un argument fallacieux.

En voici un gros que je dois citer dans son intégralité :

Le droit d’apprendre : le droit d’auteur vise à promouvoir le progrès des sciences et des arts utiles en étendant les protections aux éditeurs et aux auteurs pour les encourager à proposer de nouvelles œuvres et connaissances au public, mais pas au détriment du droit du public à apprendre de ces œuvres. Le droit d’auteur ne doit pas être utilisé pour signifier que les machines doivent être empêchées d’utiliser les données – le fondement de l’IA – pour apprendre de la même manière que les humains. Les connaissances et les faits non protégés, qu’ils soient contenus ou non dans des objets protégés, doivent rester libres et accessibles.

Pour être clair, l’affirmation explicite ici est que les logiciels, gérés par des sociétés de plusieurs milliards de dollars, ont le « droit » d’accéder à toutes les données parce qu’ils devraient pouvoir en tirer des enseignements « de la même manière que les gens ».

Tout d’abord, non. Ces systèmes ne sont pas comme les humains : ils produisent des données qui imitent la production humaine dans leurs données d’entraînement . Ce sont des logiciels de projection statistique complexes dotés d’une interface en langage naturel. Ils n’ont pas plus de « droit » sur un document ou un fait qu’Excel.

Deuxièmement, cette idée selon laquelle les « faits » – par lesquels ils entendent la « propriété intellectuelle » – sont la seule chose qui intéresse ces systèmes et qu’une sorte de cabale de thésaurisation des faits s’efforce de les en empêcher est un récit conçu par nous, comme nous l’avons déjà vu. Perplexity a invoqué l’argument « les faits appartiennent à tout le monde » dans sa réponse publique à une plainte pour vol systématique présumé de contenu, et son PDG Aravind Srinivas m’a répété cette erreur sur scène à Disrupt , comme si Perplexity était poursuivi pour avoir connaissance de choses triviales comme la distance entre la Terre et la Lune.

Bien que ce ne soit pas le lieu de se lancer dans un exposé complet de cet argument de paille particulier, permettez-moi simplement de souligner que si les faits sont effectivement des agents libres, la façon dont ils sont créés – par exemple, par des reportages originaux et des recherches scientifiques – implique des coûts réels. C’est pourquoi les systèmes de droits d’auteur et de brevets existent : non pas pour empêcher le partage et l’utilisation à grande échelle de la propriété intellectuelle, mais pour encourager sa création en s’assurant qu’on puisse lui attribuer une valeur réelle.

La loi sur le droit d’auteur est loin d’être parfaite et elle est probablement aussi mal utilisée qu’utilisée. Mais elle n’est pas « cooptée pour impliquer que les machines devraient être empêchées d’utiliser les données ». Elle est appliquée pour garantir que les acteurs malveillants ne contournent pas les systèmes de valeur que nous avons construits autour de la propriété intellectuelle.

C’est très clairement la question : laisser les systèmes que nous possédons, gérons et dont nous tirons profit utiliser librement les précieuses productions d’autrui sans compensation. Pour être juste, cette partie s’applique « de la même manière que les humains », car ce sont les humains qui conçoivent, dirigent et déploient ces systèmes, et ces humains ne veulent pas payer pour quoi que ce soit qu’ils n’ont pas à payer et ne veulent pas que la réglementation change cela.

Ce petit document politique contient de nombreuses autres recommandations, qui sont sans doute plus détaillées dans les versions qu’ils ont envoyées directement aux législateurs et aux régulateurs par le biais des canaux de lobbying officiels.

Certaines idées sont sans aucun doute bonnes, même si elles sont un peu égoïstes : « financer des programmes d’alphabétisation numérique qui aident les gens à comprendre comment utiliser les outils d’IA pour créer et accéder à l’information. » Bien ! Bien sûr, les auteurs sont très investis dans ces outils. Soutenez « Open Data Commons – des pools de données accessibles qui seraient gérés dans l’intérêt public. » Super ! « Examinez ses pratiques d’approvisionnement pour permettre à davantage de startups de vendre des technologies au gouvernement. » Génial !

Mais ces recommandations plus générales et positives sont le genre de choses que l’on voit chaque année de la part de l’industrie : investir dans les ressources publiques et accélérer les processus gouvernementaux. Ces suggestions acceptables mais sans conséquence ne sont qu’un véhicule pour les suggestions plus importantes que j’ai décrites ci-dessus.

Ben Horowitz, Brad Smith, Marc Andreessen et Satya Nadella souhaitent que le gouvernement renonce à réglementer ce nouveau développement lucratif, qu’il laisse l’industrie décider des réglementations qui valent la peine d’être négociées et qu’il abolisse le droit d’auteur d’une manière qui agisse plus ou moins comme une grâce générale pour les pratiques illégales ou contraires à l’éthique que beaucoup soupçonnent d’avoir permis l’essor rapide de l’IA. Ce sont ces politiques qui comptent pour eux, que les enfants acquièrent ou non des connaissances numériques.

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use