Au cours des derniers jours, j’ai entendu beaucoup de bruit affirmant qu’aujourd’hui ou demain, le sénateur Josh Hawley allait faire pression pour « hotline » le projet de loi que lui et le sénateur Richard Blumenthal ont présenté il y a des mois pour exempter explicitement l’IA de l’article 230. Le projet de loi est essentiellement une tentative de faire avancer le projet de loi rapidement en recherchant le consentement unanime (c’est-à-dire que personne ne s’y oppose) à un projet de loi.
Permettez-moi d’être extrêmement explicite : ce projet de loi serait un danger pour Internet. Et cela même si vous détestez à la fois l’IA et l’article 230. Nous avons déjà discuté de ce projet de loi, et j’ai alors expliqué ses problèmes, mais recommençons, car il y a une pression pour le faire adopter en douce.
Tout d’abord, un débat reste en cours sur la question de savoir si l’article 230 protège réellement les résultats des systèmes d’IA générative. Beaucoup de gens disent que cela ne devrait pas être le cas, arguant que les résultats proviennent de l’entreprise en question et ne sont donc pas le discours d’un tiers. L’avocat Jess Miers a présenté (pour moi) des arguments extrêmement convaincants quant aux raisons pour lesquelles cela était faux.
En bref, l’argument est que les tribunaux ont déjà déterminé que les résultats algorithmiques dérivés du contenu fourni par d’autres sont protégés par l’article 230. Cela a été vrai dans des cas impliquant des éléments tels que des extraits de recherche générés automatiquement ou des éléments tels que la saisie semi-automatique. Et c’est assez important, sinon nous perdrions les résumés des résultats de recherche générés par des algorithmes.
À partir de là, vous devez maintenant distinguer d’une manière ou d’une autre la « sortie générative de l’IA » des « résumés générés de manière algorithmique » et il n’y a tout simplement aucun principe limitatif ici. Vous déclarez simplement arbitrairement certains contenus générés de manière algorithmique comme « IA » et certains d’entre eux… non ?
Je reste quelque peu surpris que les auteurs de l’article 230, Ron Wyden et Chris Cox, aient soutenu avec enthousiasme l’affirmation selon laquelle l’article 230 ne devrait pas protéger les résultats de l’IA. Cela semble erroné au niveau de la loi et au niveau de la politique, comme indiqué ci-dessus.
Pourtant, les sénateurs Hawley et Blumenthal ont présenté ce projet de loi qui ferait tout gâcher, car il est rédigé de manière si stupide et si mal rédigée qu’il n’aurait jamais dû être présenté, et encore moins envisagé pour aller de l’avant.
Tout d’abord, si Wyden et Cox et ceux qui soutiennent que l’article 230 ne s’applique pas ont raison, alors ce projet de loi n’est même pas nécessaire en premier lieu, car la loi ne s’appliquerait déjà pas.
Mais plus important encore, la manière dont la loi est rédigée mettrait essentiellement fin à l’article 230, mais de la manière la plus stupide possible. Tout d’abord, le projet de loi définit l’IA générative de manière extrêmement large :
INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE.—Le terme « intelligence artificielle générative » désigne un système d’intelligence artificielle capable de générer de nouveaux textes, vidéos, images, audio et autres médias basés sur des invites ou d’autres formes de données fournies par une personne.
C’est toute la définition. Et cela pourrait s’appliquer à toutes sortes de technologies. La saisie semi-automatique répond-elle à cette qualification ? Probablement. On peut soutenir que la vérification orthographique et la vérification grammaticale le pourraient également.
Mais encore une fois, même si vous pouviez resserrer cette définition, vous rencontreriez toujours des problèmes. Parce que l’exemption prévue par le projet de loi est incroyablement large :
”(6) AUCUN EFFET SUR LES RÉCLAMATIONS LIÉES À L’INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE. — Rien dans le présent article (autre que le paragraphe (c)(2)(A)) ne doit être interprété comme affaiblissant ou limitant toute réclamation dans le cadre d’une action civile ou d’une accusation dans une poursuite pénale engagée en vertu du droit fédéral ou de l’État contre le fournisseur d’un service informatique interactif si la conduite sous-jacente à la réclamation ou à l’accusation implique l’utilisation ou la fourniture d’une intelligence artificielle générative par le service informatique interactif.
Nous devons résoudre les nombreux problèmes liés à cela. Notez que l’exemption du 230 ici ne concerne pas uniquement les résultats de l’IA générative. C’est si la conduite « implique l’utilisation ou la fourniture » d’une IA générative. Donc, si vous écrivez un article et qu’un correcteur de grammaire/orthographe d’IA suggère des modifications, alors l’entreprise n’est plus protégée par l’article 230 ?
Étant donné que l’IA est actuellement intégrée à pratiquement tout, cette « exemption » va engloutir toute la loi, car de plus en plus, tout contenu produit en ligne impliquera « l’utilisation ou la fourniture » d’IA générative, même si le contenu lui-même n’a rien à voir avec l’intelligence artificielle. le prestataire de services.
En bref, ce projet de loi ne supprime pas seulement 230 protections de la production d’IA, il en supprime en fait 230 à toute entreprise qui propose de l’IA dans ses produits. Il s’agit essentiellement d’un ensemble de sociétés Internet qui se rapprochent rapidement de « toutes ». À tout le moins, les plaignants poursuivront en justice et prétendront que le contenu contenait une composante d’IA générative juste pour éviter un licenciement 230 et faire traîner l’affaire.
Ensuite, comme vous pouvez demander à un système basé sur l’IA de faire quelque chose qui enfreint la loi, vous pouvez automatiquement supprimer les 230 protections de l’entreprise. Chez R Street, ils donnent un exemple dans lequel ils ont délibérément convaincu ChatGPT de diffamer Tony Danza.
Et, en vertu de cette loi, cela exposerait OpenAI à une responsabilité, même si tout ce qu’il faisait était de suivre les instructions des utilisateurs.
Ensuite, il y a un problème distinct ici. Cela crée une énorme faille dans la loi de l’État. Comme nous en discutons depuis des années, pour de très bonnes raisons, l’article 230 prévaut sur toute loi étatique qui pourrait le porter atteinte. Il s’agit d’empêcher les États d’imposer à Internet une responsabilité vexatoire en guise de punition (ce qui est de plus en plus populaire dans l’ensemble du spectre politique, les deux principaux partis politiques cherchant à punir les entreprises pour des raisons idéologiques).
Mais notez que cette exemption exclut délibérément la « loi de l’État ». Cela ouvrirait les portes à de terribles lois étatiques qui introduisent une responsabilité pour tout ce qui concerne l’IA, et contribuerait encore une fois à supprimer efficacement toute protection des entreprises qui proposent des produits dotés d’IA. Cela permettrait à des États politiquement motivés de commettre de nombreux méfaits.
Le résultat final nuirait à une tonne de discours sur Internet, car lorsque vous ajoutez de la responsabilité, vous obtenez moins de ce à quoi vous ajoutez de la responsabilité. Les entreprises seraient beaucoup moins disposées à héberger tout type de contenu, en particulier celui comportant un composant algorithmique, car cela les expose à des responsabilités en vertu de cette loi.
Cela rendrait également de nombreux outils trop risqués à proposer. Encore une fois, cela pourrait inclure des choses aussi simples que des vérificateurs d’orthographe et de grammaire, car de tels outils pourraient priver les entreprises et le contenu de tout type de protection.
Je veux dire, vous pourriez même voir des scénarios comme : si quelqu’un publiait sur Facebook un message diffamatoire contenant une image d’IA générative sans rapport, la partie diffamée pourrait désormais poursuivre Meta, plutôt que la personne qui fait la diffamation. Parce que l’utilisation de l’IA générative dans la publication priverait Meta des 230 protections.
Donc, fondamentalement, en vertu de cette loi, quiconque souhaite mettre un site Web en difficulté juridique doit simplement publier quelque chose de diffamatoire et y inclure du contenu d’IA générative, et l’entreprise perd les 230 protections pour ce contenu. À tout le moins, cela amènerait les entreprises à s’inquiéter beaucoup de l’autorisation de tout contenu partiellement généré par l’IA sur leurs sites, mais il est difficile de voir comment on pourrait même contrôler cela ?
Ainsi, en réalité, vous ajoutez simplement une responsabilité et supprimez 230 de l’ensemble d’Internet.
Encore une fois, même si vous pensez que l’IA est problématique et que le 230 nécessite une réforme majeure, ce n’est pas la bonne façon de procéder. Il ne s’agit pas d’une mesure législative étroitement ciblée. Il s’agit d’un marteau mal conçu pour l’Internet ouvert, du moins aux États-Unis. L’article 230 a été la clé pour que les États-Unis deviennent un leader du premier Internet ouvert. Les entreprises américaines sont à la tête de l’économie Internet, en grande partie grâce à l’article 230. Alors que nous entrons dans l’ère de l’IA générative, cette loi confierait fondamentalement la prochaine révolution technologique à tout autre pays qui le souhaite, en ajoutant une responsabilité ruineuse aux entreprises opérant dans le domaine. NOUS.
Même si vous détestez à la fois l’IA et l’article 230, vous devriez vous inquiéter du projet de loi Hawley/Blumenthal visant à supprimer les protections 230 de l’IA.
Plus d’histoires liées au droit de Techdirt :
Le tribunal rejette l’affirmation du syndicat selon laquelle les agents de la police de New York devraient être autorisés à étouffer les gens à mort Accord