Article

CITÉ : Notes sur le premier amendement

Les projets de loi AB 2839 et AB 2655 sont étroitement adaptés et soigneusement élaborés pour répondre à la pire désinformation électorale sans compromettre la liberté d’expression, sans entraver notre conversation politique ou sans compromettre par inadvertance un contenu inoffensif.

Notes sur le premier amendement de la California Initiative for Technology and Democracy (CITED)

Le gouverneur Newsom a récemment signé deux textes de loi répondre à la menace que représente la désinformation alimentée par l’IA pour nos élections.

AB 2839 et AB 2655 sont étroitement adaptés et soigneusement élaborés pour répondre aux pires désinformations électorales sans compromettre la liberté d’expression, sans entraver notre conversation politique ou sans compromettre par inadvertance un contenu inoffensif. 

AB 2839

La nature limitée de AB 2839

AB 2839, en vigueur immédiatement, interdit les deepfakes politiques qui présentent un candidat, un élu ou un responsable électoral comme faisant ou disant quelque chose qu'il n'a pas fait ou dit, ou qui indiquent des équipements électoraux et des sites de vote de manière matériellement fausse. Cette mesure vise précisément les pires formes de désinformation électorale.

  • Elle ne s’applique qu’aux contenus deepfake « matériellement trompeurs », c’est-à-dire qu’elle ne s’applique qu’aux contenus qui tromperaient une personne raisonnable. Les contenus manifestement faux, humoristiques, caricaturaux ou satiriques ne sont pas concernés par le projet de loi. (§ 20012(b)(1))
  • Elle requiert une « malveillance » de la part de la personne qui diffuse le contenu deepfake matériellement trompeur, ce qui signifie qu’elle ne s’applique que si la personne sait que le contenu est faux ou agit avec un mépris téméraire de la vérité. (§ 20012(b)(1))
  • Les deepfakes politiques parodiques ou satiriques qui sont tellement hyperréalistes qu'ils tromperaient une personne raisonnable en lui faisant croire qu'ils sont vrais doivent informer le spectateur que le contenu a été créé ou manipulé numériquement. (§ 20012(b)(3))
  • Elle ne s'applique que dans les 120 jours précédant une élection et, pour les deepfakes concernant les responsables électoraux ou les systèmes de vote, dans les 60 jours suivant l'élection. Elle ne s'applique que lorsque le risque de désinformation électorale est le plus élevé, et non pas à tout moment. (§ 20012(c))

Seuls les mauvais acteurs ont de quoi s'inquiéter

En bref, AB 2839 interdit uniquement les deepfakes politiques qui sont destinés à tromper et qui sont si sophistiqués qu'ils tromperaient une personne raisonnable. (La norme de la personne raisonnable est courante dans la loi et les tribunaux n'ont aucune difficulté à l'appliquer dans divers domaines.) À moins qu'un utilisateur de médias sociaux ou un acteur politique ne tente de mentir et de tromper ses concitoyens américains et de saper frauduleusement une élection, AB 2839 ne les affecte pas.

Qu'est-ce qui serait AB 2839 S'appliquer à, en termes réels ?

Un exemple de deepfake politique auquel s'appliquerait le projet de loi est l'appel automatisé de « Joe Biden » adressé aux démocrates du New Hampshire avant les élections primaires de cet État, les exhortant à NE PAS voter. Le faux appel automatisé avait pour but de tromper les électeurs et était suffisamment sophistiqué pour tromper presque n'importe qui. 

Quels sont les recours prévus par la loi ?

AB 2839 permet au destinataire ou à la victime d'un deepfake qui enfreint la loi d'utiliser une procédure accélérée pour arrêter rapidement la propagation de la désinformation par le biais d'une injonction et de demander des dommages et intérêts si nécessaire. Il n'y a aucune responsabilité pénale.

AB 2655

La nature limitée de AB 2655

AB 2655, en vigueur à compter du 1er janvier 2025, vise à mettre fin, pendant une période strictement limitée avant et après les élections, à la en ligne diffusion des pires deepfakes et de la désinformation visant malveillantement à empêcher les électeurs de voter ou à les inciter à voter par erreur sur la base de contenus frauduleux. 

Le texte prévoit que les grandes plateformes en ligne doivent supprimer ces contenus dès qu'elles en sont informées. Les contenus susceptibles d'être interdits se limitent aux deepfakes de candidats, de responsables électoraux et d'élus destinés à escroquer les électeurs. Le projet de loi exige également que d'autres faux contenus en ligne liés aux élections soient étiquetés comme tels, là encore pour une durée limitée. 

  • Elle ne s’applique qu’aux contenus deepfake « matériellement trompeurs », c’est-à-dire qu’elle ne s’applique qu’aux contenus qui tromperaient une personne raisonnable. Les contenus manifestement faux, humoristiques, caricaturaux ou satiriques ne sont pas concernés par le projet de loi. (§ 20513(a))
  • Cela exige que le contenu soit distribué avec malveillance. (§§ 20513(a)(2)(C), 20514(a)(3))
  • Elle ne s'applique que dans les 120 jours précédant une élection et, pour les deepfakes concernant des responsables électoraux, dans les 60 jours suivant l'élection. Elle ne s'applique que lorsque le risque de désinformation électorale est le plus élevé, et non pas à tout moment. (§ 20513(e))
  • La parodie ou la satire sont spécifiquement exemptées de la législation. (§ 20519(c))

Qu'est-ce qui serait AB 2655 S'appliquer à, en termes réels ?

Un exemple de deepfake politique auquel le projet de loi s'appliquerait est une publication Tik Tok qui comprend un deepfake d'un maire local « filmé » en train d'accepter un pot-de-vin, juste avant le jour du scrutin, ou une publication X qui comprend un deepfake d'un responsable électoral du comté affirmant que toutes leurs machines de vote ont été piratées, juste après le jour du scrutin. 

Quels sont les recours prévus par la loi ?

AB 2655 est exécutoire par le biais d'une procédure accélérée visant à stopper rapidement la propagation de la désinformation par le biais d'une injonction. Il n'y a aucune responsabilité pénale ou civile.

Fermer

Fermer

Bonjour ! Il semblerait que vous nous rejoigniez depuis {state}.

Vous voulez voir ce qui se passe dans votre état ?

Accéder à Common Cause {état}