Запись в блоге
Голосование по почте под угрозой: обновление Акта 77
Запись в блоге
Наша демократия может процветать только тогда, когда избиратели будут иметь доступ к точной информации. Но дипфейки, созданные с использованием генеративного искусственного интеллекта (ИИ), используются в качестве оружия для распространения дезинформации и подавления голосов. Дипфейки уже вступили в игру на президентских выборах 2024 года. Возьмем, к примеру, поддельное видео Рон ДеСантис заявил, что выходит из президентской гонки 2024 года. Во время праймериз в Нью-Гемпшире избиратели получили Робот-звонок, выдающий себя за президента Джо Байдена в котором говорилось, что получателям не следует голосовать на президентских выборах.
Новый закон Пенсильвании будет регулировать использование искусственного интеллекта в политической рекламе, повышая прозрачность и подотчетность.
Deepfakes — это цифровые измененные видео, аудио или изображения, которые могут быть использованы для введения людей в заблуждение. Этот контент показывает события или заявления, которые на самом деле не происходили. Благодаря этой технологии искусственного интеллекта вы можете буквально вкладывать слова в уста других людей и выражения их лиц. Это тревожно, особенно в контексте выборов.
В 2018 году режиссер Джордан Пил снял короткометражный видеоролик, демонстрирующий опасность дипфейков:
К сожалению, за шесть лет, прошедших с момента выхода этого видео, дипфейки стали только дешевле и проще в производстве — и, что тревожно, гораздо более убедительными.
Технология искусственного интеллекта быстро развивается, и становится все сложнее отличить deepfake от реальности. Видео, на создание которого несколько лет назад потребовался бы большой бюджет и целая производственная команда, теперь может быть собрано обычными пользователями всего за несколько щелчков мыши.
Глубокие фейки уже применялись на президентских выборах 2024 года. Во время предварительных выборов в Нью-Гемпшире избиратели получили звонок-робот, выдающий себя за президента Джо Байдена в котором говорилось, что получателям не следует голосовать на президентских выборах.
Контент, созданный ИИ, стирает границы между мошенничеством и свободой слова. В социальных сетях люди могут свободно выражать свои идеи и взгляды в рамках политик платформы.
Конгресс, Федеральная комиссия по связи (FCC) и Федеральная избирательная комиссия (FEC) обсудили предложения, которые будут регулировать использование генеративного ИИ в политической рекламе, но они вряд ли предпримет какие-либо действия до всеобщих выборов 2024 года. В отсутствие действий на федеральном уровне штаты по всей стране приняли законы, регулирующие использование ИИ на выборах.
Согласно разделу 230 Закона о благопристойности в сфере коммуникаций 1996 года, поставщики интернет-услуг защищены от ответственности за пользовательский контент и могут устанавливать собственные стандарты модерации и удаления контента. Это делает пользователей ответственными за свой собственный контент, вызывая споры о балансе между поощрением онлайн-свободы и смягчением вредного контента.
Комитет правительства штата Пенсильвания выдвинул законопроект (НВ 2353) чтобы остановить распространение ИИ-сгенерированных дипфейков на наших выборах. Как изначально было написано, НВ 2353 был надежной отправной точкой для регулирования политического контента, создаваемого ИИ; Common Cause Pennsylvania рекомендовала усилить законопроект некоторыми положениями, которые были приняты комитетом:
Если вы живете в Пенсильвании, свяжитесь с законодателями вашего штата и попросите их принять этот закон. НВ 2353 в его нынешнем виде, чтобы защитить будущее нашей демократии.
Независимо от того, где вы живете, вы можете поговорить с друзьями и семьей о deepfakes и призвать их проверять точность информации, которую они видят в сети. Вы также можете сообщить о дезинформации на https://reportdisinfo.org/.
Common Cause работает над повышением устойчивости нашей демократии, противодействуя таким угрозам, как дезинформация.
Для получения обновлений следите за нами на X [Твиттер], Инстаграм, Нитки, Фейсбук, и ТикТок.
Запись в блоге