През 2024 в много страни се провеждат избори. Поради това политическите кампании са във фокуса на вниманието на законодателите с цел да се предпазят избирателите от манипулации и дезинформация.
В САЩ през декември 2022 г. Федералната избирателна комисия (FEC) e приела правила, отнасящи се до онлайн политическите реклами и тяхната прозрачност. Няколко щата са приели собствени закони на щатско ниво. Тези закони налагат задължения както на онлайн платформата, на която се показват политическите реклами, така и на рекламодателя. Тези закони включват различни изисквания за архивиране и разкриване на реклами.
Една област, в която щатите изглежда изпреварват федералния закон, е регулирането на използването на AI или deep fakes в политическата реклама.
Минесота
HF 1370 криминализира използването на deep fakes за влияние върху изборите или засягане на името на политически кандидат. Законът дефинира deep fakes като всеки видеозапис, филмов филм, звукозапис, електронно изображение или снимка или всяко технологично представяне на реч или поведение, което изглежда толкова реалистично, че разумен човек би повярвал, че изобразява реч или поведение на определено лице, когато речта или поведението са създадени с помощта на технически средства.
Законът криминализира и разпространението или сключването на договор или споразумение за разпространение на реклама, която включва deep fakes– което означава, че онлайн платформите, които приемат онлайн политическа реклама, която включва deep fakes, също могат да бъдат в нарушение на закона. Нарушенията водят до глоби от $1000 до $5000 или до пет години затвор в зависимост от естеството на нарушението.
Тексас
Приет през 2019 г., раздел 255.004 от Изборния кодекс на Тексас определя като престъпление създаването на deep fakes и публикуването или разпространението на видеоклип в рамките на 30 дни след изборите, когато намерението на deep fakes е да засегне неблагоприятно кандидат или да повлияе върху резултата от изборите. Нарушенията се наказват с до една година затвор или глоби до 4000 долара.
Вашингтон
Вашингтон наскоро прие SB 5152 за политическа реклама, който влезе в сила през юли. Законът на Вашингтон се фокусира върху „синтетични медии“, които се дефинират като аудио или видеозапис на външния вид, речта или поведението на дадено лице, които са били умишлено манипулирани с използването на генеративни състезателни мрежови техники или друга цифрова технология по начин, който създава реалистична но фалшиво изображение, аудио или видео. „Синтетичната медия“ трябва да изглежда като изобразяваща реално лице, действие или реч и да произвежда фундаментално различно разбиране от това, което един разумен човек би имал, като види непроменената или оригинална версия на изображението или записване. Интересното е, че законът не забранява директно използването на синтетични медии в политическа реклама, но изисква разкриване, в което се посочва: „Това (изображение/видео/аудио) е манипулирано.“ Спонсорът на предизборната комуникация носи отговорност, но законът изрично посочва, че и платформата може да носи отговорност в определени случаи и е длъжна да премахва съответната реклама.
Илинойс (SB 1742), Масачузетс (H 72) и Ню Джърси (SB 5510) също имат проекти за deep fakes и намеса в изборите. Мичиган има няколко свързани с AI изборни законопроекта.
Щатите или имат законодателство, което директно забранява използването на deep fakes и AI в политическата реклама (особено близо до избори), или, както в Калифорния и Вашингтон, щатите са по-либерални по отношение на използването на AI в политическа реклама, но изискват разкриване, че съдържанието е променено.
Същевременно не всички употреби на AI в политическите реклами са непременно вредни за кандидатите или изборите. Например изкуственият интелект може потенциално да се използва за превод на политически реклами на редица езици, правейки материала по-достъпен за избирателите.
По обзор на Loeb & Loeb LLP
В ЕС в края на 2023 е постигнато политическо споразумение по проекта за регламент относно прозрачността и таргетирането на политическото рекламиране (проектът на ЕК – тук).