Вълна от дълбоки фалшификации на изборите не се очаква, но рискът остава

Сградите на Европейския парламент (вляво) и Конгреса на САЩ (вдясно)

Новини на Noos

  • Нандо Кастелин

    Технически редактор

  • Нандо Кастелин

    Технически редактор

В началото на тази година жителите на американския щат Ню Хемпшир получиха обаждане, което изглежда идваше от президента Байдън: Председателят на Камарата на представителите ги посъветва да не гласуват на първичните избори. Преброени са само реалните избори през ноември.

Само че не президентът се обаждаше, а гласът на AI, предаващ съобщението, в случая com. Обажданията идват от компания в Тексас. Тази компания сега е разследвана за незаконни дейности.

От години се разпространява дезинформация за изборите, като в миналото се споменаваше Русия. 2024 г. е специална изборна година, в която повече от половината от населението на света ще отиде до урните. Изборите вече са в ход в Индия, като Европа е планирана да ги последва в началото на следващия месец, след това в Съединените щати тази есен.

Така че залозите са високи, докато deepfakes стават все по-лесни за създаване, благодарение на възхода на генеративния AI.

Една дълбока е достатъчна

„Един аудио файл, генериран от изкуствен интелект ден или два преди изборите, е достатъчен, за да повлияе на гласуването“, каза Томазо Канета, който координира проверката на фактите в Европейската обсерватория за цифрови медии. Това всъщност се случи в Словакия миналата година, което постави лидера на Либералната партия в лоша позиция.

Според Канета в момента аудиото е най-проблемната алтернатива. С изображения, генерирани с помощта на AI, често ще видите (малки) аберации в изображението. Това се виждаше ясно С картинка От Франс Тимерманс, разпространена на X миналата есен, снимката очевидно е фалшива.

READ  Правилата за изчисляване на азота може да бъдат подкопани с ново решение на Държавния съвет

Видеоклиповете, генерирани от AI, все още не са толкова добри, че да са неразличими от истинските, въпреки че Sora, модел за текст към видео от OpenAI, може да промени това. В днешно време това са предимно видеоклипове, при които аудиото е фалшиво и се прави синхронизиране на устни.

„Вокалните дълбоки фалшификати са най-вредни, защото средният потребител не може лесно да ги разпознае, особено ако не обръщате голямо внимание на начина на говорене и граматиката“, казва Канета. Той подчертава, че има добри начини за идентифициране на тези видове deepfakes, но те не предоставят 100% гаранция.

Чуйте дълбокия фейк на Джо Байдън тук. Първо чувате истинския глас на Байдън и след това фалшивия:

Фалшификатът е неразличим от истинския: чуйте дълбокия фейк на Джо Байдън тук

Canetta изготвя месечни отчети за броя проверки на факти, извършени от европейски организации за проверка на факти, и също така следи броя на проверките на факти, извършени с помощта на изкуствен интелект. През март от 1729 проверени артикула 87 са генерирани с помощта на AI, или 5 процента.

Според Канета обаче дори не е необходим голям номер. Дийпфейковете обаче могат да окажат влияние върху избирателите. Том Добер, свързан с университета в Амстердам, също стигна до това заключение с други изследователи след тестване. Накараха комисия да изгледа фалшиво видео на американския политик демократ Нанси Пелоси, в което тя оправдава щурма на Капитолия.

След това демократите бяха по-негативно настроени към Пелоси. В същото време Даубер казва, че установяването на пряка връзка между подобен инцидент и изборните резултати е много трудно.

READ  Испанската асоциация на потребителите посочва, че ALDI, Lidl и Carrefour не са предложили намаление на ДДС

Newsur проучи как е бил използван изкуственият интелект по време на изборите в Индонезия и какви са правилата. Често изглежда, че компаниите не се придържат към собствените си правила:

Изкуственият интелект като невидимо оръжие в изборната битка

Люк ван Бакел, координатор за проверка на фактите във фламандския телевизионен оператор VRT, очаква ограничена роля за дълбоките фалшиви съобщения в европейските избори в Белгия и Холандия. „Това е едно от онези неща, които са добавени, и това е нов начин, който е добавен.“

В крайна сметка дезинформацията придобива сила, когато се разпространява широко, често чрез социални медии като TikTok, Facebook, Instagram и X. „X има много дезинформация“, казва Канета. „Но мисля, че и другите платформи имат още много работа.“

В отговор TikTok и YouTube казаха, че ще премахнат подвеждащите видеоклипове. TikTok също подчертава, че не винаги е възможно да се идентифицира правилно материал, който е бил манипулиран с помощта на изкуствен интелект. Meta (компанията майка на Facebook) и X не отговориха на въпросите на NOS.

Ван Бакел от VRT също посочва скрито течение, което не е видимо за обществеността: частни разговори в приложения като WhatsApp. Смята се, че видеото се разпространява по-често в обществените социални медии, а аудиото се разпространява повече на места, където е по-малко вероятно да бъдат забелязани дълбоки фалшификати.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *