Новини на Noos•
-
Нандо Кастелин
Технически редактор
-
Нандо Кастелин
Технически редактор
В началото на тази година жителите на американския щат Ню Хемпшир получиха обаждане, което изглежда идваше от президента Байдън: Председателят на Камарата на представителите ги посъветва да не гласуват на първичните избори. Преброени са само реалните избори през ноември.
Само че не президентът се обаждаше, а гласът на AI, предаващ съобщението, в случая com. Обажданията идват от компания в Тексас. Тази компания сега е разследвана за незаконни дейности.
От години се разпространява дезинформация за изборите, като в миналото се споменаваше Русия. 2024 г. е специална изборна година, в която повече от половината от населението на света ще отиде до урните. Изборите вече са в ход в Индия, като Европа е планирана да ги последва в началото на следващия месец, след това в Съединените щати тази есен.
Така че залозите са високи, докато deepfakes стават все по-лесни за създаване, благодарение на възхода на генеративния AI.
Една дълбока е достатъчна
„Един аудио файл, генериран от изкуствен интелект ден или два преди изборите, е достатъчен, за да повлияе на гласуването“, каза Томазо Канета, който координира проверката на фактите в Европейската обсерватория за цифрови медии. Това всъщност се случи в Словакия миналата година, което постави лидера на Либералната партия в лоша позиция.
Според Канета в момента аудиото е най-проблемната алтернатива. С изображения, генерирани с помощта на AI, често ще видите (малки) аберации в изображението. Това се виждаше ясно С картинка От Франс Тимерманс, разпространена на X миналата есен, снимката очевидно е фалшива.
Видеоклиповете, генерирани от AI, все още не са толкова добри, че да са неразличими от истинските, въпреки че Sora, модел за текст към видео от OpenAI, може да промени това. В днешно време това са предимно видеоклипове, при които аудиото е фалшиво и се прави синхронизиране на устни.
„Вокалните дълбоки фалшификати са най-вредни, защото средният потребител не може лесно да ги разпознае, особено ако не обръщате голямо внимание на начина на говорене и граматиката“, казва Канета. Той подчертава, че има добри начини за идентифициране на тези видове deepfakes, но те не предоставят 100% гаранция.
Чуйте дълбокия фейк на Джо Байдън тук. Първо чувате истинския глас на Байдън и след това фалшивия:
Фалшификатът е неразличим от истинския: чуйте дълбокия фейк на Джо Байдън тук
Canetta изготвя месечни отчети за броя проверки на факти, извършени от европейски организации за проверка на факти, и също така следи броя на проверките на факти, извършени с помощта на изкуствен интелект. През март от 1729 проверени артикула 87 са генерирани с помощта на AI, или 5 процента.
Според Канета обаче дори не е необходим голям номер. Дийпфейковете обаче могат да окажат влияние върху избирателите. Том Добер, свързан с университета в Амстердам, също стигна до това заключение с други изследователи след тестване. Накараха комисия да изгледа фалшиво видео на американския политик демократ Нанси Пелоси, в което тя оправдава щурма на Капитолия.
След това демократите бяха по-негативно настроени към Пелоси. В същото време Даубер казва, че установяването на пряка връзка между подобен инцидент и изборните резултати е много трудно.
Newsur проучи как е бил използван изкуственият интелект по време на изборите в Индонезия и какви са правилата. Често изглежда, че компаниите не се придържат към собствените си правила:
Изкуственият интелект като невидимо оръжие в изборната битка
Люк ван Бакел, координатор за проверка на фактите във фламандския телевизионен оператор VRT, очаква ограничена роля за дълбоките фалшиви съобщения в европейските избори в Белгия и Холандия. „Това е едно от онези неща, които са добавени, и това е нов начин, който е добавен.“
В крайна сметка дезинформацията придобива сила, когато се разпространява широко, често чрез социални медии като TikTok, Facebook, Instagram и X. „X има много дезинформация“, казва Канета. „Но мисля, че и другите платформи имат още много работа.“
В отговор TikTok и YouTube казаха, че ще премахнат подвеждащите видеоклипове. TikTok също подчертава, че не винаги е възможно да се идентифицира правилно материал, който е бил манипулиран с помощта на изкуствен интелект. Meta (компанията майка на Facebook) и X не отговориха на въпросите на NOS.
Ван Бакел от VRT също посочва скрито течение, което не е видимо за обществеността: частни разговори в приложения като WhatsApp. Смята се, че видеото се разпространява по-често в обществените социални медии, а аудиото се разпространява повече на места, където е по-малко вероятно да бъдат забелязани дълбоки фалшификати.
„Страстен мислител. Twitter maven. Склонен към пристъпи на апатия. Приветлив музикален експерт. Фен на алкохола на свободна практика. Фанатик на бирата.“