Холандският орган за защита на данните предупреждава, че не сме достатъчно информирани за опасностите от алгоритмите и изкуствения интелект. AI причинява дезинформация, нарушения на поверителността и дискриминация.
In het kort:
- De Autoriteit Persoonsgegevens waarschuwt voor de risico’s van de snelle ontwikkeling en inzet van algoritmes en kunstmatige intelligentie (AI).
- AI kan leiden tot de verspreiding van desinformatie, privacyovertredingen en discriminatie, met name als het wordt getraind met niet-representatieve data.
- Ondanks deze risico’s biedt AI kansen voor efficiëntie en welzijn, bijvoorbeeld in de gezondheidszorg, waar het kan bijdragen aan bijvoorbeeld snellere diagnoses.
Според холандския орган за защита на данните, пазач на поверителността, нарастващото използване на изкуствен интелект и технологични иновации се случва по-бързо, отколкото ние като общество можем да се справим. В резултат на това закъсняхме с разпознаването на рисковете. Но също и при справянето с тях, например чрез регулиране и прилагане.
Скандалът с ползите показва рисковете, които алгоритмите представляват за нашата поверителност. Десетки хиляди хора са се сблъсквали с проблеми, защото са били маркирани като измамници от алгоритми. Но изкуственият интелект отива по-далеч, според експерти.
От появата на базирания на изкуствен интелект чатбот ChatGPT почти всяка технологична компания използва изкуствен интелект. Но изкуственият интелект не е нищо повече от набор от алгоритми, казва преподавателят Раджив Жируар от Ротердамския университет за приложни науки. „След като един алгоритъм може да направи изводи или да генерира нещо ново, ние го наричаме изкуствен интелект.“
Според експерта по поверителността Rijo Zenger от Bits of Freedom, алгоритмите и изкуственият интелект трябва да се разглеждат като черна кутия. „Поставяте определени данни в кутия, но нямате представа какво се прави с данните в тази кутия. След това излиза резултат или се публикуват нови данни, но нямате представа как се е случило.“
Ontvang een melding bij nieuwe ontwikkelingen.
Риск от нахлуване в личния живот, дискриминация и дезинформация
Можете да отприщите алгоритми и изкуствен интелект върху всички данни, които можете да намерите в Интернет. Например на данните за местоположението на милиони холандци, достъпни онлайн. След това можете да поискате от AI да анализира хора, които може да са замесени в криминални дела. Това е огромно нарушение на поверителността ви.
Рисковете от AI зависят от данните, на които AI е обучен, обяснява адвокатът по поверителност Celine van Wesberg от More Advocate Project. Например, при непредставителни данни за обучение, дискриминацията и генерирането на невярна информация (дезинформация) са лъжи.
Добър пример за непредставителни данни може да се види в здравеопазването например. „Традиционно има много медицински познания за мъжете“, обяснява Ван Уесберг. „Ако тренирате AI модел изключително на това, резултатът може да не е надежден за деца или жени, например.“
AI често се обучава с помощта на непредставителни данни
В допълнение, според Ван Уесберг, хората в нашата страна в много случаи трябва да дадат разрешение, преди AI модел да може да бъде обучен на техните чувствителни за поверителност здравни данни. Съществува риск определени групи хора да дадат съгласие, докато други групи хора да не го направят.
В резултат на това определени групи от хора може да са свръхпредставени в данните за обучението, а други групи може да са недостатъчно представени. Резултатът е, че данните, с които AI се обучава, не са представителни.
Зенгер също подчертава, че „изводите, които AI моделът прави, и информацията, която системата генерира, зависи до голяма степен от данните, които въвеждате в нея.“ „Приемаме, че компютърните решения са неутрални, но тъй като данните често са непредставителни, получената информация и заключения могат да бъдат неправилни и дори дискриминационни.“
Управлението на изкуствения интелект е на първо място в дневния ред
Поради всички тези рискове, надзорът върху алгоритмите и изкуствения интелект е на първо място в дневния ред на холандския орган за защита на данните тази година. „В нашия надзор ние даваме приоритет на жалбите, изтичането на данни и разследванията, включващи алгоритми и изкуствен интелект.“
„Ние също сме модератор на координирания алгоритъм в Холандия от януари 2023 г.“, продължава пазачът на поверителността. „Правим това, за да защитим обществените ценности и основните права при използване на алгоритми и изкуствен интелект.“
Холандският орган за защита на данните заключи, че холандските граждани имат ниско доверие в алгоритмите и изкуствения интелект. Но това не е съвсем вярно. „Технологиите също могат да допринесат за устойчив просперитет и благополучие.“
Изкуственият интелект предлага много възможности
Адвокатът по поверителност Ван Вайсберг също твърди, че „ИИ няма само тъмна страна“. „В здравеопазването, например, ние наистина трябва да го прегърнем. Вече има примери за ИИ, който може да идентифицира рака по-добре от човешкото око.“
Но е сигурно, че изкуственият интелект няма да замени лекаря, смята Ван Уесберг. „ИИ може да помогне за по-бързото поставяне на добра диагноза и да поеме някои други задачи“, казва адвокатът по поверителността. „Това оставя време на лекаря, например, за повече личен контакт или за помощ на повече пациенти. Това може да направи грижите по-ефективни и следователно по-евтини и гарантира повече доверие в грижите.“
„Страстен мислител. Twitter maven. Склонен към пристъпи на апатия. Приветлив музикален експерт. Фен на алкохола на свободна практика. Фанатик на бирата.“