В продължение на два дни Великобритания е домакин на първата световна среща на правителствено ниво за рисковете от изкуствения интелект (AI). По време на нея, ЕС и около тридесет участващи страни – включително Съединените щати и Китай – подписаха декларация за „безопасното“ развитие на AI. Какви са заплахите, които тази технология представлява за обществото, анализира France 24*.
Безпокойството непрекъснато нараства. Срещата, която се проведе в Bletchley Park, емблематичния център за разбиване на кодове през Втората световна война, има за цел да идентифицира и да подложи на обсъждане потенциалните опасности от тази авангардна технология, като например софтуерното приложение за провеждане на разговор ChatGPT.
От смартфоните до автомобилите, AI вече присъства в много области от нашия живот. През последните години напредъкът му се ускори с развитието на генеративния AI, способен да произвежда за секунди текстове, звуци и изображения. Неговият потенциал буди огромни надежди: той може да революционизира много области, като медицина, образование, околна среда.
Но необузданото му развитие може да доведе и до рискове, като нахлуване в неприкосновеността на личния живот, провеждане на кампании за дезинформация и дори възможността за „производство на химически или биологични оръжия“, изрази притесненията си британският премиер Риши Сунак, като същевременно отхвърли преувеличаването на рисковете. Ето кои са основните опасности от AI.
Дезинформация
Използвани за създаване на текстове, гласове и изображения, системите на изкуствения интелект са способни да произвеждат съдържание, което е все по-трудно да се различи от създаденото от хората. С това съдържание може да се злоупотребява, за да се измамят потребителите, включително чрез създаване на фалшиви видеоклипове или свидетелства, които изглеждат автентични.
Това важи особено след 7 октомври и началото на войната между Израел и Хамас, белязана от огромно количество ново подвеждащо съдържание, споделяно всеки ден в социалните мрежи. Едно изображение, създадено от AI, което показва фенове на Атлетико Мадрид, развяващи огромен палестински флаг на техния стадион, беше широко разпространено в X (бивш Twitter) и Facebook. Преди няколко дни видео на манекенката от палестински произход Бела Хадид беше манипулирано, така че тя да заявява, че подкрепя Израел. В тази информационна война между Израел и Хамас това съдържание се използва, за да се повлияе върху общественото мнение и да се навреди на репутацията на противниковия лагер.
„Deepfakes“, тези изцяло измислени изображения, генерирани от AI, са достигнали безпрецедентно ниво на реализъм и представляват заплаха за политическите лидери. Еманюел Макрон като боклукчия, папа Франциск с бяло пухено яке, арест на Доналд Тръмп… Въпреки това, тези очевидно съмнителни кадри бяха широко разпространени в социалните мрежи и достигнаха милиони гледания.
Манипулация
Измама, натиск, злоупотреба с уязвимост… Според изследователите манипулацията представлява един от основните етични проблеми на AI. Сред най-известните примери е самоубийството преди няколко месеца на белгиец, който е бил в интензивна връзка с чатбота „Елиза“, с който е провеждал двумесечни разговори. В последните разговори с него той споменал за самоубийство, а „Елиза“ отговорила, че в отвъдното ще живеят „завинаги като един, в Рая“. AI е способен да отговаря на въпросите на интернет потребителите в реално време. Тук можем да посочим личния асистент Алекса, който внушил на дете да докосне електрически контакт с монета.
„Дори ако един чатбот е ясно идентифициран като разговорен агент, потребителите могат да му припишат човешки качества“, изтъква Джиада Пистили, преподавател в Сорбоната, която говори за „опасност от антропоморфизъм“ – приписване на човешки черти на животни и предмети. „Това се дължи на факта, че чатботовете стават все по-съвършени в симулирането на човешки разговор. Така става много лесно да попаднете в капана. В някои случаи потребителят става толкова доверчив, че е готов да направи всичко, за да поддържа връзката.“
През февруари приложението Replika, което ви позволява да създавате и разговаряте с персонализиран чатбот, реши да спре еротичните функции. „Това решение предизвика емоционален и психологически шок сред някои потребители, които го възприеха като загуба на близки отношения“, отбелязва изследователката. „Хората, които разработват тези приложения мислят, че техните потребители са в състояние да ги използват безопасно и отговорно. Но това не винаги е така. Непълнолетните или възрастните хора, например, могат да бъдат особено уязвими.“
Загуба на работни места
Появата на разговорния робот ChatGPT в живота на милиони хора през есента на 2022 г. породи множество опасения за промените, които той може да предизвика в света на труда, както и въздействието му върху заетостта. В средносрочен план експертите се страхуват, че AI ще направи възможно закриването на много работни места, сред които административни работници, адвокати, лекари, журналисти и учители.
В проучване на американската банка Goldman Sachs, публикувано през март 2023 г., се прави заключението, че AI, способен да генерира съдържание, може да автоматизира една четвърт от сегашните работни места. Според нея, за Съединените щати и Европейския съюз това означава загуба на 300 милиона работни места. Най-засегнати ще бъдат административните и юрдическите дейности.
„Това са аргументи, които се изтъкват, за да се повиши осведомеността относно появата и развитието на изкуствения интелект“, обяснява Клементин Пузе, докторант по изкуствен интелект и европейски права в университета Jean Moulin Lyon 3. „Разбира се, ще има работни места, които ще изчезнат, но ще се появят други, свързани с изкуствения интелект и цифровите технологии като цяло, в области, които ще стават все по-важни за нашито общество.“
В този смисъл в проучване на Международната организация на труда (МОТ), публикувано през август, се казва, че повечето работни места и отрасли са само частично подложени на автоматизация. Проучването смята, че тази технология ще „позволява по-скоро да се допълват, а не да се заменят определени дейности“.
Дискриминация
Към настоящия момент рисковете от дискриминация представляват една от основните слабости на AI, според изследователите. Алгоритмите на изкуствения интелект запазват расистките или сексистките стереотипи. Ярък пример е алгоритъмът за набиране на персонал, използван от Amazon преди няколко години. През октомври 2018 г. анализаторите разбраха, че тяхната програма, базирана на автоматизирана система за оценяване, отхвърля кандидатури, в които се включва някаква препратка към жените. При създаването на интелигентния софтуер е била използвана база данни с автобиографии на бивши кандидати, които са били преобладаващо мъже. Така следвайки вътрешната си логика, машината е поставяла в неравностойно положение кандидатите, в чиито CV-та се споменава например участие в „женска спортна лига“.
„Системите с изкуствен интелект често се създават на основата на данни, които изобщо не са представителни за многообразието на населението“, обяснява Джиада Пистили. „Това може да доведе до резултати, при които машината проявява лошо отношение към цветнокожи хора или хора с необичайни физически черти. Тя всъщност само запазва стереотипите, които вече съществуват в обществото.“
Посегателство върху частния живот и иличните данни
Друго пряко посегателство върху човешките права е, че AI може да компрометира нашия личен живот. Тъй като големите езикови модели се създават с данни, които могат да съдържат лична информация, затова на практика е трудно да се гарантира, че тези модели няма да компрометират поверителността на потребителите.
Както преди пет години, когато въведоха европейския регламент за личните данни (GDPR), Съветът на Европа и Европейският съюз искат сега да бъдат първите, които да създадат строги правила за изкуствения интелект. „Нарушенията на основните права се считат от европейските институции като един от основните рискове, произтичащи от изкуствения интелект“, обяснява Клементин Пузе. „ЕС се опитва да намери баланс между защитата на основните права на европейските потребители, без с това да се пречи на иновациите.“
Кражба на интелектуална собственост
И накрая, използването на данни със свободен достъп от AI повдига проблеми с интелектуалната собственост. Инструментите на генеративния AI често се създават на основата на модели, които ползват огромни количества текстуални или визуални данни. „Тъй като много статии от медиите са със свободен достъп в интернет, нищо не пречи на програмиста на AI да събере тези данни и да ги използва за създаването на един модел“, обяснява Джиада Пистили.
Вече има случаи на съдебни действия за този тип нарушения срещу компании, разработващи AI. През юли трима автори заведоха дело срещу OpenAI за използване на откъси от техните книги за създване на ChatGPT. Няколко месеца по-рано художници подадоха колективна жалба срещу Midjourney, Stable Diffusion и DreamUp, като ги обвиниха, че са използвали неправомерно милиарди защитени изображения за създаването на своите изкуствени интелекти.
*Превод Георги Саулов