Чатботовете и други имитиращи човека приложения с изкуствен интелект (ИИ) стават все по-голяма част от живота ни. Възможностите, породени от най-новите разработки, са прекрасни, но фактът, че са възможни, не означава, че това е желателно и необходимо. Като се имат предвид етичните, правни и социални последици от ИИ, въпросите за опасностите от тази технология стават все по-належащи.
Знаем, че системите с изкуствен интелект могат да програмират внушения или да твърдят неща, които са далеч от реалността и могат да породят хейтспийч и друга проблена реч.
Неотдавнашното самоубийство, насърчено от chatbot в Белгия, подчертава друг голям проблем: рискът от манипулация. Въпреки че тази трагедия илюстрира една от най-екстремните последици от този риск, емоционалната манипулация може да се прояви и в по-прости форми. Хората използващи този тип технология, смятат, че взаимодействат със субект и изграждат връзка – дори несъзнателно – която ги излага на подобни рискове.
Компаниите, които предоставят такива системи, се застраховат от последствия, свързани с подобни проблеми, защото заявяват, че не знаят какъв текст могат да генерират техните системи и изтъкват само многобройните предимства на софтуера им. Проблемните последствия се дефинират като аномалии. Днес много проблемни чатботове могат да бъдат достъпни без ограничения, много от които са специално построени да симулират субекти, което увеличава риска от манипулация.
Повечето потребители осъзнават рационално, че чатботът, с който взаимодействат, няма съзнание и е просто алгоритъм, който предвижда най-правдоподобната комбинация от думи. В нашата човешка природа обаче е да реагираме емоционално на подобни взаимодействия. Това също така означава, че простото задължаване на компаниите да посочват, че „това е просто ИИ“, не са достатъчни за превенция на този тип рискове.
Някои индивиди са по-податливи от други на тези фактори. Например, децата могат лесно да взаимодействат с чатботове, които първо печелят доверието им и по-късно бълват омраза или вдъхновен от конспирация език или да насърчават дори самоубийство, което е доста тревожно. Но помислете и за хората без силна социална мрежа или които са самотни или депресирани – точно категорията, от която създателите на ботовете могат да извлекат най-голяма „полза“. Фактът, че има пандемия от самота и същевременно липса на навременна психологическа помощ, само засилва проблема.
Важно е обаче да се подчертае, че всеки може да бъде податлив на манипулативните ефекти на такива системи, тъй като емоционалната реакция, която те предизвикват, възниква автоматично, без дори да бъде осъзната.
„Човешките същества също могат да генерират проблематичен текст, така че какъв е проблемът“ е често чуван отговор. Но ИИ системите функционират в много по-голям мащаб. И ако човек е общувал с белгийската жертва, щяхме да квалифицираме действията му като подбуждане към самоубийство и неоказване на помощ на човек в нужда – наказуеми престъпления.
Как така тези AI системи са достъпни без ограничения? Призивът за регулиране често се заглушава от страха, че „регулирането стои на пътя на иновациите“. Мотото на Силициевата долина „движи се бързо и разбивай нещата“ изкристализира идеята, че трябва да оставим изобретателите на изкуствен интелект да свършат работата си, тъй като все още нямаме представа за невероятните предимства на изкуствения интелект.
Технологията обаче може буквално да разбива – включително човешки животи. Следователно е необходим по-отговорен подход. Сравнете това с други контексти. Ако една фармацевтична компания иска да пусне на пазара ново лекарство, тя не може просто да твърди, че не знае какъв ще бъде ефектът. Разработчикът на нов автомобил също ще трябва да тества продукта широко, преди да може да бъде пуснат на пазара. Толкова ли е пресилено да очакваме същото от разработчиците на AI?
Колкото и забавни да са чатботовете, те са нещо повече от играчка и могат да имат много реални последици за своите потребители. Най-малкото, което можем да очакваме от техните разработчици, е да ги направят достъпни само когато съществуват достатъчно предпазни мерки срещу вредата от тях.
Европейският съюз преговаря за нов регламент с по-строги правила за „високорисков“ ИИ. Първоначалното предложение обаче не класифицира чатботовете като „висок риск“. Техните доставчици трябва само да информират потребителите, че разговарят с чатбот, а не с човек. Включена е забрана за манипулиране, но само когато тя води до „физическо или психологическо увреждане“, което не е лесно за доказване.
Всички сме очаровани от възможностите на ИИ. Но това не ни пречи също да искаме тези системи да са съвместими с човешките права. Отговорността за това се носи от разработчиците на ИИ и нашите правителства, които спешно трябва да приемат стабилна правна рамка със силни предпазни мерки.
Превод Георги Бурнаски, по www.euractiv.com