Представете си компютър, който превъзхожда човешкия интелект на всяко ниво и може да взаимодейства с реалния свят. Трябва ли да се ужасявате от такава машина? За да отговорим на този въпрос, има една важна подробност, която трябва да разгледаме: този компютър еволюирал ли е чрез естествен подбор?*
Причината е проста: Естественият подбор е процес на брутална конкуренция, който има тенденция да произвежда същества, които са егоистични и агресивни. Докато алтруизмът може да се развие при определени условия (като избор на роднини), режимът по подразбиране е жестока конкуренция. Ако успеят да се измъкнат, повечето организми ще унищожат съперниците си за миг. Като се има предвид, че всички ние сме продукти на еволюцията, може да се изкушим да проектираме собствените си дарвинови демони върху бъдещите системи с изкуствен интелект (AI). Много хора днес се тревожат за сценарии с изкуствен интелект, при които тези системи подчиняват или дори заличават човечеството – подобно на по-малко интелигентните видове на Земята. Изследователят на изкуствен интелект Стюарт Ръсел нарича това „проблемът с горилата“. Точно както могъщата горила сега е на милостта ни въпреки превъзходните си мускули, ние можем да се окажем на милостта на суперинтелигентен AI. Не е съвсем утешително за нашия вид.
Но тук е уловката: както хората, така и горилите са създадени от естествения подбор. Защо AI, който не е изкован от този процес, би искал да ни доминира или унищожи? Интелигентността сама по себе си не диктува целите или предпочитанията. Две еднакво интелигентни единици могат да имат напълно различни цели или да нямат никакви – може просто да си стоят безделно и да не правят нищо.
Някои учени, занимаващи се с изкуствен интелект, като Дан Хендрикс от Центъра за безопасност на изкуствения интелект, твърдят, че все пак изкуственият интелект вероятно ще претърпи естествен подбор. Всъщност това може вече да се случва. В настоящата глобална надпревара с изкуствен интелект, Хендрикс твърди, че системите за изкуствен интелект са разработени от „конкурентния натиск между корпорациите и военните“. OpenAI започна като организация с нестопанска цел с мисия да е в полза на човечеството, но всички знаем какво се случи след това: нестопанската организация на OpenAI беше отстранена и компанията се присъедини към главоломната надпревара за AI. Според Хендрикс това се равнява на естествен подбор, което означава, че AI системите ще станат егоистични и жадни за господство, точно както другите еволюирали същества.
Еволюция навсякъде
И така, скоро ли човечеството ще бъде покорено от егоистичните ИИ? Тук трябва да действаме внимателно. Хора като Хендрикс са прави, че естественият подбор не се ограничава до живота, базиран на въглерод. Естественият подбор е това, което философите наричат субстратно неутрален, което означава, че може да действа във всяка материална среда, независимо от какво е направена. Например изследователите на културата прилагат естествения подбор към човешката култура и нейните елементи от десетилетия, включително технология, език, религиозни вярвания и морални норми. Културните знания не се предават в гени, а в човешки мозъци и артефакти, като книги и институции. Биологът Ричард Докинс въвежда термина „мем“ като културен аналог на ген. Следователно е напълно възможно естественият подбор да се приложи и в цифрова среда. В текущата надпревара с изкуствен интелект наистина има вариации между различните системи за изкуствен интелект и компаниите с най-добрите и най-мощни изкуствен интелект ще спечелят надпреварата, докато другите ще бъдат изоставени – съжалявам, Европа и Мистрал. Пазарът постоянно отстранява неуспешните AI и запазва най-добрите.
Въпреки това, по-добра аналогия за разбиране на еволюцията на ИИ е опитомяването на животни и това води до много различни прогнози. Известно е, че в началните глави на „Произходът на видовете“ Чарлз Дарвин първо обсъжда огромната сила на изкуствения подбор от животновъдите, което е било добре известно по онова време, преди да премине към слепия естествен подбор:
Дарвин олицетворява природата като „ежедневно и ежечасно разглеждане“ на всяка малка вариация сред организмите, точно както биха направили хората, които отглеждат. Това е гениален удар, защото естественият и изкуственият подбор всъщност представляват едно и също нещо. Но ето същността: въпреки че изкуственият подбор от хора, които развъждат животните, е неразличим от естествения подбор по много начини, само сляпата селекция има тенденция да произвежда егоизъм и други тревожни черти.
Опитомяване
Помислете за кучета. Кучетата са се развивали под изкуствена селекция от хилядолетия, но повечето породи са кротки и дружелюбни, точно обратното на егоистични. Това е така, защото развъдчиците безмилостно избират срещу агресията и всяко куче, нападащо човек, обикновено е изправено пред тежки последствия – то е унищожено или поне не му е позволено да размножава. В еволюцията на кучетата са управлявали хората, а не природата. Някои породи, като питбули и ротвайлери, разбира се, са избрани за агресия (срещу други животни, а не срещу настойника им), но това просто показва, че опитомената еволюция зависи от желанията на животновъдите.
Как можем да свържем тази разлика между сляпата еволюция и опитомяването с развитието на ИИ? В биологията това, което отличава опитомяването, е контролът върху възпроизводството. Ако хората контролират размножаването на едно животно – решавайки кой с кого да се чифтосва – тогава това животно е опитомено. Ако животните избягат и възстановят своята автономия, те са диви. Според този стандарт домашните котки са само частично опитомени, тъй като повечето могат да скитат наоколо без надзор и избират свои партньори извън човешкия контрол. Ако приложите това определение към AI, трябва да е ясно, че AI системите все още са в състояние на опитомяване. Натискът при избора идва от хора дизайнери, програмисти, потребители и регулатори, а не от слепи сили. Вярно е, че някои AI системи се самоусъвършенстват без пряко човешко наблюдение, но хората все още решават кои AI да бъдат разработени и пуснати. GPT-4 не ражда автономно GPT-5, след като се състезава в природата с различни големи езикови модели (LLM); хората контролират еволюцията му.
В по-голямата си част текущият селективен натиск за AI благоприятства обратното на егоизма. Искаме дружелюбни, кооперативни AI, които не вредят на потребителите и не създават обидно съдържание. Ако потребителите искат безопасни и точни AI, компаниите са стимулирани да се погрижат за тези предпочитания. Ако чатботовете участват в опасно поведение, като например насърчаване на самоубийство или примамване на хора да напуснат съпрузите си, компаниите трескаво ще се опитат да актуализират своите модели и да изкоренят нежеланото поведение. Всъщност някои езикови модели са станали толкова безопасни, като избягват всякакви чувствителни теми или дават анодинни отговори, че потребителите се оплакват, че LLM са скучни. И Google стана за смях, когато неговият генератор на изображения се оказа толкова политически коректен, че да създаде етнически различни викинги и бащи-основатели.
В случая на биологичните същества генетичните промени, причинени от опитомяването, остават донякъде повърхностни. Развъдчиците са презаписали вълчия произход на кучетата, но не перфектно. Ето защо кучетата все още понякога хапят, не се подчиняват и се съпротивляват да отидат при ветеринар. Трудно е да отделиш напълно вълка от кучето. По същия начин опитомените говеда, овце и прасета може да са много по-послушни от дивите си предци, но все още имат инстинкт за самосъхранение и ще ритат и блеят, когато са в беда. Те трябва да бъдат или незабавно заклани, или поне зашеметени; в противен случай ще започнат ожесточена битка. Дори хилядите години опитомяване на хората не са заличили напълно инстинкта им за самосъхранение.
Пазете се от Дарвинови създания
Как би изглеждала истинската дарвинистка еволюция в случай на ИИ? В своята книга The Master Algorithm, Педро Домингос си представя как военните могат да отгледат най-добрия войник, както следва:
Robotic Park е масивна фабрика за роботи, заобиколена от десет хиляди квадратни мили джунгла. Разделя ги най-високата и дебела стена, строена някога, настръхнала от постове, прожектори и оръдейни кули. Стената има две цели: да държи нарушителите навън и обитателите на парка – милиони роботи, борещи се за оцеляване и контрол над фабриката – вътре. Роботите се появяват, като тяхното възпроизвеждане се осъществява чрез програмиране на банките от 3-D принтери вътре. Стъпка по стъпка роботите стават по-умни, по-бързи и по-смъртоносни.
Надявам се, че всички можем да се съгласим, че това би било много лоша идея. Може да е антропоморфично да проектираме желанието си за господство върху суперинтелигентни ИИ, но това не означава, че е невъзможно да създадем агресивна и геноцидна форма на суперинтелигентност. Ако интелигентен живот съществува някъде другаде във Вселената, той може да е толкова егоистичен, колкото сме ние, или дори повече. Това не е антропоморфно, защото всеки извънземен живот вероятно би бил продукт на сляп естествен подбор. Ако тези извънземни са по-умни от нас и ако разполагат с напреднала технология, среща в реалния живот не би ни предвещавала нищо добро. В научно-фантастичния роман на Liu Cixin „Проблемът с трите тела“ суперинтелигентни извънземни възнамеряват да ни унищожат, защото се страхуват, че ние може да станем прекалено умни и да ги унищожим. Преди да изпратят своя флот от разрушители, те излъчват заплашително съобщение по цялата планета: „Вие сте буболечки“.
Ето извода: вероятно не искате да имате близки срещи от третия вид с Дарвинови същества, които са безкрайно по-умни от вас – независимо дали са направени от въглерод или силиций. Да създадем сами такива същества би било ужасна идея. За наше щастие, няма индикации, че ще се насочим в тази посока в скоро време. Всъщност свръхинтелигентните, но все пак послушни ИИ, създадени от хората, биха могли да служат като наши пазители срещу хищнически интелекти, дебнещи другаде във Вселената, точно както биха могли да ни предпазят от екзистенциални заплахи, като удари на астероиди или изригвания на супервулкани. Когато се използват разумно, ИИ имат потенциала да направят нашия свят по-безопасен, а не по-опасен.
*Текстът на Маартен Будри е от блога на изданието Human Progress