fbpx

Мъск и група учени се притесниха от развитието на изкуствения интелект, искат пауза

Илон Мъск и група експерти по изкуствен интелект (AI) и ръководители на индустрията призовават в отворено писмо за шестмесечна пауза в разработването на системи, по-мощни от току-що пуснатия GPT-4 на OpenAI, изтъквайки потенциални рискове за обществото и човечеството, съобщава Ройтерс.

По-рано този месец, подкрепяният от Microsoft OpenAI представи четвъртата версия на своята GPT (Generative Pre-trained Transformer) програма за изкуствен интелект, която удиви потребителите с огромната си гама от приложения – от ангажиране на потребителите в човешки разговор до композиране на песни и обобщаване на дълги документи.

Писмото, разпространено от института с нестопанска цел Future of Life Institute и подписано от повече от 1000 души, включително Мъск, призовава за спиране на напредналото развитие на ИИ, докато не бъдат разработени, внедрени и одитирани от независими експерти споделени протоколи за безопасност за такива проекти.

Мощните AI системи трябва да бъдат разработени само след като сме уверени, че техните ефекти ще бъдат положителни и техните рискове ще бъдат управляеми“, се казва в писмото, цитирано от Ройтерс.

То подробно описва потенциалните рискове за обществото и цивилизацията от системите за изкуствен интелект, конкуриращи се между човека, под формата на икономически и политически смущения и призовава разработчиците да работят с политиците по отношение на управлението и регулаторните органи.

Сред подписалите призива са главният изпълнителен директор на Stability AI Емад Мостаке, изследователи от притежавания от Alphabet DeepMind и големите играчи на изкуствения интелект Джошуа Бенгио, често наричан един от „кръстниците на изкуствения интелект“, и Стюарт Ръсел, пионер в изследванията в областта.

Според регистъра за прозрачност на Европейския съюз, Future of Life Institute се финансира основно от Фондация Мъск, както и от базираната в Лондон група за ефективен алтруизъм Founders Pledge и Фондация на общността на Силиконовата долина.

Притесненията идват, след като полицейските сили на ЕС Европол тази седмица се присъединиха към изразяващите етични и правни опасения относно напреднал AI като ChatGPT, предупреждавайки за потенциалната злоупотреба със системата при опити за фишинг, дезинформация и киберпрестъпления.

Междувременно правителството на Обединеното кралство разкри предложения за „адаптивна“ регулаторна рамка около ИИ. Подходът на Лондон разделя отговорността за управлението на изкуствения интелект между неговите регулатори за правата на човека, здравето и безопасността и конкуренцията, вместо да създаде нов орган, посветен на технологията.

От пускането си миналата година, ChatGPT на OpenAI подтикна конкурентите да ускорят разработването на подобни големи езикови модели, а компаниите да интегрират генеративни AI модели в своите продукти.

Миналата седмица OpenAI обяви, че си партнира с около дузина фирми, за да вградят услугите си в своя чатбот, позволявайки на потребителите на ChatGPT да поръчват хранителни стоки чрез Instacart или да резервират полети чрез Expedia.

Сам Алтман, главен изпълнителен директор на OpenAI, не е подписал писмото, уточнява пред Ройтерс говорител на Future of Life.

Писмото не е перфектно, но духът му е правилен: трябва да забавим темпото, докато не разберем по-добре последиците“, казва Гари Маркъс, професор в Нюйоркския университет, който е сред подписалите писмото. „Големите играчи стават все по-потайни относно това, което правят, което затруднява защитата на обществото срещу всякакви вреди, които могат да се материализират.

Появиха се и критики, обвиняващи подписалите писмото в насърчаване на „хипнозата на AI“, посочвайки, че твърденията за настоящия потенциал на технологията са били силно преувеличени.

Тези изявления имат за цел да повишат рекламата. Целта е да накарат хората да се тревожат“, смята Йохана Бьорклунд, изследовател на AI и доцент в университета Умео, която смята, че няма нужда да се дърпа ръчната спирачка. „Вместо да спират проучванията, изследователите на AI трябва да бъдат подложени на по-големи изисквания за прозрачност. Ако правите изследвания на AI, трябва да сте много прозрачни за това, как го правите“, коментира още Бьорклунд.




Имате възможност да подкрепите качествените анализи, коментари и новини в "Икономически живот"