fbpx

Забуксува работата в ЕС по Закона за изкуствения интелект

Законодателите на ЕС не могат да се споразумеят за това как да регулират системи като ChatGPT, което е заплаха за изработване на законодателство, насочено към контролиране на изкуствения интелект (AI), съобщава Ройтерс, цитирайки свои източници.

Преговарящите се срещат днес за ключови дискусии преди финалните преговори, насрочени за 6 декември, но „моделите на основата“ или генеративният AI се превърнаха в основната пречка в преговорите за предложения от Европейския съюз Закон за AI.

Основните модели като този, създаден от OpenAI, подкрепен от Microsoft (MSFT.O), са системи с изкуствен интелект, обучени чрез големи набори от данни, с възможност да се учат от нови данни, за да изпълняват различни задачи.

След две години преговори законопроектът беше одобрен от Европейския парламент през юни. Сега проектът на правилата за ИИ трябва да бъде съгласуван чрез срещи между представители на Европейския парламент, Съвета на ЕС и Европейската комисия.

Ако не могат да постигнат съгласие, съществува риск актът да бъде отложен поради липса на време преди изборите за Европейски парламент догодина.

Докато някои експерти и законодатели предлагат стъпаловиден подход за регулиране на „моделите на основата“, определени като тези с повече от 45 милиона потребители, други отбелязват, че по-малките модели могат да бъдат също толкова рискови.

Но най-голямото предизвикателство за постигане на споразумение идва от Франция, Германия и Италия, които предпочитат да оставят създателите на генеративни ИИ модели да се саморегулират, вместо да имат твърди правила. На среща на министрите на икономиката на страните на 30 октомври в Рим Франция е убедила Италия и Германия да подкрепят предложение, казаха източници на Ройтерс. Дотогава преговорите са вървели гладко, като законодателите са направили компромиси в няколко други конфликтни области, като например регулирането на високорисковия ИИ.

Саморегулиране?

Европейските парламентаристи, еврокомисарят Тиери Бретон и десетки изследователи на ИИ критикуват саморегулирането. В отворено писмо тази седмица изследователи като Джефри Хинтън предупредиха, че саморегулирането има вероятност „драматично да не отговаря на стандартите, необходими за безопасността на модела на основата“.

Базираната във Франция компания за изкуствен интелект Mistral и германската Aleph Alpha разкритикуваха многостепенния подход към регулирането на основните модели, като спечелиха подкрепа от съответните си страни. Източник, близък до Mistral, посочва, че компанията предпочита твърдите правила за продуктите, а не за технологията, върху която е изградена.

Други висящи въпроси в разговорите включват дефиниция на ИИ, оценка на въздействието върху основните права, изключения от правоприлагащите органи и изключения за националната сигурност.

Евродепутатите също са разделени относно използването на AI системи от правоприлагащите агенции за биометрична идентификация на лица в обществено достъпни пространства и не могат да постигнат съгласие по няколко от тези теми.

Ако сделката не се сключи през декември, следващото председателство на Белгия ще има до два месеца, преди да бъде отложено преди европейските избори.

Ако ме бяхте попитали преди шест или седем седмици, щях да кажа, че виждаме компромиси, появяващи се по всички ключови въпроси“, казва Марк Бракел, директор по политиката във Future of Life Institute, организация с нестопанска цел, насочена към намаляване на рисковете от напреднал AI. „Сега това стана много по-трудно“, изтъква той.




Имате възможност да подкрепите качествените анализи, коментари и новини в "Икономически живот"