fbpx

Как ЕС ще регулира използването на изкуствен интелект

След постигнатото в петък споразумение в ЕС относно първия в света всеобхватен набор от правила, регулиращи използването на изкуствен интелект (AI) в инструменти като ChatGPT и в биометричното наблюдение, компаниите са поканени да подпишат доброволен пакт за ИИ, за да изпълнят ключовите задължения на правилата, докато те официално влезнат в сила в началото на следващата година, а прилагането им започва през 2006-та.

Ройтерс обобщава основните моменти в регламента.

Системи с висок риск

Така наречените високорискови AI системи – тези, за които се смята, че имат значителен потенциал да навредят на здравето, безопасността, основните права, околната среда, демокрацията, изборите и върховенството на закона – ще трябва да отговарят на набор от изисквания, като например да бъдат подложени на оценка на въздействието върху основните права и задължения за получаване на достъп до пазара на ЕС.

Системите с изкуствен интелект, за които се счита, че представляват ограничени рискове, ще бъдат предмет на много по-леки задължения за прозрачност, като етикети за разкриване, деклариращи, че съдържанието е генерирано от изкуствен интелект, за да се позволи на потребителите да решат как да го използват.

Използване на ИИ в правоприлагането

Използването на системи за дистанционна биометрична идентификация в реално време в обществени пространства от правоприлагащите органи ще бъде разрешено само за подпомагане на идентифицирането на жертви на отвличане, трафик на хора, сексуална експлоатация и за предотвратяване на конкретна и настояща терористична заплаха.

Те също ще бъдат разрешени в усилията за проследяване на хора, заподозрени в терористични престъпления, трафик, сексуална експлоатация, убийство, отвличане, изнасилване, въоръжени грабежи, участие в престъпна организация и престъпления срещу околната среда.

Системи за ИИ с общо предназначение (GPAI) и основни модели

GPAI и базовите модели ще бъдат предмет на изисквания за прозрачност, като изготвяне на техническа документация, спазване на закона за авторското право на ЕС и разпространение на подробни резюмета за съдържанието, използвано за обучение на алгоритми.

Основните модели, класифицирани като представляващи системен риск и силно въздействащи GPAI, ще трябва да извършват оценки на модела, да оценяват и смекчават рисковете, да провеждат състезателни тестове, да докладват на Европейската комисия за сериозни инциденти, да гарантират киберсигурността и да докладват за тяхната енергийна ефективност.

Докато не бъдат публикувани хармонизирани стандарти на ЕС, GPAI със системен риск могат да разчитат на кодекси на практика, за да се съобразят с регламента.

Забранен ИИ

Забранява се следното:

  • Системи за биометрична категоризация, които използват чувствителни характеристики като политически, религиозни, философски убеждения, сексуална ориентация и раса.
  • Нецеленасочено изтриване на изображения на лица от интернет или видеозаписи за създаване на бази данни за разпознаване на лица.
  • Разпознаване на емоции на работното място и в образователните институции.
  • Социално оценяване въз основа на социално поведение или лични характеристики.
  • ИИ системи, които манипулират човешкото поведение, за да заобиколят свободната воля.
  • Използване от ИИ на уязвимостите на хората поради тяхната възраст, увреждане, социално или икономическо положение.

Санкции при нарушения

В зависимост от нарушението и размера на участващата компания, глобите ще започват от 7,5 милиона евро или 1,5% от глобалния годишен оборот, като достигат до 35 милиона евро или 7% от глобалния оборот.




Имате възможност да подкрепите качествените анализи, коментари и новини в "Икономически живот"