След постигнатото в петък споразумение в ЕС относно първия в света всеобхватен набор от правила, регулиращи използването на изкуствен интелект (AI) в инструменти като ChatGPT и в биометричното наблюдение, компаниите са поканени да подпишат доброволен пакт за ИИ, за да изпълнят ключовите задължения на правилата, докато те официално влезнат в сила в началото на следващата година, а прилагането им започва през 2006-та.
Ройтерс обобщава основните моменти в регламента.
Системи с висок риск
Така наречените високорискови AI системи – тези, за които се смята, че имат значителен потенциал да навредят на здравето, безопасността, основните права, околната среда, демокрацията, изборите и върховенството на закона – ще трябва да отговарят на набор от изисквания, като например да бъдат подложени на оценка на въздействието върху основните права и задължения за получаване на достъп до пазара на ЕС.
Системите с изкуствен интелект, за които се счита, че представляват ограничени рискове, ще бъдат предмет на много по-леки задължения за прозрачност, като етикети за разкриване, деклариращи, че съдържанието е генерирано от изкуствен интелект, за да се позволи на потребителите да решат как да го използват.
Използване на ИИ в правоприлагането
Използването на системи за дистанционна биометрична идентификация в реално време в обществени пространства от правоприлагащите органи ще бъде разрешено само за подпомагане на идентифицирането на жертви на отвличане, трафик на хора, сексуална експлоатация и за предотвратяване на конкретна и настояща терористична заплаха.
Те също ще бъдат разрешени в усилията за проследяване на хора, заподозрени в терористични престъпления, трафик, сексуална експлоатация, убийство, отвличане, изнасилване, въоръжени грабежи, участие в престъпна организация и престъпления срещу околната среда.
Системи за ИИ с общо предназначение (GPAI) и основни модели
GPAI и базовите модели ще бъдат предмет на изисквания за прозрачност, като изготвяне на техническа документация, спазване на закона за авторското право на ЕС и разпространение на подробни резюмета за съдържанието, използвано за обучение на алгоритми.
Основните модели, класифицирани като представляващи системен риск и силно въздействащи GPAI, ще трябва да извършват оценки на модела, да оценяват и смекчават рисковете, да провеждат състезателни тестове, да докладват на Европейската комисия за сериозни инциденти, да гарантират киберсигурността и да докладват за тяхната енергийна ефективност.
Докато не бъдат публикувани хармонизирани стандарти на ЕС, GPAI със системен риск могат да разчитат на кодекси на практика, за да се съобразят с регламента.
Забранен ИИ
Забранява се следното:
- Системи за биометрична категоризация, които използват чувствителни характеристики като политически, религиозни, философски убеждения, сексуална ориентация и раса.
- Нецеленасочено изтриване на изображения на лица от интернет или видеозаписи за създаване на бази данни за разпознаване на лица.
- Разпознаване на емоции на работното място и в образователните институции.
- Социално оценяване въз основа на социално поведение или лични характеристики.
- ИИ системи, които манипулират човешкото поведение, за да заобиколят свободната воля.
- Използване от ИИ на уязвимостите на хората поради тяхната възраст, увреждане, социално или икономическо положение.
Санкции при нарушения
В зависимост от нарушението и размера на участващата компания, глобите ще започват от 7,5 милиона евро или 1,5% от глобалния годишен оборот, като достигат до 35 милиона евро или 7% от глобалния оборот.