fbpx

Етикет „изкуствен интелект“ поиска Брюксел от компаниите, използващи технологията

Компаниите, внедряващи генеративни AI инструменти като ChatGPT и Bard с потенциал за генериране на дезинформация, трябва да маркират такова съдържание, като част от усилията си за борба с фалшивите новини. Това подчертава, цитирана от Ройтерс, заместник-председателят на Европейската комисия Вера Йоурова.

Представено в края на миналата година, подкрепеното от Microsoft OpenAI’s ChatGPT се превърна в най-бързо развиващото се потребителско приложение в историята и постави началото на надпревара сред технологичните компании да пуснат на пазара генеративни AI продукти, отбелязва агенцията.

Загрижеността обаче нараства относно потенциалната злоупотреба с технологията и възможността тя да се използва, дори и от правителства, за да произвеждат много повече дезинформация от преди.

Подписалите страни, които интегрират генеративен AI в своите услуги като Bingchat за Microsoft, Bard за Google, трябва да изградят необходимите гаранции, че тези услуги не могат да бъдат използвани от злонамерени участници за генериране на дезинформация“, изтъква Йоурова.

Подписалите страни, които имат услуги с потенциал да разпространяват дезинформация, генерирана от изкуствен интелект, трябва на свой ред да въведат технология за разпознаване на такова съдържание и ясно да го етикетират на потребителите“, уточнява тя.

Компании като Google, Microsoft и Meta, които са се присъединили към Практическия кодекс на ЕС за справяне с дезинформацията, трябва да докладват през юли за предпазните мерки, въведени за справяне с това, заявява още Йоурова.

Тя предупреждава Twitter, който напусна кодекса миналата седмица, да очаква повече регулаторен контрол. „С напускането на Кодекса, Twitter привлече много внимание и неговите действия, в съответствие със законодателството на ЕС, ще бъдат проверени енергично и спешно“, посочва още зам. председателят на Европейската комисия.




Имате възможност да подкрепите качествените анализи, коментари и новини в "Икономически живот"