Федералната търговска комисия на САЩ (FTC) е започнала разследване на OpenAI, създателя на ChatGPT, по твърдения, че е нарушил законите за защита на потребителите, като е изложил на риск личната репутация и данни, информира Ройтерс.
Този ход бележи най-силната регулаторна заплаха за стартиращата компания, подкрепяна от Microsoft, дала началото на лудостта в генеративния изкуствен интелект, увличайки потребителите и бизнеса, като същевременно поражда опасения относно потенциалните рискове, коментира агенцията.
Тази седмица комисията е изпратила искане от 20 страници за записи за това как OpenAI се справя с рисковете, свързани с неговите AI модели. Агенцията разследва дали компанията е участвала в нечестни или измамни практики, които са довели до „вреда за репутацията“ на потребителите.
Един от въпросите е свързан със стъпките, предприети от OpenAI, за да се справи с потенциала на своите продукти да „генерират изявления за реални лица, които са неверни, подвеждащи или пренебрежителни“.
Тъй като надпреварата за разработване на по-мощни AI услуги се ускорява, нараства регулаторният контрол върху технологията, която може да промени начина, по който функционират обществата и бизнесите.
Глобалните регулатори се стремят да прилагат съществуващите правила, обхващащи всичко – от авторското право и поверителността на данните до два ключови въпроса: данните, подавани в моделите, и съдържанието, което произвеждат.
В Съединените щати лидерът на мнозинството в Сената Чък Шумър призова за „всеобхватно законодателство“, което да доведе до напредък и осигуряване на предпазни мерки срещу ИИ. Очаква се той да инициира и серия от форуми по-късно тази година.
OpenAI през март се сблъска с проблеми и в Италия, където регулаторът накара ChatGPT да бъде спрян офлайн поради обвинения, че OpenAI нарушава GDPR на Европейския съюз – широкообхватният режим за поверителност, въведен през 2018 г.
ChatGPT беше възстановен по-късно, след като американската компания се съгласи да инсталира функции за проверка на възрастта и да позволи на европейските потребители да блокират информацията им от използване за обучение на AI модела.