11/22/2024

Компанія OpenAI оновила свої правила і заборонила користувачам та розробникам застосовувати її інструменти у виборчих кампаніях та лобіюванні. Про це пише The Washington Post.
За словами газети, такий крок компанія зробила на тлі занепокоєнь з приводу дезінформації, що генерується штучним інтелектом.
"Ми працюємо над тим, щоб передбачити і запобігти відповідним зловживанням, таким як діпфейки, або чат-боти, що видають себе за політиків", – йдеться в повідомленні OpenAI в блозі.

"Компанія, яка створює популярного чат-бота ChatGPT, генератор зображень DALL-E і надає технології ШІ багатьом компаніям, включаючи Microsoft, заявила в понеділок у своєму блозі, що не дозволить людям використовувати свої технології для створення додатків для політичних кампаній і лобіювання, щоб перешкоджати людям голосувати або поширювати дезінформацію про процес голосування.
OpenAI також заявила, що "на початку цього року" почне додавати вбудовані водяні знаки – інструмент для виявлення фотографій, створених штучним інтелектом – до зображень, зроблених за допомогою свого генератора зображень DALL-E", – пише WP.

Політичні партії роками використовували соціальні мережі для поширення неправдивої інформації та впливу на виборців. Але активісти, політики та дослідники ШІ висловили занепокоєння, що чат-боти та генератори зображень можуть збільшити витонченість та обсяг політичної дезінформації.
Заходи OpenAI з'явилися після того, як інші технологічні компанії також оновили свою виборчу політику, щоб впоратися з бумом ШІ. У грудні компанія Google заявила, що обмежить тип відповідей, які її ШІ-інструменти дають на питання, пов'язані з виборами. Компанія також заявила, що вимагатиме від політичних кампаній, які купують у неї рекламу, повідомляти, коли вони використовують ШІ.
Материнська компанія Facebook Meta також вимагає від політичних рекламодавців повідомляти, чи використовували вони ШІ.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.