Провідні компанії світу пропонують прирівняти ШІ до ризиків, пов’язаних з пандеміями і ядерною війною
Провідні керівники в галузі штучного інтелекту, включаючи генерального директора OpenAI Сема Альтмана, приєдналися до експертів і професорів, щоб порушити питання про "ризик вимирання від ШІ", і закликали політиків прирівняти штучний інтелект до ризиків, пов'язаних з пандеміями і ядерною війною.
Як передає Укрінформ, про це повідомляє Reuters.
"Зниження ризику вимирання через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна", — написали понад 350 підписантів у листі, опублікованому некомерційним Центром безпеки ШІ (CAIS).
Окрім Альтмана, серед них були керівники компаній DeepMind і Anthropic, а також керівники Microsoft і Google. Також серед них були Джеффрі Хінтон і Йошуа Бенгіо — двоє з трьох так званих "хрещених батьків ШІ", які отримали Премію Тьюринга 2018 року за свою роботу в галузі глибокого вивчення, і професори з різних установ — від Гарварду до китайського Університету Цінхуа.
Подання листа збіглось у часі із засіданням Ради з торгівлі та технологій США-ЄС у Швеції, де політики, як очікується, обговорюватимуть питання регулювання ШІ.