Творці та розробники штучного інтелекту підписали листа про ризик вимирання людства через ШІ

Протидія загрозі вимирання через ШІ має стати пріоритетом світової спільноти на рівні з іншими ризиками суспільного масштабу, як-от пандемії чи ядерна війна, — йдеться в листі.
Провідні лідери в галузі штучного інтелекту, зокрема гендиректор OpenAI Сем Алтман, керівники Microsoft і Google, «хрещені батьки штучного інтелекту» Джеффрі Гінтон і Йошуа Бенжіо разом з експертами й професорами, підняли питання «загрози вимирання людства через ШІ» і закликали законотворців розглядати цю загрозу на рівні з ризиками від пандемій і ядерної війни.

Про це йдеться у листі, який опублікувала некомерційна організація «Центр безпеки ШІ» (CAIS) й підписали понад 350 людей, повідомляє Reuters.

«Протидія загрозі вимирання через ШІ має стати пріоритетом світової спільноти на рівні з іншими ризиками суспільного масштабу, як-от пандемії чи ядерна війна», — йдеться в листі.

Окрім Альтмана, серед тих, хто підписали лист, є генеральні директори компаній зі штучного інтелекту DeepMind і Anthropic, керівники Microsoft і Google, двоє з трьох так званих «хрещених батьків штучного інтелекту» — Джеффрі Гінтон і Йошуа Бенжіо, а також професори різних закладів від Гарварду до китайського Університету Цінхуа.

Оприлюднення листа збіглося в часі із засіданням Ради з торгівлі та технологій США та ЄС у Швеції, де очікується, що політики обговорять питання регулювання штучного інтелекту.

Нагадаємо, ще в березні кілька відомих дослідників штучного інтелекту та експертів у галузі, зокрема гендиректор компаній SpaceX і Twitter Ілон Маск та співзасновник Apple Стів Возняк, підписали відкритий лист, у якому закликали розробників призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на побоювання щодо «значних ризиків для суспільства».

Один з творців цієї технології Джеффрі Гінтон вважає, що штучний інтелект може нести для людства «більш нагальну» загрозу, ніж зміна клімату. Раніше він оголосив, що йде зі своєї посади в Google для того, щоб вільно говорити про ризики, пов’язані з ШІ.

Крім того, співзасновник Apple Стів Возняк заявив, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Возняк каже, що боїться, що технологію штучного інтелекту використають «погані хлопці».

4 травня Адміністрація президента США провела зустріч з виконавчими директорами компаній Google, Microsoft, OpenAI й Anthropic, щоб обговорити ключові питання безпечності штучного інтелекту. Занепокоєння щодо технології ШІ також включають порушення конфіденційності, упередженість і ризик, що це може поширювати шахрайство та дезінформацію.

Цього тижня представники країн «Великої сімки» (G7) зустрінуться, щоб розглянути проблеми, пов’язані з генеративними інструментами штучного інтелекту (ШІ), такими як ChatGPT.

Фото: Pexels