Openal, Microsoft і Amazon дамовіліся абараняць чалавецтва ад магутных ШІ-сістэм
Верагоднасць «уцёкаў» нейрасеткі ад чалавека расце. Гэта першае маштабнае пагадненне па бяспецы штучнага інтэлекту.
OpenAI, Microsoft, Amazon і яшчэ 13 буйных кампаній, якія займаюцца распрацоўкамі ў сферы штучнага інтэлекту, падпісалі маштабнае пагадненне аб бяспецы.
Дамова прадугледжвае, што кампаніі распрацуюць спецыяльныя пратаколы бяспекі, якія дазволяць не выкарыстоўваць штучны інтэлект у небяспечных для чалавецтва або злачынных мэтах. Кампаніі таксама павінны будуць растлумачыць, як яны збіраюцца ацэньваць рызыкі і якія пастановы будуць прымаць у тых ці іншых сітуацыях, паведамляе брытанскі ўрад.
Таксама падпісанты пагаднення вызначаць «чырвоныя лініі», пры перасячэнні якіх распрацоўкі будуць прыпыняцца, а праекты — адключацца. Вызначыць гэтыя «чырвоныя лініі» дапамогуць урады краін.
У ліку патэнцыйных рызык называюць аўтаматызаваныя кібератакі і пагрозу стварэння біялагічнай зброі з дапамогай ШІ. Для такіх выпадкаў кампаніі павінны будуць прадугледзець» аварыйныя выключальнікі», актывацыя якіх прыпыніць распрацоўкі.
Пагадненне было падпісана ў ходзе Саміту па ШІ ў Сеуле. Акрамя таго, на канферэнцыі кіраўнік OpenAI Сэм Альтман анансаваў выхад GPT-5. Падрабязнасцяў ён не раскрыў, аднак намякнуў, што новая версія ШІ будзе значна больш магутнай за папярэднюю — на слайдзе, які паказаў Альтман, GPT-5 прадстаўлена ў відэа вялізнага кіта, тады як GPT-4 намаляваная касаткай. Чакаецца, што сістэма будзе запушчана ў найбліжэйшыя месяцы.
Эксперты і карыстальнікі раней выказвалі меркаванне, што з выхадам GPT-5 верагоднасць «уцёкаў» ШІ з-пад чалавечага кантролю ўзрасце да 22%.
Каментары