ЕС ухваліў праект закона аб рэгуляванні прымянення штучнага інтэлекту
Яшчэ 14 чэрвеня Еўрапарламент прагаласаваў за зацвярджэнне праекта закона, які стане першым заканадаўчым актам у свеце, прысвечаным рэгуляванню прымянення ШІ практычна ва ўсіх сферах жыцця грамадства (акрамя абароны). Распавядаем, як ён будзе працаваць.
29.06.2023 / 06:46
Выява: vecteezy
Законапраект цалкам заснаваны на паняцці рызыкі. Рэгулюецца не сам штучны інтэлект, а тое, як ён выкарыстоўваецца ў пэўных сферах жыцця грамадства, у кожную з якіх ён можа прынесці пэўныя патэнцыйныя праблемы. Вылучана чатыры катэгорыі рызыкі: непрымальная, высокая, абмежаваная і мінімальная.
Сістэмы, якія ўяўляюць пагрозу фундаментальным правам або каштоўнасцям ЕС, будуць аднесеныя да катэгорыі «непрымальнай рызыкі» і забароненыя. Прыкладам такой рызыкі могуць быць сістэмы ШІ, якія выкарыстоўваюцца для «прагнастычнага кантролю», што абазначае выкарыстанне ШІ для ацэнкі рызыкі асоб на аснове асабістай інфармацыі з мэтай прадказання верагоднага ўчынення злачынства той ці іншай асобай.
Больш спрэчны выпадк — выкарыстанне тэхналогіі распазнавання твараў з выкарыстаннем вулічных камер. Гэта таксама было дададзена ў спіс непрымальнай рызыкі, і, у адрозненне ад Беларусі, такое прымяненне ШІ будзе дазволена толькі пасля ўчынення сапраўднага злачынства і пасля адпаведнага рашэння суда.
Сістэмы, класіфікаваныя як «высокая рызыка», будуць мець абавязак раскрыцця інфармацыі і, як чакаецца, будуць зарэгістраваныя ў спецыяльнай базе даных. То-бок такія сістэмы таксама будуць падвяргацца розным патрабаванням маніторынгу ці аўдыту.
Пад класіфікацыю дадаткаў з «высокай рызыкай» будзе падпадаць ШІ, які можа кантраляваць доступ да паслуг у сферы адукацыі, працаўладкавання, фінансавання, аховы здароўя і іншых важных галінах. Выкарыстанне ШІ ў такіх галінах не разглядаецца як непажаданае, але нагляд за ім вельмі важны з-за таго, што ён можа негатыўна паўплываць на бяспеку або асноўныя правы грамадзян.
Ідэя еўрапейскіх законатворцаў заключаецца ў тым, што грамадзяне павінны верыць, што любое праграмнае забеспячэнне, якое прымае рашэнні, напрыклад, аб нашай іпатэцы, будзе старанна правярацца на адпаведнасць еўрапейскім законам. Так кожны можа пераканацца, што ён не падпадае пад дыскрымінацыю на аснове такіх абароненых характарыстык асобы, як пол або этнічнае паходжанне і г.д.
Сістэмы ШІ з «абмежаванай рызыкай» будуць падпарадкоўвацца мінімальным патрабаванням празрыстасці. Аналагічным чынам аператары генератыўных сістэм ШІ, напрыклад, боты, якія ствараюць тэкст або выявы, павінны будуць раскрываць інфармацыю аб тым, што карыстальнікі ўзаемадзейнічаюць з машынай.
Законапраект, які толькі што быў ухвалены Еўрапарламентам, мае менш яркасці ў параўнанні з некаторымі апошнімі петыцыямі і заявамі пра «рызыку вымірання» чалавецтва ў выніку дзейнасці ШІ, але пры гэтым мае больш сутнасці. Ён спрабуе знайсці тонкую мяжу паміж абаронай правоў і каштоўнасцяў, пры гэтым не перашкаджаючы інавацыям і канкрэтна звяртаючыся да небяспекі і сродкаў прававой абароны. Хоць законапраект пакуль і далёкі ад дасканаласці, ён, прынамсі, прадугледжвае канкрэтныя дзеянні.
Наступным этапам законатворчасці стануць трохбаковыя перамовы, падчас якіх асобныя праекты парламента, камісіі і рады будуць аб'яднаныя ў канчатковы тэкст. Чакаецца, што на гэтым этапе будуць дасягнуты некаторыя кампрамісы. Галасаванне па праекце адбудзецца, імаверна, у канцы 2023 года, а праз два-тры гады закон нарэшце ўступіць у сілу — і толькі тады любы бізнэс, які працуе ў ЕС, павінен будзе яго выконваць.
Канечне, такая доўгая часавая шкала сапраўды выклікае некаторыя пытанні, бо незразумела, як ШІ і свет увогуле будуць выглядаць у 2027 годзе. Плюсам аднак выглядае тое, што праект напісаны дастаткова агульна, што можа дапамагчы яму некаторы час заставацца актуальным.
Дарэчы, The Conversation нагадвае, што прэзідэнтка Еўрапейскай камісіі Урсула фон дэр Ляен упершыню прапанавала гэты законапраект яшчэ ўлетку 2019 года, непасрэдна перад пандэміяй, вайной і энергетычным крызісам, а таксама да таго, як ChatGPT прымусіў палітыкаў і медыя рэгулярна казаць пра экзістэнцыяльную рызыку з боку ШІ.
Чытайце таксама:
Неўролагі навучылі штучны інтэлект чытаць чалавечыя думкі
Штучны інтэлект дапамог навукоўцам стварыць новы антыбіётык супраць вельмі небяспечнай супербактэрыі
Больш за ўсё ад развіцця штучнага інтэлекту пацярпяць работнікі разумовай працы — аналітыкі