Навука і тэхналогіі22

Штучны інтэлект навучыўся мове даркнэту і цяпер можа распазнаваць кіберпагрозы

Даследчыкі з Паўднёвай Карэі правялі навучанне моўнай мадэлі DarkBERT на тэкстах з даркнэту, дзе людзі камунікуюць на слэнгу, які адрозніваецца ад мовы звычайнага інтэрнэту. Яны сцвярджаюць, што цяпер нейрасетка DarkBERT спраўляецца з задачамі кібербяспекі лепш за іншыя мадэлі.

Darknet Даркнэт Даркнет
Фота ілюстрацыйнае. Крыніца: vecteezy.com

Даркнэт — гэта схаваная ад пошукавых сістэм частка інтэрнэту. У яе нельга патрапіць праз звычайны браўзер. Аўтары даследавання для ўваходу ў даркнэт выкарыстоўвалі браўзер Tor. Зносіны карыстальнікаў у «цёмнай» частцы інтэрнэту адбываюцца ананімна, таму іх складана адсачыць.

З-за такіх пераваг даркнэт стаў платформай для ўсякай незаконнай дзейнасці, ад уцечкі даных да гандлю забароненымі рэчамі. Спецыялісты па кібербяспецы пастаянна шукаюць спосабы маніторыць і вывучаць тэксты ў даркнэце.

Такія моўныя мадэлі, як нейрасеткі, цяпер выкарыстоўваюцца для вывучэння розных тэкстаў. Яны былі навучаныя на вялікім аб'ёме даных і паспяхова спраўляюцца з задачамі, звязанымі з разуменнем мовы.

Яны здольныя аналізаваць тэксты, вызначаць іх сэнс і выяўляць важныя аспекты. Гэта дазваляе выкарыстоўваць моўныя мадэлі ў такіх галінах, як аўтаматычны пераклад, сінтэз гаворкі, аналіз танальнасці тэкстаў і ў шмат іншых.

Моўныя мадэлі звычайна праводзяць навучанне на выбарках тэкстаў з розных крыніц: інтэрнэту, кніг, артыкулаў, навін. Гэта дазваляе ім разумець і адрозніваць розныя стылі: мастацкі, навуковы, стыль паведамленняў у сацыяльных сетках і г. д.

Аднак у выбаркі не траплялі матэрыялы з даркнэту, а яны маюць свае асаблівасці ў лексіцы, размеркаванні часцін мовы і сінтаксісе. Даследчыкі з Паўднёвай Карэі вырашылі ліквідаваць гэты недахоп.

Група вучоных з Карэйскага інстытута перадавых тэхналогій сабрала корпус тэкстаў з дакнэту і навучыла яго мове мадэль DarkBERT. Вынікі свайго даследавання яны прадставілі на платформе arxiv.org.

Для папярэдняга навучання DarkBERT даследчыкі стварылі вялікі тэкставы корпус з даркнэту. Яны пачалі са збору пачатковых адрасоў з пошукавай сістэмы Ahmia, якая працуе ў даркнэце і дае доступ да сайтаў, якія не індэксуюцца звычайнымі пошукавымі сістэмамі, і публічных сховішчаў са спісам даменаў з пашырэннем «.onion».

Даследчыкі сканавалі Dark Web, пашыраючы свой спіс даменаў і захоўваючы загаловак HTML і асноўныя элементы кожнай старонкі ў выглядзе тэкставага файла. Затым яны адабралі старонкі на англійскай мове. У выніку корпус дакументаў склаў каля 6,1 мільёна старонак, якія пазней былі апрацаваныя з мэтай выдалення старонак з нізкім утрыманнем інфармацыі, дублікатаў і канфідэнцыйных даных.

Для навучання выкарыстоўвалі мадэль RoBERTa, заснаваную на архітэктуры Transformer, выбранай з-за таго, што не ўключае задачу прадказання наступнага сказа (NSP). Пасля навучання на тэкстах даркнэту атрымалася гатовая мадэль DarkBERT. Яе якасць параўноўвалі са стандартнымі мадэлямі RoBERTa і BERT, якія вучыліся на звычайных тэкстах у дзвюх версіях: апрацаванай і неапрацаванай.

А затым правялі тэсціраванне моўных мадэляў на розных сцэнарыях кіберпагроз. Ім неабходна было вызначыць, ці змяшчае тэкст сайта скрадзеныя даныя.

Вядома, што часам зламыснікі выкрадаюць канфідэнцыйныя даныя з сайтаў і вымагаюць у іх уладальнікаў грошы. Калі грошы не паступаюць, яны публікуюць скрадзеныя даныя.

Нейрасеткі атрымлівалі тэкст сайта і вырашалі задачу бінарнай класіфікацыі.

Для гэтага даследчыкі вывучалі сайты ўцечкі даных, на якіх публікуюцца канфідэнцыйныя звесткі арганізацый. На працягу двух гадоў (з мая 2020 года па красавік 2022 года) яны сабралі даныя з 54 папулярных груп вымагальнікаў, якія публікуюць інфармацыю аб уцечцы.

Для станоўчага класа прыкладаў выпадковым чынам выбіралася не больш за тры старонкі з рознымі назвамі. Для адмоўнага выкарыстоўваліся старонкі Dark Web са зместам, падобным да сайтаў уцечкі, у прыватнасці, у катэгорыях хакерства, крыптавалюта, фінансы. Канчатковы набор даных для навучання складаўся са 105 станоўчых і 679 адмоўных прыкладаў.

DarkBERT прадэманстраваў высокую прадукцыйнасць у параўнанні з іншымі моўнымі мадэлямі ў разуменні мовы, якая выкарыстоўваецца на падпольных хакерскіх форумах у Dark Web.

Нягледзячы на ​​тое, што DarkBERT выкарыстоўвае RoBERTa ў якасці базавай мадэлі, прадукцыйнасць RoBERTa значна знізілася ў параўнанні з іншымі мадэлямі. Характэрна, што версія DarkBERT з выкарыстаннем папярэдняй апрацоўкі ўводу перасягнула тую, якая выкарыстоўвае неапрацаваны ўвод. Гэта падкрэслівае важнасць папярэдняй апрацоўкі тэксту для скарачэння непатрэбнай інфармацыі.

Наступная задача, якую вырашалі моўныя мадэлі — разуменне паведамленняў з форумаў даркнэту, якія часта выкарыстоўваюцца для незаконнага абмену інфармацыяй і патрабуюць кантролю за патэнцыйна шкоднымі тэмамі.

Праверка гэтых патокаў уручную займае шмат часу, таму аўтаматызацыя гэтага працэсу можа дапамагчы экспертам па бяспецы. Даследчыкі зноў сфармулявалі задачу як праблему бінарнай класіфікацыі, каб прадказаць, ці вартая ўвагі канкрэтная тэма форуму.

Нейрасеткі вылучалі ключавыя словы ў паведамленнях аб забароненых рэчывах. Такія ключавыя словы могуць спатрэбіцца супрацоўнікам праваахоўных органаў, каб хутка шукаць паведамленні аб продажы рэчываў і вызначаць прадаўцоў.

Гэтую задачу пратэсціравалі на DarkBERT і мадэлі BERT. Тут DarkBERT зноў абышоў канкурэнта (дакладнасць вызначэння топ-10 ключавых слоў 60 % у DarkBERT супраць 40 % у BERT).

У цэлым вынікі паказваюць, што папярэдне навучаная на тэкстах з даркнэту нейрасетка DarkBERT спраўляецца з задачамі кібербяспекі лепш, чым іншыя мадэлі. Яе можна выкарыстоўваць для маніторынгу нелегальнай актыўнасці ў даркнэце, вылічваць злачынцаў і прадухіляць уцечку даных.

Чытайце яшчэ:

Неўролагі навучылі штучны інтэлект чытаць чалавечыя думкі

Microsoft абвясціў аб адкрыцці доступу да пошукавіка Bing на аснове штучнага інтэлекту для ўсіх карыстальнікаў

Кітай хоча, каб штучны інтэлект адлюстроўваў асноўныя каштоўнасці сацыялізму

Каментары2

  • гердзень
    20.05.2023
    ха-ха-ха, скайнэт )
  • Максим Дизайнер
    23.05.2023
    И голову пришивать, которую бандюки из даркнета оторвут, тоже скоро ии будет.

Расіяне расказалі, як намучыліся на беларускай мяжы8

Расіяне расказалі, як намучыліся на беларускай мяжы

Усе навіны →
Усе навіны

У Еўрапарламенце Віктара Орбана правялі з трыбуны песняй Bella Ciao14

Археолагі сцвярджаюць, што старажытны горад на Менцы ўзнік у канцы X стагоддзя15

Што з беларускага кіно пакажуць на фестывалі «Паўночнае ззянне»? Вялікі спіс

У Гродне паставілі помнік міліцыянеру Дзядзю Сцёпу21

У Беларусь збіраецца прыйсці скандальная расійская сетка «Ёбидоёби»5

Галоўчанка паабяцаў стварыць музей на гарадзішчы на Менцы6

Гайдукевічу прапануюць стаць пратэсным кандыдатам на прэзідэнцкіх выбарах24

У ЗША выратавалі мужчыну, які дрэйфаваў на халадзільніку ў моры на працягу амаль сутак3

Беларус, які вызваліўся пасля паўтара года хіміі, ударыў малатком па сцяне Крамля3

больш чытаных навін
больш лайканых навін

Расіяне расказалі, як намучыліся на беларускай мяжы8

Расіяне расказалі, як намучыліся на беларускай мяжы

Галоўнае
Усе навіны →