Адна з нейрасетак паспяхова прайшла тэст Т'юрынга. Гэта адбываецца ўпершыню ў гісторыі
Навукоўцы з Каліфарнійскага ўніверсітэта правялі для некалькіх нейрасетак сапраўдны тэст Т'юрынга і далі ім пагутарыць з 500 рознымі людзьмі, якія потым павінны былі адказаць, з чалавекам ці з машынай яны размаўлялі. Вынікі аказаліся лёсавызначальнымі для ўсяго чалавецтва, кажуць даследчыкі.
15.06.2024 / 18:30
Ілюстрацыйная выява. Фота: vecteezy
Каманда навукоўцаў з Каліфарнійскага ўніверсітэта нядаўна правяла сусветна вядомы тэст Т'юрынга з мэтай высветліць, ці могуць сучасныя мадэлі штучнага інтэлекту (ШІ) праўдападобна імітаваць чалавечыя зносіны і колькіх людзей атрымаецца ўвесці ў зман, калі даць ім пагутарыць з ШІ, перадае часопіс Life Science.
Для гэтага навукоўцы зладзілі пачарговую 5-хвілінную размову некалькіх нейрасетак з 500 рознымі людзьмі, якіх падзялілі на 4 групы: першая мела зносіны з сапраўдным чалавекам, а тры астатнія — з нейрасеткамі (у эксперыменце выпрабоўвалі самы першы ў гісторыі чалавецтва чат-бот ELIZA, а таксама трэцюю і чацвёртую версіі нейрасеткі ChatGPT).
Згодна з правіламі тэсту Т’юрынга, ніводзін з 500 рэспандэнтаў першапачаткова не ведаў, з кім ён вядзе размову: з машынай ці з жывым чалавекам. Потым кожны з удзельнікаў павінен быў адказаць на пытанне, ці быў іх суразмоўца сапраўдным.
Вынікі аказаліся такія: ChatGPT-4 падчас размовы здолеў пераканаць 54% удзельнікаў у тым, што з імі меў зносіны жывы чалавек. А трэцюю версію нейрасеткі (ChatGPT-3.5) прынялі за чалавека 50% рэспандэнтаў.
Чат-бот ELIZA у сваю чаргу заваліў тэст і 78% удзельнікаў адразу вызначылі, што з імі гутарыць машына. Рэальны чалавек, які разам з нейрасеткамі меў зносіны з рэспандэнтамі, змог пераканаць у сваёй чалавечнасці 67% удзельнікаў.
«Паколькі 54% — гэта большасць, і яна не змагла адрозніць машыну ад жывога чалавека, то ChatGPT прайшоў тэст Т’юрынга. Гэта адбываецца ўпершыню», — заявілі навукоўцы з Каліфарнійскага ўніверсітэта ў сваім новым даследаванні.
Яны таксама прызнаюць, што арыгінальны тэст Т’юрынга занадта спрошчаны ў сваім падыходзе, «бо стылістычныя і сацыяльна-эмацыйныя фактары сёння адыгрываюць больш вялікую ролю ў праходжанні тэсту, чым традыцыйныя паняцці інтэлекту».
«Сучасныя моўныя мадэлі бясконца гнуткія, яны здольныя сінтэзаваць адказы на шырокі спектр тэм, выказвацца на розных мовах і дыялектах, прымяраць на сябе характэрныя асобавыя якасці і каштоўнасці, а таксама падманваць і маніпуляваць.
Гэта велізарны крок наперад і паказальнік таго, як моцна змяніўся ШІ ў эпоху GPT. Гэта вялікі выклік будучаму ўзаемадзеянню чалавека і машыны, які можа прынесці за сабой шырокамаштабныя сацыяльныя і эканамічныя наступствы для ўсяго чалавецтва», — падкрэсліваюць навукоўцы.
Поўны тэкст даследавання (на англійскай мове) можна паглядзець па спасылцы.
Нагадаем, што тэст Т'юрынга названы ў гонар брытанскага матэматыка і крыптографа Алана Т'юрынга, якому падчас Другой сусветнай вайны ўдалося ўзламаць сакрэтную нямецкую шыфравальную машыну «Энігма» і тым самым адсочваць аперацыі падводнага флоту Германіі, што істотна дапамагло саюзнікам перамагчы ў вайне.
Т'юрынг таксама лічыцца адным з заснавальнікаў тэорыі штучнага інтэлекту, і ягоны тэст павінен быў вызначаць узровень наяўнасці інтэлекту ў машын на аснове іх здольнасці падтрымліваць праўдападобную размову з чалавекам.
Алан Т'юрынг — геніяльны матэматык, узломшчык нацысцкіх шыфраў і гей — памілаваны пасмяротна
Чат-боты могуць падтрымліваць нацызм і іншыя антычалавечыя ідэалогіі з-за адной асаблівасці