Штучны інтэлект едзе з глузду пасля навучання на даных, якія згенераваў сам
Амерыканскія даследчыкі выявілі праблему ў генератыўных мадэлях накшталт ChatGPT або Midjourney. Тыя нейрасеткі, якія навучаюцца на даных, згенераваных самім штучным інтэлектам, маюць тэндэнцыю «вар'яцець» ужо пасля пяці цыклаў навучання.
Тэрмін MAD (Model Autophagy Disorder), які выкарыстоўваецца даследчыкамі, апісвае працэс таго, як якасць вынікаў ШІ дэградуе пры такім навучанні. На малюнку — прыклад пагаршэння выяў на 5, 7 і 9 цыклах генерацый выяў.
Каментары