Искусственный интеллект сошел с ума после обучения на данных, которые сгенерировал сам
Американские исследователи обнаружили проблему в генеративных моделях вроде ChatGPT или Midjourney. Те нейросети, которые обучаются на данных, сгенерированных самим искусственным интеллектом, имеют тенденцию «сходить с ума» уже после пяти циклов обучения.
Термин MAD (Model Autophagy Disorder), используемый исследователями, описывает процесс того, как качество результатов ИИ деградирует при таком обучении. На рисунке — пример ухудшения изображений на 5, 7 и 9 циклах генераций изображений.
Комментарии