Наука и технологии88

Анонсирована ChatGPT-5, которая может нести угрозу всему человечеству

Не прошло и месяца после выхода нашумевшей ChatGPT Omni, как уже анонсировали и начали тестировать «новую передовую модель» ChatGPT-5. Она может стать первым в мире универсальным искусственным интеллектом (УИИ), который, по оценкам, будет способен учиться, понимать и принимать решения полностью самостоятельно, а также может захотеть уничтожить людей из-за их ненужности.

Иллюстративная демонстрация возможностей языковой модели 5-го поколения по сравнению с предыдущими версиями, показанная на недавней конференции компаний Microsoft и OpenAI. Фото: Microsoft

Компания OpenAI, разработчик всемирно известной нейросети ChatGPT, вчера объявила о начале тестирования «новой передовой модели», которая приблизит человечество к созданию первого в мире универсального искусственного интеллекта (Artificial General Intelligence / AGI, или УИИ), — следующей стадии эволюции искусственного интеллекта, которая значительно превысит возможности людей.

Этой передовой моделью может оказаться ChatGPT-5, небольшой анонс которой неделей ранее сделал гендиректор OpenAI Сэм Альтман. Он заявил, что новая версия нейросети «будет функционировать как виртуальный мозг» и будет кардинально отличаться от предыдущих версий.

Альтман также отметил, что новая версия может получить «особое название» вместо стандартных серийных названий ChatGPT, передает издание Windows Central, один из официальных ресурсов компании Microsoft.

Примечательно, что еще в конце прошлого года, по информации нескольких источников агентства Reuters, компания OpenAI сделала «мощное открытие» в развитии искусственного интеллекта, которое «несет угрозу для всего человечества».

Речь тогда шла о закрытом экспериментальном проекте компании под нестандартным для ChatGPT названием Q* (Q-Star), который засвидетельствовал значительные успехи на пути создания универсального искусственного интеллекта.

Активная разработка этой передовой модели — прообраза УИИ могла стать причиной прошлогоднего скандала с временным увольнением Сэма Альтмана с должности гендиректора OpenAI.

Согласно источникам, совет директоров компании тогда был напуган одним из отчетов о достижениях проекта Q-Star и был возмущен тем, что Сэм Альтман разрабатывал модель тайно и без полного информирования совета.

«Больше всех беспокоился один из членов совета директоров OpenAI и уроженец России программист Илья Суцкевер. Он, в отличие от Альтмана, выступает против коммерциализации и стремительного развития искусственного интеллекта, так как боится, что УИИ в будущем будет обращаться с людьми так же, как люди обращаются с животными», — отметило тогда издание The Wall Street Journal со ссылкой на сотрудников OpenAI, знакомых с ситуацией.

Но в итоге скандал закончился тем, что Альтмана вернули на пост гендиректора OpenAI, а Илья Суцкевер, также создатель ChatGPT, был уволен.

Команда Суцкевера по оценке рисков развития мощных систем ИИ, состоявшая в том числе из независимых экспертов по кибербезопасности, была расформирована. Вместо нее Сэм Альтман создал новую команду той же направленности, но состоит она исключительно из сотрудников OpenAI и подчиненных Альтмана.

Сэм Альтман (слева) и Илья Суцкевер (справа). Фото: Abigail Uzi / Tel Aviv University

Теперь, согласно вчерашнему сообщению OpenAI о начале тестирования новой передовой модели искусственного интеллекта, компании также необходимо 90 дней на анализ связанных с моделью рисков. Эта процедура должна дать полезные рекомендации совету директоров перед выпуском продукта.

По информации различных источников, новая модель может появиться уже в этом году.

Напомним, что еще недавно OpenAI выпустила обновление ChatGPT под названием Omni, которое вызвало настоящий ажиотаж во всем мире. 

Модель может анализировать и описывать все вокруг, при этом общаясь с пользователем в режиме реального времени при помощи камеры, а также разговаривать эмоционально с использованием различных интонаций, обладая харизмой, иронией и юмором.

Это далеко не полный список функций Omni. «Наша Ніва» ранее отдельно описала возможности версии и даже протестировала некоторые из них.

Комментарии8

  • Ёсік
    29.05.2024
    Зразумела, чаму пуцінлукашэнка пужаюць ЯЗ, бо ўсё роўна Зямлі капец, дык яны вырашылі ўзяць адказнасьць на сябе за зьнішчэньне людзей, каб слава не дасталася нейкаму іржаваму жалезьзю.
  • З хайпу ў рэалізм
    29.05.2024
    Да моцнага штучнага інтэлекту будзе заўсёды “вось-вось і ўжо”. Як з тэрмаядзерным сінтэзам. Будуць GPT-10, 20 і 50, будуць аналагі. І адрознівацца будуць скрыптамі-кастылямі, каб хаваць, што ўнутры стацыянарная read-only база.
  • Змагар
    29.05.2024
    Хватит засирать людям мозги и уводить внимание от действительно ВАЖНЫХ вопросов! 🤮

Силовики взялись за пользователей твиттера — десятки аккаунтов простых белорусов признали «экстремистскими»9

Силовики взялись за пользователей твиттера — десятки аккаунтов простых белорусов признали «экстремистскими»

Все новости →
Все новости

В Минске появится пересадка на четвертую линию метро: к ней придется идти почти 300 метров

Эминем станет дедом

Белоруски рассказали, сколько получают алиментов на детей9

Бывший немецкий министр похудел на 30 килограммов и отправил одежду в Украину

Что с выездом из Беларуси по состоянию на утро субботы?

«Решишь убежать — поломаю ноги». Бывший политзаключенный рассказал о работе на химии по 18 часов в день4

Сериальные убийцы: дело братьев Менендес 35-летней давности рассмотрят снова из-за сериала Netflix4

В Беларуси новое экстремистское формирование — «Школа лидерства для женщин»2

Помощники Палестины стали фаворитами Нобелевской премии мира. Как так получилось?6

больш чытаных навін
больш лайканых навін

Силовики взялись за пользователей твиттера — десятки аккаунтов простых белорусов признали «экстремистскими»9

Силовики взялись за пользователей твиттера — десятки аккаунтов простых белорусов признали «экстремистскими»

Главное
Все новости →