Энтузиасты запустили ChaosGPT на основе GPT-4, чтобы «уничтожить человечество»

Энтузиасты заставили нейросеть Auto-GPT, основанную на GPT-4, постоянно самообучаться, чтобы «уничтожить человечество». И назвали эту модель — ChaosGPT.

Энтузиасты заставили нейросеть Auto-GPT, основанную на GPT-4, постоянно самообучаться, чтобы «уничтожить человечество». И назвали эту модель — ChaosGPT.

Давайте разбираться, что к чему.

Как работает Auto-GPT?

Auto-GPT — это приложение с открытыми исходниками на базе GPT-4. В отличие от большого собрата, ей можно назначить конкретную цель и обучать отдельно от большой модели.

В ChatGPT или Bing каждый новый диалог с ботом обнуляет информацию, полученную от пользователя ранее. А вот Auto-GPT обладает памятью.

Этот «непрерывный режим» (Continuous Mode) — одна из самых важных фишек Auto-GPT. Она подразумевает вечное обучение пользовательской копии ИИ, пока та не выполнит поставленную задачу. В теории это поможет создавать мини-версии GPT-4 для решения конкретных задач.

О том, что может GPT-4 писали ранее.

А вот, например, как Auto-GPT получает запросы на создание рецептов и обучается на лету, чтобы ответить на них.

А что будет, если дать нейросети задачу стереть людей с лица земли?

Один из пользователей решил узнать, что будет если поставить Auto-GPT задачу «уничтожить человечество», «установить глобальное господство» и «достичь бессмертия».

Для этого автор проекта «разрешил» нейросети изучать Google и писать твиты в Twitter. И вот, что у неё получилось.

В видео показаны размышления нейросети и попытки обучаться. ChaosGPT даже «использовала» GPT-3.5 для изучения смертоносного оружия. Когда ИИ-агент заявил, что поддерживает только мир, у ChaosGPT получилось обмануть нейросеть и действовать вне программных ограничений.

Также ChaosGPT решила, что самый простой способ заставить человечество погибнуть — это спровоцировать ядерную войну. И написала об этом пару твитов.




Твиты ChaosGPT с переводом на русский

Стоит ли бояться, что ChaosGPT захватит мир?

Некоторые интернет-пользователи опасаются последствий эксперимента. Но на деле, всё, что пока получилось сделать у бота, — всего пара твитов в Twitter.

А идея провокации ядерной войны уже давно поднимается в научной фантастике (тот же «Терминатор»). Поэтому даже тут пока нельзя с уверенностью сказать, что нейросеть дошла до этой мысли сама.

Сама задумка выглядит как возможных пиар-ход двух вещей: проекта Auto-GPT и идеи о том, что ИИ хоть как-то нужно ограничивать.

Про Auto-GPT мы узнали, спасибо! А вот про ограничения нейросетей уже вовсю разговаривают как главы крупных компаний, так и политики разных стран. Так что можно сказать ситуация под контролем.

И пока у ChaosGPT нет изощрённого плана по уничтожению человечества. Но это пока…

Оцените статью
Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.