Future of Life опубликовала письмо, в котором Илон Маск, Стив Возняк и более тысячи исследователей ИИ призывают остановить обучение систем искусственного интеллекта мощнее, чем GPT-4.
Эксперты считают, что ИИ с уровнем интеллекта, конкурирующим с человеческим, могут представлять серьёзные риски для общества и человечества.
По их мнению, ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми.
Например, мы уже писали, как ChatGPT, интегрированный в Bing, начал сходить с ума. Это только одна из многих историй, когда искусственный интеллект ведёт себя не так, как задумывалось.
С одной стороны, оно верно: разработчики ИИ выкатывают новые модели быстрее, чем успевают понять возможные проблемы. С другой — GPT-4 внезапно стал конкурентом многим сферам бизнеса и такие призывы могут быть попытками лучше его контролировать или дать фору остальным разработчикам.
Хороший пример — Google. Искусственный интеллект внезапно стал угрозой для бизнеса компании. В компании увидели риски в быстром развитии чат-ботов и даже попытались выпустить своё решение. Но прорыва не вышло.