Центр безопасности искусственного интеллекта (Center for AI Safety) в США совместно с группой экспертов предупредили об опасностях искусственного интеллекта (ИИ), который, по их мнению, может стать причиной исчезновения человечества.

«Уменьшение риска исчезновения человечества из-за развития искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, такими как пандемии и ядерная война», — говорится в заявлении, состоящем всего из одного предложения и опубликованном на сайте центра.

Открытое письмо подписали более 350 руководителей, исследователей и инженеров, работающих в области ИИ. В их числе лидеры в разработке ИИ — глава компании OpenAI Сэм Олтмен, исполнительный директор Google DeepMind Демис Хассабис и руководитель Anthropic Дарио Амодей.

Свои подписи также поставили получившие премию Тьюринга за свою работу над нейронными сетями Джеффри Хинтон и Йошуа Бенджио, которых часто называют «крестными отцами» ИИ.

Исполнительный директор Центра безопасности искусственного интеллекта Дэн Хендрикс объяснил краткость письма тем, что оно должно было объединить экспертов в ИИ, которые могли не согласиться с определёнными рисками, но разделяли общие опасения. «Мы не хотели публиковать список из 30 возможных рекомендаций, чтобы … не разбавлять нашу мысль», — сказал он.

Нынешнее заявление не первое предупреждение о риске ИИ. В марте более 1000 инженеров и исследователей, включая владельца Twitter, SpaceX и Tesla Илона Маска и сооснователя Apple Стива Возняка, подписали ещё одно открытое письмо, призвав приостановить разработки в этой области на полгода, пока не будут разработаны надёжные протоколы безопасности.

Авторы письма выразили опасения по поводу «неконтролируемой гонки по разработке все более мощных цифровых умов» и описали потенциальные риски, которые, с их точки зрения, могут сопровождать развитие ИИ. Среди них — распространение пропаганды и дезинформации, сокращение рабочих мест и потеря контроля над цивилизацией.

В ряде стран уже предпринимаются попытки разработать законодательство, которое могло бы контролировать развитие ИИ. Евросоюз надеется принять к концу года закон, который классифицирует ИИ по четырём категориям риска. Проект закона, регулирующего ИИ, был также опубликован в Китае. Он предлагает ограничивать политически чувствительный контент и требует от разработчиков получать одобрение перед выпуском технологий на основе ИИ.