Дома на случай конца света: почему богачи строят бункеры?

Техногиганты, включая Марка Цукерберга, Сэма Альтмана и Рида Хоффмана, среди прочих, активно занимаются строительством и приобретением подземных укрытий, секретных комплексов и страховки на случай апокалипсиса. Это вызвало массу вопросов: знают ли они нечто такое, чего мы пока не осознаём, например приближение катастрофы вследствие развития искусственного интеллекта (ИИ), климатических изменений или войны?
Однако новое исследование BBC показывает, что подобные страхи скорее преувеличены или вовсе необоснованны. Эксперты утверждают, что разговоры о всеобщем искусственном интеллекте (AGI), равном человеческому разуму или превосходящем его, являются больше маркетинговым ходом, нежели реальной угрозой ближайшего будущего.
Тем не менее это не останавливает миллиардеров инвестировать средства в строительство удалённых жилищ и укрепленных сооружений. Например, Марк Цукерберг возводит гигантский комплекс на Гавайях, включающий подземное убежище, хотя сам утверждает, что оно не предназначено исключительно для спасения от глобального коллапса.
Другие представители технологического сектора открыто признают наличие собственных "страховых полисов на конец света": таким образом, Рид Хоффман, основатель LinkedIn, владеет объектами недвижимости именно с целью выживания при возможных катастрофах, особенно расположенных в Новой Зеландии.
Это поведение вызывает многочисленные спекуляции о том, что сверхбогатые готовятся пережить социальные потрясения, климатический кризис или неконтролируемый рост технологий ИИ.
Некоторые разработчики продвинутого ИИ действительно выражают серьёзные опасения относительно последствий своей работы. Илья Сутскевер, бывший соучредитель OpenAI, заявил: "Мы обязательно построим бункер перед выпуском AGI"
По мнению сторонников теории неизбежности AGI, появление универсального ИИ приведёт к непредсказуемым последствиям, угрожающим человечеству. Однако большинство учёных сходятся во мнении, что технологии ещё далеко до достижения уровня человеческого сознания и понимания окружающего мира.
Хотя разговоров вокруг AGI много, научные специалисты предупреждают, что большая часть опасений связана лишь с маркетинговыми уловками и желанием привлечь внимание инвесторов и широкой общественности. Вместо мифического суперразума стоит обратить внимание на реальные проблемы, создаваемые современными технологиями ИИ: встроенную предвзятость, распространение дезинформации, потерю рабочих мест и концентрацию власти в руках крупных корпораций.
Таким образом, строительство бункеров миллиардерами отражает смесь реальных страхов потерять контроль над мощными технологиями и демонстративного потребления богатства и осторожности. Научное сообщество единогласно заявляет, что развитие AGI и суперинтеллекта находится далеко впереди, а беспокойство должно сосредоточиться на влиянии современных решений ИИ на общество, экономику и власть.