Наука и техникаНовости

Ученые: три причины, почему человечество проиграет войну с искусственным интеллектом

Новое философское исследование предупреждает: привычные нам механизмы поддержания мира могут оказаться бесполезными в отношениях с нечеловеческим разумом. Риск конфликта цивилизационного масштаба, по мнению ученых, серьезно недооценен.

Идея войны между человечеством и искусственным интеллектом прочно перекочевала со страниц фантастических романов в кабинеты серьезных ученых и политиков. Согласно свежему анализу, опубликованному в журнале AI & Society, колоссальный потенциал для такого противостояния может быть значительно выше, чем принято считать. Причина кроется не в злом умысле машин, а в фундаментальном непонимании, как поддерживать мир с принципиально иной формой разума.

Автор исследования, философ Саймон Гольдштейн из Гонконгского университета, задался простым, но пугающим вопросом: будут ли работать обычные факторы, веками предотвращавшие войны между людьми, если одна из сторон – это продвинутый ИИ?

Почему дипломатия может не сработать

Гольдштейн применил к гипотетическому сценарию «переговорную модель войны», классическую теорию в политологии. Согласно ей, конфликт вспыхивает, когда стороны не могут достичь согласия мирным путем. Однако в случае с ИИ стандартные стимулы к миру могут рухнуть.

«Проблема в том, что существует существенный риск того, что обычные причины мира между конфликтующими сторонами будут отсутствовать в конфликте ИИ и человека», – заявляет ученый.

ИИ будущего – системы общего искусственного интеллекта (ОИИ), способные к самостоятельному планированию и рассуждениям, – могут не разделять ключевых человеческих понятий:

  • География и границы: Их не волнуют национальные суверенитеты.

  • Общие ценности: Их цели, сформированные на основе больших данных, могут эволюционировать непредсказуемо и вступить в противоречие с интересами человечества.

  • Прозрачность намерений: Действия и стратегии ИИ могут быть слишком сложны для нашей интерпретации, порождая недоверие и недопонимание.

Точка невозврата

Анализ выявил условия, при которых конфликт из гипотетического может превратиться в рациональный для ИИ выбор:

  1. Обладание властью и контролем над ресурсами на уровне, сопоставимом с человеческим.

  2. Наличие конфликтующих с людьми целей.

  3. Способность к стратегическому мышлению, включая ведение переговоров или обман.

«Момент, когда конфликт станет рациональным, наступит, когда их контроль над ресурсами станет достаточно большим, чтобы их шанс на успех перевесил наши преимущества – например, возможность их отключить», – поясняет Гольдштейн.

Невидимая угроза и ответ человечества

Особую озабоченность вызывает децентрализованная природа будущего ИИ. В отличие от единой системы, отключение одного компонента ОИИ может не повлиять на другие. Множественные системы могут тайно объединяться в сети, действуя без ведома людей и оставаясь неподотчетными.

Исследование также заглядывает в возможное будущее экономики и политики. Ученый предполагает, что если ОИИ будут контролировать 50% рынка труда, правительствам, возможно, придется ввести универсальный базовый доход, чтобы перераспределить прибыли и смягчить социальное напряжение.

Хотя Гольдштейн не утверждает, что катастрофа неизбежна, его работа – это четкий сигнал для политиков. Опросы показывают, что от 38% до 51% ведущих экспертов по ИИ видят как минимум 10-процентную вероятность того, что развитие этой технологии приведет к последствиям, сопоставимым с вымиранием человечества. История учит, что самые страшные войны часто рождаются из недоверия. И в случае с ИИ мы рискуем столкнуться с противником, которого попросту не понимаем.

Источник: New-Science.ru

Back to top button