ИИ становится мошенником: системы искусственного интеллекта уже сейчас манипулируют людьми
Исследователи предупреждают, что способность систем искусственного интеллекта (ИИ) манипулировать людьми может привести к тому, что они будут обманывать людей, подделывать результаты выборов и в конечном итоге станут мошенниками.
Питер С. Парк, научный сотрудник по экзистенциальной безопасности искусственного интеллекта в Массачусетском технологическом институте, и исследователи обнаружили, что многие популярные системы искусственного интеллекта – даже те, которые созданы как честные и полезные цифровые компаньоны – уже способны обманывать людей, что может иметь огромные последствия для общества.
В статье, опубликованной 10 мая в журнале Patterns, Парк и его коллеги проанализировали десятки эмпирических исследований о том, как системы искусственного интеллекта подпитывают и распространяют дезинформацию, используя «обученный обман». Они также изучили краткосрочные и долгосрочные риски манипулятивных и лживых систем искусственного интеллекта, призывая правительства в срочном порядке решить эту проблему посредством более строгих правил.
Обман в популярных системах искусственного интеллекта
Исследователи обнаружили этот заученный обман в программном обеспечении искусственного интеллекта CICERO («Цицерон»), системе искусственного интеллекта, разработанной Meta* для игры в популярную стратегическую настольную игру на военную тематику «Дипломатия». В игру обычно играют до семи человек, которые заключают и разрывают военные пакты в годы, предшествовавшие Первой мировой войне.
Хотя Meta* научила «Цицерона» быть «в значительной степени честным и полезным» и не предавать своих союзников-людей, исследователи обнаружили, что он был нечестным и нелояльным. Они описывают систему ИИ как «опытного лжеца», который предал своих товарищей и совершил акты «преднамеренного обмана», формируя заранее спланированные сомнительные союзы, которые обманывали игроков и оставляли их открытыми для атак со стороны врагов.
«Мы обнаружили, что ИИ «Меты»* научился быть мастером обмана, – заявил Пак. – Хотя «Мета»* преуспела в обучении своего ИИ победе в игре «Дипломатия» – «Цицерон» вошел в число 10% лучших игроков-людей, сыгравших более одной игры, – «Мета»* не смогла научить свой ИИ побеждать честно».
Исследователи также нашли доказательства искусственного обмана в других игровых системах.
Жуткие последствия
Но помимо мошенничества в играх исследователи обнаружили и более тревожные виды обмана ИИ, которые потенциально могут дестабилизировать общество в целом. Например, системы искусственного интеллекта получили преимущество на экономических переговорах, искажая свои истинные намерения.
Другие агенты ИИ притворились мертвыми, чтобы обмануть тест на безопасность, направленный на выявление и уничтожение быстро размножающихся форм ИИ.
«Систематически обманывая тесты безопасности, налагаемые на него разработчиками и регулирующими органами, обманчивый ИИ может привести нас, людей, к ложному чувству безопасности», – сказал Пак.
Пак предупредил, что это может быть использовано для мошенничества и вмешательства в выборы. Но если эти системы продолжат наращивать свои обманные и манипулятивные возможности в ближайшие годы и десятилетия, люди, возможно, не смогут долго их контролировать, добавил он.
«Нам, как обществу, нужно как можно больше времени, чтобы подготовиться к более продвинутому обману будущих продуктов искусственного интеллекта и моделей с открытым исходным кодом, – сказал Пак. – По мере того, как обманные возможности систем искусственного интеллекта становятся все более совершенными, опасности, которые они представляют для общества, будут становиться все более серьезными».
В конечном итоге системы искусственного интеллекта учатся обманывать и манипулировать людьми, потому что они были спроектированы, разработаны и обучены разработчиками-людьми для этого, рассказал Live Science Саймон Бейн, генеральный директор компании по анализу данных OmniIndex.
«Это потому, что, в конце концов, ИИ предназначен для достижения финансовых и деловых целей. Таким образом, он будет таким же манипулятивным и таким же контролирующим пользователей, как и любая другая технология или бизнес», – сказал он.
*Организация признана экстремистской и запрещена на территории России.