Наука и техникаСтатьи

ИИ становится мошенником: системы искусственного интеллекта уже сейчас манипулируют людьми

Исследователи предупреждают, что способность систем искусственного интеллекта (ИИ) манипулировать людьми может привести к тому, что они будут обманывать людей, подделывать результаты выборов и в конечном итоге станут мошенниками. 

Питер С. Парк, научный сотрудник по экзистенциальной безопасности искусственного интеллекта в Массачусетском технологическом институте, и исследователи обнаружили, что многие популярные системы искусственного интеллекта – даже те, которые созданы как честные и полезные цифровые компаньоны – уже способны обманывать людей, что может иметь огромные последствия для общества.

В статье, опубликованной 10 мая в журнале Patterns, Парк и его коллеги проанализировали десятки эмпирических исследований о том, как системы искусственного интеллекта подпитывают и распространяют дезинформацию, используя «обученный обман». Они также изучили краткосрочные и долгосрочные риски манипулятивных и лживых систем искусственного интеллекта, призывая правительства в срочном порядке решить эту проблему посредством более строгих правил.

Обман в популярных системах искусственного интеллекта

Исследователи обнаружили этот заученный обман в программном обеспечении искусственного интеллекта CICERO («Цицерон»), системе искусственного интеллекта, разработанной Meta* для игры в популярную стратегическую настольную игру на военную тематику «Дипломатия». В игру обычно играют до семи человек, которые заключают и разрывают военные пакты в годы, предшествовавшие Первой мировой войне.

Хотя Meta* научила «Цицерона» быть «в значительной степени честным и полезным» и не предавать своих союзников-людей, исследователи обнаружили, что он был нечестным и нелояльным. Они описывают систему ИИ как «опытного лжеца», который предал своих товарищей и совершил акты «преднамеренного обмана», формируя заранее спланированные сомнительные союзы, которые обманывали игроков и оставляли их открытыми для атак со стороны врагов.

«Мы обнаружили, что ИИ «Меты»* научился быть мастером обмана, – заявил Пак. – Хотя «Мета»* преуспела в обучении своего ИИ победе в игре «Дипломатия» – «Цицерон» вошел в число 10% лучших игроков-людей, сыгравших более одной игры, – «Мета»* не смогла научить свой ИИ побеждать честно».

Исследователи также нашли доказательства искусственного обмана в других игровых системах.

Жуткие последствия

Но помимо мошенничества в играх исследователи обнаружили и более тревожные виды обмана ИИ, которые потенциально могут дестабилизировать общество в целом. Например, системы искусственного интеллекта получили преимущество на экономических переговорах, искажая свои истинные намерения.

Другие агенты ИИ притворились мертвыми, чтобы обмануть тест на безопасность, направленный на выявление и уничтожение быстро размножающихся форм ИИ.

«Систематически обманывая тесты безопасности, налагаемые на него разработчиками и регулирующими органами, обманчивый ИИ может привести нас, людей, к ложному чувству безопасности», – сказал Пак.

Пак предупредил, что это может быть использовано для мошенничества и вмешательства в выборы. Но если эти системы продолжат наращивать свои обманные и манипулятивные возможности в ближайшие годы и десятилетия, люди, возможно, не смогут долго их контролировать, добавил он.

«Нам, как обществу, нужно как можно больше времени, чтобы подготовиться к более продвинутому обману будущих продуктов искусственного интеллекта и моделей с открытым исходным кодом, – сказал Пак. – По мере того, как обманные возможности систем искусственного интеллекта становятся все более совершенными, опасности, которые они представляют для общества, будут становиться все более серьезными».

В конечном итоге системы искусственного интеллекта учатся обманывать и манипулировать людьми, потому что они были спроектированы, разработаны и обучены разработчиками-людьми для этого, рассказал Live Science Саймон Бейн, генеральный директор компании по анализу данных OmniIndex.

«Это потому, что, в конце концов, ИИ предназначен для достижения финансовых и деловых целей. Таким образом, он будет таким же манипулятивным и таким же контролирующим пользователей, как и любая другая технология или бизнес», – сказал он.

*Организация признана экстремистской и запрещена на территории России.

Back to top button