В миреНаука и техникаНовости

Искусственный интеллект может вызвать «ядерное опустошение», предупреждает депутат из Австралии в речи, написанной искусственным интеллектом

Языковая модель ChatGPT компании OpenAI, запущенная в конце ноября 2022 года, вызвала неоднозначную реакцию из-за ее способности имитировать человеческие разговоры и генерировать уникальные тексты на основе запросов пользователя.

Депутат от лейбористской партии Австралии Джулиан Хилл заявил, что искусственный интеллект (ИИ) может быть использован для «массового уничтожения», в первой в истории парламентской речи в стране, частично написанной ChatGPT, чат-ботом на базе ИИ.

Законодатель призвал к составлению официального документа или расследованию для оценки всех «рисков и преимуществ» ИИ, которые, как он утверждал, могут привести к мошенничеству студентов, дезинформации и неконтролируемым военным применениям, среди прочих проблем.

Хилл рассказал членам Палаты представителей о недавних сообщениях СМИ о том, что «студенты в Австралии используют ИИ для списывания на экзаменах».

«Технология искусственного интеллекта, такая как интеллектуальное программное обеспечение, которое может писать эссе и генерировать ответы, становится все более доступной для студентов, позволяя им выполнять задания и тесты, фактически не понимая материала, что вызывает тревогу учителей, которые обеспокоены влиянием на целостность системы образования», – цитирует депутата Sputnik.

Хил предупредил, что такие технологии могут помочь учащимся эффективно обойти образовательный процесс и получить «несправедливое преимущество», поскольку учителя не смогут «выявить и устранить списывание».

Депутат уверен, что другие риски, связанные с ИИ, касаются «возможности потери людьми работы», заявив, что искусственный интеллект общего назначения «может увековечить существующие предубеждения и дискриминацию» и «может быть использован в злонамеренных целях, таких как кибератаки и кампании по дезинформации».

Он настаивал на том, что ИИ способен трансформировать войну, какой мы ее знаем, с серьезными последствиями для национальной безопасности. Законодатель утверждал, что если искусственный интеллект «превзойдет человеческий интеллект, он может представлять угрозу для наших вооруженных сил, потенциально делая наши нынешние оборонительные возможности устаревшими».

Депутат сказал, что ученые, оценивающие риски, ставят ИИ по опасности впереди «астероидов, стремительного изменения климата, супервулканов, ядерного опустошения солнечных вспышек или пандемий с высокой смертностью».

С другой стороны, законодатель высоко оценил «потенциал ИИ для революции во многих отраслях, включая здравоохранение, транспорт и финансы, за счет повышения эффективности, снижения затрат и улучшения процесса принятия решений».

«[Искусственный интеллект] способен революционизировать наш мир так, как мы еще не можем себе представить, но если ИИ превзойдет человеческий интеллект, он может нанести значительный вред человечеству, если его цели и мотивы не будут совпадать с нашими собственными. Если людям удастся контролировать ИИ до взрыва интеллекта, это может изменить науку, экономику, окружающую среду и общество, обеспечив прогресс во всех областях человеческой деятельности», – заявил Хилл.

Он выступил после того, как Хуан Мануэль Падилья, колумбийский судья в городе Картахена, заявил в четверг, что использовал чат-бота ChatGPT, работающего на базе ИИ, для принятия решения по одному из дел.

«Это первый вердикт в стране, когда был использован искусственный интеллект, чему я удивлен», – сказал Падилья, добавив, что использование подобных инструментов в судебной практике страны не противоречит колумбийским законам и помогает экономить время судей.

Это произошло после нового исследования, проведенного Уортонской школой Университета Пенсильвании, которое показало, что ChatGPT показал исключительно высокие результаты на выпускном экзамене по типичному основному курсу магистра делового администрирования «Управление операциями».

ChatGP был выпущен компанией OpenAI, занимающейся исследованиями в области ИИ, в конце 2022 года. Некоторые поспешили похвалить языковую модель за ее профессиональное применение, например, для разработки кода, в то время как другие критиковали ее потенциал для злоупотреблений, например, использование модели студентами для написания эссе.

Back to top button