Более 1000 экспертов по искусственному интеллекту призывают подождать до тех пор, пока мир не будет уверен, что «эффект будет положительным, а риски управляемыми». Более 1000 экспертов, исследователей и сторонников искусственного интеллекта присоединились к призыву немедленно приостановить создание «гигантских» ИИ как минимум на шесть месяцев, чтобы возможности и опасности таких систем, как GPT-4, можно было должным образом изучить и смягчить.
Требование изложено в открытом письме, подписанном крупными игроками в области ИИ, в том числе: Илоном Маском, который стал соучредителем OpenAI, исследовательской лаборатории, ответственной за ChatGPT и GPT-4; Эмад Мостак, основатель лондонской компании Stability AI; и Стив Возняк, соучредитель Apple.
Среди подписантов также инженеры из Amazon, DeepMind, Google, Meta и Microsoft, а также ученые, в том числе ученый-когнитивист Гэри Маркус. «В последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке за разработку и развертывание все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — говорится в письме.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми». Авторы, координируемые «долгосрочным» аналитическим центром Future of Life Institute, цитируют собственного соучредителя OpenAI Сэма Альтмана в оправдание своих призывов.
В сообщении от февраля Альтман написал: «В какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем, а для самых продвинутых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей». В письме продолжалось: «Мы согласны. Этот момент настал сейчас».
Авторы говорят, что если исследователи добровольно не приостановят свою работу над моделями ИИ, более мощными, чем GPT-4, эталоном письма для «гигантских» моделей, тогда «правительства должны вмешаться». «Это не означает паузу в развитии ИИ в целом, а просто отход от опасной гонки к все более крупным непредсказуемым моделям черного ящика с новыми возможностями», — добавляют они.
С момента выпуска GPT-4 OpenAI добавлял возможности в систему ИИ с помощью «плагинов», предоставляя ей возможность искать данные в открытой сети, планировать отпуск и даже заказывать продукты. Но компании приходится иметь дело с «переизбытком возможностей»: проблема в том, что ее собственные системы мощнее, чем она знает на момент выпуска.
По мере того, как исследователи будут экспериментировать с GPT-4 в ближайшие недели и месяцы, они, вероятно, обнаружат новые способы «подсказки» системе, которые улучшат ее способность решать сложные проблемы.
Одно из недавних открытий заключалось в том, что ИИ заметно точнее отвечает на вопросы, если ему сначала говорят сделать это «в стиле знающего эксперта». Призыв к строгому регулированию резко контрастирует с официальным документом правительства Великобритании по регулированию ИИ, опубликованным в среду, в котором вообще не содержится никаких новых полномочий. Вместо этого, по словам правительства, основное внимание уделяется координации существующих регулирующих органов, таких как Управление по конкуренции и рынкам и Управление по охране труда и технике безопасности, предлагается пять «принципов», в соответствии с которыми они должны думать об ИИ.
«Наш новый подход основан на строгих принципах, чтобы люди могли доверять бизнесу, чтобы раскрыть эту технологию завтрашнего дня», — сказала министр науки, инноваций и технологий Мишель Донелан. Институт Ады Лавлейс был среди тех, кто раскритиковал это объявление. «В подходе Великобритании есть значительные пробелы, которые могут оставить без внимания ущерб, и он недостаточно эффективен по сравнению со срочностью и масштабом проблемы», — сказал Майкл Биртвистл, который отвечает за законодательство и политику в области данных, ИИ в исследовательском институте. «Правительственный график внедрения в год или более оставит риски без внимания, поскольку системы искусственного интеллекта постепенно интегрируются в нашу повседневную жизнь, от поисковых систем до офисного программного обеспечения».
К критике присоединились лейбористы, а министр теневой культуры Люси Пауэлл обвинила правительство в том, что оно «не выполнило свою часть сделки». Она сказала: «Для вступления в силу этого правила потребуются месяцы, если не годы. Тем временем ChatGPT, Google Bard и многие другие делают искусственный интеллект неотъемлемой частью нашей повседневной жизни.
«Правительство рискует восполнить пробелы в нашей существующей системе регулирования и сделать систему чрезвычайно сложной для навигации предприятий и граждан, в то же время они ослабляют эти основы своим предстоящим законопроектом о данных».
Источник: Би-би-си