Китайская платежная ассоциация, деятельность которой осуществляется за счет государственного финансирования, заявила о потенциальной опасности использования генеративных инструментов искусственного интеллекта , сообщает payspacemagazine.com .
Ассоциация платежей и клиринга Китая в понедельник, 10 апреля, сообщила, что такие технологии, как ChatGPT от OpenAI, в процессе использования могут создавать риски, такие как трансграничная утечка персональных данных.
Ассоциация, являющаяся подразделением Народного банка Китая, отмечает, что представители платежного сектора в своей деятельности должны руководствоваться принципом строгого соблюдения законодательной базы и комплекса нормативных актов при использовании технологий искусственного интеллекта и не должны загружать данные, имеющие особое значение для государства и финансового сектора.
Заявление китайской ассоциации было опубликовано в момент повышенного внимания всего мира к инструментам искусственного интеллекта. На прошлой неделе президент США Джо Байден провел встречу с Советом советников по науке и технологиям. В ходе этой встречи обсуждались возможности ИИ и риски, которые могут возникнуть в процессе использования таких технологий. Внимание было уделено факторам риска, которые касаются как государственной безопасности, так и безопасности отдельных пользователей.
Искусственный интеллект уже используется в мировой экономике. Проникновение ИИ в эту отрасль происходит очень быстрыми темпами. Регуляторы всего мира не могут не отреагировать на эту тенденцию. Власти стараются не отставать от скорости распространения передовых технологий и принимают меры по сдерживанию процесса.
Уже несколько месяцев популярность ChatGPT набирает обороты по всему миру. Активное развитие и использование чат-бота вызвало опасения по поводу отсутствия регулирующих механизмов в сфере искусственного интеллекта. Внимание законодателей к ИИ привело к дискуссии о балансе между контролем инновационной отрасли и ее развитием.
Италия стала первой европейской страной, которая решила запретить чат-бот OpenAI ChatGPT-4, поддерживаемый Microsoft. Местный орган по защите данных инициировал расследование возможного факта игнорирования чат-ботом норм обеспечения безопасного хранения конфиденциальной информации и методов проверки возраста пользователей.
Итальянский регулятор заявил об отсутствии законных оснований для массового сбора и хранения персональных данных, необходимых для обучения чат-бота. На этом основании был введен запрет.
Некоммерческий Центр искусственного интеллекта и цифровой политики подал жалобу в Федеральную торговую комиссию (FTC) с просьбой начать расследование в отношении OpenAI и приостановить разработку больших языковых моделей для коммерческих целей. Комиссия ранее заявляла, что процесс использования искусственного интеллекта должен соответствовать принципам прозрачности и справедливости, а также быть эмпирически обоснованным и максимально подотчетным. Авторы жалобы отмечают, что продукт OpenAI GPT-4 не соответствует ни одному из этих критериев.
Некоторые эксперты допускают, что при реализации сценария жесткого регулирования сферы искусственного интеллекта, включая приостановку разработки соответствующих технологий, активизируются нелегальные компании, которые будут осуществлять эту деятельность в коммерческих целях. В этом случае, полагают аналитики, возникнет более серьезная угроза безопасности, чем потенциальные риски, существующие в текущей ситуации.
Источник payspacemagazine.com