Страховой совет Австралии (ICA) предложил правительству рассмотреть вопрос о создании центрального экспертного органа по искусственному интеллекту , сообщает allinsurance.kz .
В ответ Министерству промышленности, науки и ресурсов, участвовавшему в обсуждении разработки безопасных и ответственных методов ИИ в Австралии, ICA заявляет, что экспертный орган может быть создан по образцу Управления по искусственному интеллекту Соединенного Королевства и Совета по ИИ.
Экспертный орган будет обобщать опыт правительства и консультировать другие отдельные подразделения правительства по регулированию и взаимодействию с ИИ. Любому департаменту или агентству, стремящемуся регулировать ИИ, необходимо будет проконсультироваться с Экспертным органом. Затем Экспертный орган вынесет публичные рекомендации, на которые департамент или агентство должны будут реагировать при разработке регулирования ИИ. Эта система создаст общественную подотчетность для регулирующих органов, помогая ограничить распространение дублирующего регулирования и гарантируя, что регулирование останется разумным и в пределах аппетита правительства к риску.
Общегосударственный подход
Предупреждая, что нецентрализованная и нескоординированная модель сопряжена с рисками, ICA заявляет, что сектор финансовых услуг в настоящее время испытывает проблемы, возникающие из-за отсутствия координации в проведении политики в рамках правительства. Например, страховщики в настоящее время имеют перекрывающиеся конкретные и общие обязательства по обеспечению кибербезопасности между несколькими регулирующими органами, что на практике увеличивает сложность и затраты на соблюдение требований.
В ICA заявили: «Общегосударственный подход к регулированию ИИ не обязательно требует единого регулирующего органа, но он должен учитывать формальный механизм для обеспечения координации политических действий между регулирующими органами, который может предоставить Экспертный орган».
Начальные задачи
Совет также рекомендует две первоначальные задачи для Экспертного органа:
1. Помощь правительству в установлении аппетита к риску и разработке национального заявления о рисках или аналогичного. Заявление о национальном риске будет служить основой для рекомендаций Экспертного органа государственным ведомствам или агентствам. Это также помогло бы неправительственным организациям понять ожидания правительства в отношении их разработки и внедрения ИИ.
2. Изучение существующих правил и других реформ или стратегий (таких как пересмотр Закона о конфиденциальности и отраслевых кодексов), влияющих на разработку и внедрение ИИ, чтобы выявить пробелы и неопределенности и дать рекомендации правительству о том, как сделать эти правила более ясными и более эффективными для австралийцев.
Риск-ориентированный подход
Страховой совет также заявляет, что в принципе поддерживает риск-ориентированный подход к регулированию ИИ. В письме говорится: «При рассмотрении надлежащей нормативно-правовой базы для новых технологий, таких как ИИ, основное внимание следует уделять тому, может ли применение новых технологий привести к новым рискам или вреду, а также использовать или создавать пробелы в существующей нормативно-правовой базе. Также необходимо понимать какие риски или вред возможны при отсутствии какого-либо регулирования. В отсутствие такого подхода вполне вероятно, что регулирование, касающееся ИИ, будет дублировать или создавать несоответствия с существующими нормами защиты прав потребителей и другими нормами.
«Поэтому мы настоятельно рекомендуем оценивать выявленные риски, связанные с ИИ, в контексте существующей нормативно-правовой базы, и это также может способствовать выявлению текущих нормативных требований, которые могут получить пользу от руководства с точки зрения их применения к ИИ».
ICA призывает правительство уточнить охват существующих правил для выявления пробелов или устранения неопределенностей. «Мы также ожидаем, что потенциальные риски будут выявлены по мере разработки вариантов использования ИИ», — добавила ICA.
Источник аllinsurance.kz