Разрабатываемые системы все еще имеют множество недостатков, а их несовершенная система классификации пользовательских данных может способствовать усилению дискриминации по этническому признаку.

 В России создали платформу для самопроверки медицинских сервисов  искусственного интеллекта

Системы на основе технологии искусственного интеллекта, которые представляют потенциальную угрозу правам человека, следует запретить или временно ограничить. Так считает Комиссар ООН по правам человека Мишель Бачелет. При этом мораторий необходимо соблюдать до тех пор, пока правительства стран не выработают четкий механизм соблюдений прав и контроля над использованием данных технологий.

В ходе своего выступления Бачелет заявила, что ИИ-алгоритмы способны решать множество сложных социальных, экономических и производственных задач. Однако оборотной стороной их повсеместного внедрения является растущая угроза, так как в руках злоумышленников такие системы «могут иметь негативные и даже катастрофические последствия».

Совет ООН обнародовал результаты недавнего исследования, в котором специалисты обращают особое внимание на ИИ-сервисы, выполняющие функции профилирования, автоматизированного принятия решений и предназначенных для машинного обучения. По их мнению, именно в этих трех сферах кроется наиболее разрушительный с точки зрения защиты гражданских прав и свобод потенциал ИИ-технологий.

В отчете также говорится, что сервисы на базе искусственного интеллекта, собирая пользовательские данные, как правило, классифицируют людей по расовым и этническим признакам. При этом не одиноки случаи, когда такие сервисы в принятии решения опирались на по-прежнему распространенные в обществе предубеждения относительно людей другой национальности. Тем не менее Мишель Бачелет не призывала к полному запрету технологии распознавания лиц.

Источник  psm7.com