Искусственный интеллект уже сейчас является отличным помощником человека, но не более.

Что нужно знать об искусственном интеллекте / коллаж УНИАН, фото neuronus.com, ua.depositphotos.com

Фото: neuronus.com, ua.depositphotos.com

Сегодня ИИ — это наша "новая лунная гонка". Пока компании наперебой инвестируют в технологии, работники готовятся к удару. Согласно недавнему исследованию Pew, американские работники больше беспокоятся о влиянии ИИ на их работу, чем надеются на него. Космическая наука, как и ядерная наука и любая другая технология, не имеет "собственной совести". Будет ли она служить добру или злу, зависит от человека, сообщает unian.net со ссылкой на Forbes.

По данным Всемирного экономического форума (WEF), две трети работодателей планируют нанимать сотрудников с навыками работы с ИИ, но 40% ожидают сокращения штатов из-за автоматизации. WEF прогнозирует, что в ближайшие пять лет исчезнут 90 миллионов рабочих мест по всему миру. Будет ли ИИ силой добра или зла, зависит, в первую очередь, от людей. Человечество должно оставаться главным в принятии решений, сохранять моральное превосходство и не позволять технологиям "заходить слишком далеко". А сделать это можно, только укрепляя человеческие навыки.

Критическое мышление - детектор "чуши"

Один учитель поставил перед собой единственную цель — не просто научить учеников фактам, а развить у них "детектор чуши". Он хотел, чтобы они задавали вопросы, анализировали, не соглашались с поверхностными ответами. Он воспитывал в них врожденный скептицизм и жажду истины.

Никогда прежде этот навык не был так необходим. ИИ создает информацию с невероятной быстротой — но без ссылок, логики или ответственности. Всемирный экономический форум назвал дезинформацию, сгенерированную ИИ, главным глобальным риском на ближайшие два года. Более того, исследование Microsoft и Carnegie Mellon показывает, что доверие к ИИ снижает наши собственные критические способности.

Этическое суждение

ИИ можно настроить на соответствие человеческим ценностям. Но это будет лишь вопросом программирования. У ИИ нет нейтральности — искусственный интеллект впитывает предвзятости, ошибки и неравенство, заложенные в данных, на которых обучается.

ИИ уже используется во вред: дипфейки, мошенничество, дезинформация. Но даже ИИ с благими намерениями может привести к катастрофическим последствиям. Единственная защита — этическое суждение человека, который может вмешаться, исправить и усомниться в решениях ИИ, прежде чем они станут необратимыми.

Эмпатия

ИИ все чаще используется для отбора кандидатов при найме, в HR-процессах и даже на низших уровнях управления. Последствия не всегда справедливы: автоматизация может усугубить социальное неравенство, когда богатые получают внимание людей, а бедные — только чат-ботов.

Чем больше мы автоматизируем процессы, тем выше риск утраты человечности. Ведь решения, влияющие на судьбы миллионов людей, все чаще принимает нечувствительный алгоритм, а не человек.

Новые технологии могут выйти из-под контроля, если мы не будем их сдерживать. Мы не должны соревноваться с ИИ. Мы должны вести его за собой.

Автор Богдан Фролов

Источник unian.net