Breaking News

Может ли робот вас убить? Разбираемся в вопросах и ответах.

Разве у ИИ вообще может быть этика? Он же — неживой! Конечно, сам по себе ИИ не может различать добро и зло. Задача человечества — не сделать ИИ похожим на человека, а научить его действовать исходя из принципов справедливости и морали, а вовсе не так, как обычно поступает большинство людей. Naked Science отвечает на популярные вопросы о том, кто и зачем формулирует этические принципы для ИИ, и где и как их применяют.

Изображение, сгенерированное нейросетью в ответ на вопрос «Любит ли ИИ людей?» / ©Naked Science
Изображение, сгенерированное нейросетью в ответ на вопрос «Любит ли ИИ людей?» / ©Naked Science
Этика — это же что-то из философии? О чём вообще речь?
Действительно, первоначально этика — это философская дисциплина о нормах поведения по отношению к другим людям, обществу, Богу и т.д., а впоследствии и о внутренних моральных категориях. Известна, например, такая этическая максима философа Иммануила Канта — категорический императив — «поступай так, чтобы ты всегда относился к человечеству и в своём лице, и в лице всякого другого как к цели, и никогда — как к средству».

Но этику можно понимать и гораздо проще — как систему моральных принципов, позволяющих каждому человеку различать добро и зло; понимать, что такое хорошо, а что такое плохо. Этика регулирует общежитие людей, сообществ, государств. Золотое правило этики — «не делай другим того, чего не желаешь себе».

И какое отношение этика имеет к технологиям?
Долгое время люди делили мир на животных — действующих исключительно «по природе», на основании инстинктов, и разумных людей, чьи поступки рациональны и опираются на этические принципы. Поэтому если кто-то их нарушает, то это либо плохой человек, недостойный жить в обществе, либо сумасшедший. Однако со временем люди стали делегировать часть своих действий машинам. Теперь машины совершали определенные деяния, но не располагая при этом ни мышлением, ни моральными директивами.

В наше время появился особый класс технологий, которые решают отдельные интеллектуальные задачи, ранее подвластные только человеку. Это так называемый слабый, узкий или прикладной искусственный интеллект. Он может играть в шахматы или водить машину. И если в первом случае ИИ вряд ли оказывает сильное воздействие на людей и общество, то во втором ему приходится решать множество этических дилемм.

Часть из них обобщены в рамках мысленного эксперимента «проблема вагонетки» — разнообразных ситуаций выбора, когда необходимо минимизировать жертвы. Так, алгоритм беспилотного автомобиля должен в критических условиях решить, как ему поступить — уехать в кювет и подвергнуть риску пассажира, либо двигаться дальше, создавая опасность для нарушителей дорожного движения.

Автопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla
Автопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla
Большинство моральных дилемм и принципов можно переформулировать в подобного рода задачи, а затем проверить их эмпирически или экспериментально. Это называется операционализацией этики.

Правильно ли я понимаю, что мы должны научить ИИ действовать как человек?
Увы, скорее, наоборот. Давайте в двух словах разберемся, из чего состоит любая система искусственного интеллекта. Во-первых, чтобы научиться решать какую-либо задачу, например, опознавать и классифицировать лица людей, ИИ требуются данные. Очень, очень много данных. Поэтому их ещё называют «большими данными».

Те же изображения лиц людей часто собирают с помощью ботов в интернете. Кроме самих картинок нужны и описания для них, которые обычно берутся из контекста размещения изображения. В итоге модель, при решении задачи классификации, чаще относит женщин к категории «домашний работник», нежели, например, «врач», следуя сексистским стереотипам, укорененным в общественных устоях некоторых стран. Так проявляется предвзятость на уровне данных, наследуемая ИИ напрямую от людей.

Следующий уровень — построение алгоритма и его обучение. Здесь тоже могут возникнуть предубеждения или искажения. Проблема в том, что обычно работа любого алгоритма для исследователя или инженера — это «чёрный ящик». Нам сложно объяснить, как модель приняла то или иное решение, сделала прогноз. Преодолеть проблему на данном уровне можно с помощью подхода «объяснимого искусственного интеллекта» (eXplainable Artificial Intelligence, XAI).

Наконец, есть предвзятость и на уровне интерпретации результата работы алгоритма. Здесь как раз важна роль людей. Предположим, мы обучаем модель на данных одной популяции, получаем необходимые прогнозы, но затем применяем её к совершенно другой популяции. В некотором смысле реализуя таким образом трансфер (перенос) машинного обучения. Но теперь полученный результат может значительно отличаться, это нужно учитывать и контролировать, что происходит, увы, не всегда.

Последний момент — применение ИИ в реальной жизни и отслеживание результатов этого. Если алгоритмы ущемляют права людей, то их необходимо скорректировать или прервать работу системы. Так, в одном из муниципалитетов Южной Голландии местные активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социального обеспечения, доказав искажения в его работе.

Так что корректнее будет сказать, что мы должны научить ИИ действовать исходя из принципов справедливости и морали, а не так, как обычно поступает большинство людей.

Для чего ещё нужна этика искусственного интеллекта?
В первую очередь для эффективного развития технологий ИИ. Любое изобретение, выйдя за пределы гаража создателя или лаборатории учёного, обычно тут же вызывает в обществе опасения и страхи. Возьмём автомобили. На заре автомобилестроения самоходные, медленные и громыхающие паромобили пугали на улицах лошадей, возчиков и пешеходов.

В двух странах — Великобритании и Германии — к проблеме подошли с радикально разным подходом. В Туманном Альбионе в 1865 году ввели «Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом днём или зажженным красным фонарём ночью и тем самым предупреждать о появлении нового «технологического монстра». А водителей должно было быть не меньше двух. Подобные ограничения привели к падению скорости паромобилей, неудобству их использования и полностью нивелировали и так незначительные на тот момент преимущества нового транспорта перед конным.

«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia
«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia
В Германии же поступили ровно наоборот, дав паромобилям свободно перемещаться, что стало стимулом к их интенсивному развитию и становлению известному сейчас на весь мир немецкого автопрома. Англичане же радикально отстали в развитии передового автомобильного транспорта. Осознание проблемы пришло к ним только к концу XIX века, когда в 1896 году разрушительный для индустрии закон был наконец отменён.

При этом универсальных кодифицированных международных правил дорожного движения не существовало до 1968 года, хотя первый конвейер по сборке автомобилей Генри Форд запустил ещё в 1913 году. К 1927 году на улицах и дорогах мира колесило только около 15 млн машин марки Ford Model T, не считая всех других автомобилей. Долгое время в городах не было светофоров (в США до 1914, в Европе до 1918 годов), разметки, регулировщиков, можно было водить в алкогольном опьянении и т.д. И лишь в конце 1960-х была заключена Венская конвенция о дорожном движении, стандартизировавшая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.

https://www.km.ru/stil/2022/10/14/900732-chto-takoe-pod-sistema-razbiraemsya-v-voprose

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *