Петербургский Университет ИТМО вошел в число участников, на днях подписавших первый в России кодекс этики искусственного интеллекта.
Как «бездушной машине» определить, чья жизнь важнее – пешехода, который вдруг выскочил на дорогу перед беспилотным автомобилем, или пассажира, сидящего на заднем сиденье? Нужно ли соблюдать права роботов? Можно ли компьютеры обучить моральным принципам? О том, какие этические вопросы сегодня волнуют создателей искусственного интеллекта, – «АиФ» рассказал кандидат физико-математических наук, доцент факультета информационных технологий и программирования, руководитель лаборатории машинного обучения ИТМО Андрей Фильченков.
Уже не фантастика
Ольга Сальникова, АиФ-Петербург: Знаменитый сериал «Черное зеркало» построен на этических проблемах, с которыми человечеству придется столкнуться при активном включении искусственного интеллекта (ИИ) в нашу повседневную жизнь. Есть ли в этой фантастике доля правды?
Андрей Фильченков: Есть, но для начала стоит пояснить, что существуют несколько степеней развития искусственного интеллекта. На данный момент человечество разработало и внедряет так называемый узкий (или слабый) искусственный интеллект, который может справляться лишь с конкретной задачей, не выходя за ее рамки. Так, например, нейронная сеть, распознающая человеческие лица, не в состоянии распознать жесты. Однако технологические возможности расширяются, и в будущем может появиться общий интеллект, который сможет решать задачи на уровне интеллекта человека или даже превосходя его (супер ИИ). При этом этические проблемы возникают уже сейчас, на стадии развития узкого ИИ. В частности, проблема неверного принятия решений. Как определить, чья жизнь важнее – пешехода, который вдруг выскочил на дорогу перед беспилотным автомобилем, или пассажира, сидящего на заднем сиденье? На какое решение должен быть запрограммирован ИИ, управляющий машиной? Ведь он не может действовать, исходя из каждой конкретной ситуации, как поступил бы обычный водитель.
Еще одна из актуальных сегодняшних проблем – возможность применения ИИ для неэтических целей. Стоит ли использовать данные с камер, установленных в общественных местах, для отслеживания перемещения граждан – большой вопрос. И, например, в Евросоюзе думают запретить использовать искусственный интеллект для идентификации лиц. Проблемы будут нарастать, как снежный ком, с дальнейшим развитием ИИ и его масштабным применением. Возможно, некоторые из них начнут приобретать уродливые формы.
– Станет ли одной из них массовая безработица и, как следствие, нехватка денег даже на еду?
– Проблема замещения людей машинами – одна из самых актуальных. Удастся ли ее решить – сказать сложно, так как здесь входят в противоречие явная экономическая выгода и определенные социальные механизмы, нарушение работы которых также может привести к социальной катастрофе. Классическая «мантра» о том, что бояться не стоит, так как технологический прорыв создаст еще больше вакансий, верна лишь отчасти. Это поможет не всем и не сразу. Например, людей, которые всю жизнь работали руками на заводе, быстро переучить в квалифицированных инженеров вряд ли получится. Сейчас оценить все последствия массового применения невозможно. Продумать все заранее и исключить любую дискриминацию – идея хорошая, масштабная, но малореализуемая. Скорее всего, если проблема будет носить массовый характер, пострадавшая сторона все же сможет себя защитить.
Права железного человека
– Тем не менее недавно Университет ИТМО подписал кодекс этики искусственного интеллекта. Как это будет работать?
– Кодекс был разработан по инициативе государства и подписан ведущими российскими компаниями, а также вузами, занимающимися разработкой ИИ, – в том числе и в Петербурге. Документ носит рекомендательный характер и выделяет этические ориентиры, которым стоит следовать, снижая потенциальный вред от применения искусственного интеллекта для человека, общества и экологии. Хотя понятие «вред человеку» нам еще предстоит конкретизировать. Простой пример, один из множества: постоянное использование GPS в мобильном телефоне значительно уменьшает навигационные способности человека, а возможность что-то подсмотреть в интернете – память. Можно ли считать это вредом? А ведь дальше технологии будут замещать еще больше наших функций.
– Сегодня также говорят и о правах самих роботов. Многие задаются вопросом, зачем защищать «бездушные машины»? Мы же не заботимся о том, что «чувствуют» пылесосы и чайники…
– Это интересный вопрос. Сначала о том, откуда возникает идея дать кому-то права. Дело в том, что мы переносим свои качества на другие субъекты: людей, представителей иных биологических видов и даже вещи. Занимаясь такой персонификацией, мы начинаем испытывать к ним эмпатию и желаем, чтобы существовал механизм, позволяющий минимизировать их страдания. Именно поэтому в большинстве цивилизованных стран уже принят закон, запрещающий жестокое обращение с животными. Я знаю людей, которые персонифицируют роботов. Например, включают свет, когда работает робот-пылесос, чтобы ему было удобно, как и им самим, когда они занимаются уборкой. Просто пытаются поставить себя на его место.
С функциональной точки зрения в этом никакого смысла нет, но это обеспечивает комфорт самому человеку. Поэтому вполне возможно, что и роботам дадут права. Просто для того, чтобы люди, испытывающие к ним эмпатию, чувствовали себя лучше. Но надо понимать, что это работает на обслуживание не роботов, а людей. На данный момент сами машины не обладают чувствами, возможно, этого удастся достичь при развитии общего искусственного интеллекта. Хотя я уверен, что нет.
Загнать чувства в формулу
– Насколько этические вопросы мешают развитию ИИ и вообще внедрению новых технологий? В этом году исполнилось 25 лет со дня клонирования овечки Долли. После того как животное появилось на свет, ученые говорили о том, что до клонирования человека осталось 10 лет, но в итоге все исследования запретили по этическим причинам.
– В сфере развития слабого ИИ долгое время вопросы этики вообще не поднимались – все были заняты погоней за цифрами и точностью. Сейчас этика стала не менее важна, чем математика. Но больше разработчиков сковывают все же юридические моменты, которые тесно связаны с этическими. Например, надо решить, на ком будет лежать ответственность за принятие решения, если беспилотный автомобиль сбил человека, а во время операции робота-хирурга погиб пациент. На создателе ИИ, пользователе или, может быть, страховой компании? Алгоритм, принимающий решения, – очень сложный концепт, который нужно долго и мучительно вписывать в существующую систему права. На данный момент это серое пятно. И в большинстве стран предпочитают сначала придумать, как такие ситуации должны юридически регулироваться, а затем уже внедрять технологии, что значительно тормозит их развитие.
– Можно ли обучить искусственный интеллект каким-то моральным правилам и принципам на стадии создания?
– Конечно, если мы ему зададим непротиворечивую систему однозначно трактуемых правил, которые он должен соблюдать. Например, не переходить дорогу на красный свет, не передвигаться на транспортном средстве по тротуару и т. п. Однако никакая моральная система этим критериям не подчиняется. У нас нет никакого четкого морального кодекса, который можно «загнать» в формулу, – мы действуем, исходя из личного опыта, ситуации, нередко даже нарушая какие-то нормы. Сложно представить, что мы вдруг соберемся и быстренько найдем ответ на этот вопрос для роботов.
Языком цифр
По данным ВЦИОМ, 48% россиян доверяют искусственному интеллекту.
Это интересно
В этом году канадец Джошуа Барбо «воссоздал» погибшую невесту с помощью искусственного интеллекта. Для этого программа сначала изучает электронные письма человека, чаты в мессенджерах, всевозможные посты и даже привычки, а затем имитирует стиль общения в чат-боте. Подобная технология была описана в сериале «Черное зеркало» еще в 2013 году. Однако там героиня пошла еще дальше и заказала себе робота – копию погибшего возлюбленного.