Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Об людские права роботов

Я дал комментарии "Индикатору.ру" по поводу прав людей у роботов, часть появилась в материале "Я -- робот? Будут ли у роботов права людей", https://indicator.ru/article/2017/01/19/ya-robot/

Повод вспомнить про людские права роботов -- инициатива европарламентариев, ибо прошло голосование в комитете и странам предложено озаботиться этим вопросом -- http://www.europarl.europa.eu/news/en/news-room/20170110IPR57613/robots-legal-affairs-committee-calls-for-eu-wide-rules. Я писал в "интеллект не пахнет" (http://ailev.livejournal.com/1273830.html) про тамошнюю суть:
-- каждая достаточно развитая электронная личность должна быть поставлена на учёт (про нашивку на одежду пока ничего не говорится)
-- компании, их эксплуатирующие, тьфу, нанимающие, могли бы платить за них налоги и социальное страхование. Ибо социальная справедливость иначе страдает.
-- нужно лицензировать изготовителей роботов
-- нужно лицензировать пользователей роботов
-- ... много ещё интересного

Этот проект готовится Mady Delvaux (http://www.europarl.europa.eu/meps/en/124776/MADY_DELVAUX_activities.html), она член группы прогрессивного альянса социалистов и демократов в европарламенте. Кому, как не ей могла прийти мысль об освобождении нового рабочего класса? Признать личностью, зарегистрировать и обложить налогом во имя равенства!


Напомню, что я писал на затронутые темы ещё и в "информационные лица с ограниченной ответственностью" http://ailev.livejournal.com/1299601.html (и там по ссылкам есть ещё многочисленные другие материалы материалы, целая библиография).

Но тут прислали вопросы, и я написал ещё и то, что раньше не упоминал. Вот мои полные ответы на вопросы "Индикатора.ру", только помним, что "разум" у этих роботов появится не сегодня, но у ныне живущих людей уже все шансы оказаться в эпицентре грядущих разборок по поводу экспоненциально умнеющей нежити.

1. Следует ли наделять будущих роботов статусом "электронной личности"? Какие сложности могут возникнуть?
Вопрос про «электронную личность» для роботов сегодня стоит ровно так же, как раньше стоял про маленьких детей, женщин, рабов, а сегодня и животных. Наделение статусом личности – это прежде всего наделение правами личности, например, никто не может забрать жизнь личности, или забрать плоды труда личности. Сложности при этом возникают традиционные: большинство подобных дискуссий в обществе сопровождались разными революциями, а иногда и гражданскими войнами. Другое дело, что «будущие роботы» сегодня эфемерны, а для многих из них даже слово «робот» уходит из лексикона. Так, робот-пылесос становится просто пылесосом, робот-автомобиль становится просто автомобилем (и даже скоро слово «беспилотный» не нужно будет добавлять). Но ситуация может резко поменяться, если вы начнёте разговаривать с этими роботами, а сами роботы смогут учиться. А именно это и будет происходить в ближайшее десятилетие. Так что кроме комиссий по биоэтике ждём многочисленных комиссий по техноэтике, интеллект-этике и прочих запрещающих прогресс инстанций. Но прогресс не остановишь: что нельзя делать в одной стране, будут делать в другой.

2. Какие роботы находятся в зоне риска, т.е. могут потенциально нанести пользователю наибольший вред? В чем причины?
Все роботы находятся в зоне риска, как и все люди. Люди крайне опасны, в любой момент могут нанести вред – у них ведь есть мозги, чтобы сообразить про этот вред, и руки-ноги, чтобы реально навредить. Ничего, как-то человечество к этому привыкло. Так что с роботами ничего специфического, отличного от «находящихся в зоне риска» обычных людей, предложить не могу. Но это относится и к любым животным (даже собака кусает! Но люди держат собак дома! В квартирах с детьми!), и к любым техническим устройствам, не только к людям. В принципе, ванны тоже опасны. Статистика утонувших дома в ванне удручает (так гибнет людей больше, чем от терроризма!), а ведь ванны – это не люди и даже не роботы! Статистика, увы, политиков не останавливает. На борьбу с терроризмом, например, тратят огромные суммы. А число погибших в мире от терроризма сравнимо с числом утонувших дома в ванне – например, в США 464 человека утонули в ванной в 2013, а в 2014 от терроризма погибло всего 17 человек (https://www.nytimes.com/2016/03/24/opinion/terrorists-bathtubs-and-snakes.html?_r=0). «Что это ты там делаешь с этими миллиардами долларов и мощной поддержкой прессы? – Борюсь с драконами! – Так на улице ведь нет драконов? – Значит, эффективно борюсь!» Это политика, это «жареная информация» для СМИ. Вот и вы мне вопросы задаёте не про риски утонуть в ванне, а про риски получить вред от робота. Дальше можно удивляться не роботам, а людской психологии.

3. Пользователи роботов должны быть избавлены от риска или страха получить физические или психологические травмы, отмечается в отчете. О каких травмах может идти речь? И как обезопасить пользователя?
На сегодняшний день я бы не обсуждал ничего, выходящего за рамки обычной инженерии. Любые инженерные поделки сегодня должны быть безопасными – дома, корабли, самолёты, и к роботам это тоже относится. Роботы не должны сбивать людей, когда движутся. И автомобили не должны сбивать людей. Более того, люди тоже не должны сбивать людей! Что же касается риска и понимания «психологической травмы», то всё зависит от безумия законодателей. Почему-то от разной техники законодатели требуют совершенно разных уровней безопасности, и часто эти требования безумны. Не сомневаюсь, что роботов обяжут быть такими безопасными, что они будут в разы и разы безопасней даже водопроводного крана с горячей водой – и ровно поэтому будут стоить очень дорого, лишняя безопасность ведь крайне дорогая! А ещё полностью безопасный робот – это полностью неподвижный и изолированный от людей робот, то есть полностью бесполезный робот. Повторюсь: любая техника сегодня по факту является роботом, даже в телефоне есть способ сделать его опасным – скажем, персональный ассистент в нём может очень громко заорать в полной тишине, доведя вас до инфаркта от испуга (а содержание его высказывания нанесёт вам моральную травму, почему бы и нет?). Повторюсь: инженерно вопросы безопасности роботов не отличаются от вопросов безопасности любых других технических устройств, а если говорить о том, что роботы будут умней, чем любые другие технические устройства – так умней будут становиться буквально все технические устройства, а проблемы безопасности от умных устройств не будут отличаться от проблем безопасности с людьми.

4. С какими трудностями сталкиваются робототехники при проектировке роботов в разрезе взаимодействия пользователя и робота? Например, непредсказуемое для самоуправляемых автомобилей поведение пешеходов.
Робототехники сталкиваются с обычными трудностями, с которыми сталкиваются все инженеры: если какая-то часть машины быстро движется, то неплохо бы увести её от контакта с человеком – вовремя остановить, или поменять траекторию движения. Для этого неплохо бы дать машине глаза, чтобы распознать человека. Хорошо бы как-то предсказать поведение человека, находящегося рядом с роботом. Люди ведь такое могут! От пьяных, например, они отходят подальше. Робот тоже мог бы так делать. Человеку можно просигналить, обратив его внимание на опасность – современный робот может не просто просигналить, но и провести беседу на этот счёт. Основная инженерная трудность тут – это как собрать безопасную и надёжную систему из безопасных и надёжных элементов, спроектированных и изготовленных различными производителями. Робототехника должна быть модульной, чтобы быть дешёвой. Но модульные сложные конструкции не всегда сразу работоспособны после сборки, поэтому нужно как-то наладить продвинутую самодиагностику роботов. Это всё, впрочем, и так делается в инженерии, ничего специального на этот счёт предпринимать не нужно: каждое сложное устройство само себе испытательная лаборатория – современные устройства знают, когда они поломались, и сообщают пользователю, что их нужно чинить, а ремонтнику говорят что именно в них сломалось.

5. Кто должен нести юридическую ответственность в этих случаях? С какими потенциальными трудностями могут столкнуться юристы при разрешении спорных ситуаций, когда, например, робот нанес травму пользователю, самоуправляемая машина наехала на пешехода? Как в этом случае определить степень моральной травмы (например, в случае роботов-сиделок для пожилых людей)?
С юридической ответственностью, думаю, всё будет по-прежнему. Хотя не удивлюсь, если начнут вспоминать нормы римского права по отношению к рабам. Проблема в том, что юридическая ответственность сегодня базируется на страхе ответственного перед наказанием. Робот совершенно необязательно может чего-то бояться. Но и сумасшедший человек может не бояться наказания. Так что ответственность по факту будут налагать на тех, кто заведомо боится наказания – и от них требовать безопасного поведения вверенных им роботов. С рабами, «говорящими орудиями» (в отличие от «мычащих орудий» -- домашнего скота), понятно что получилось. Но процесс признания их прав занял тысячелетия. С роботами будет всё много быстрей, но не менее болезненно для общества. Общества, состоящего из людей, роботов и киборгов – гибридов из людей и роботов.
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 7 comments