Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Categories:

Этика из будущего: сначала военная, затем и гражданская

Что-то много всего забавного случается в последние дни в военной сфере -- oetar, похоже, прав в своих ожиданиях быстрых социальных изменений по мере изменений в оружии. На одной неделе в космосе столкнулись спутники, под водой столкнулись подводные лодки. Ничтожная вероятность встречи спутников разных стран и подводных лодок разных стран мне не кажется чудом. Пространство очень и очень неравномерно устроено, это ни для кого не секрет. Настоящее чудо, что мы про такое вообще узнали -- лет десять назад это бы прошло в полной тайне, а теперь выплеснулось на первые страницы газет. Интересно, что бы еще такого могло на днях столкнуться? Пара военных самолетов? Авианосец с проходящим мимо танкером?

Мне крайне не нравится развитие этих военных технологий (которое привело к тому, что в горячих точках "на заднем дворе" стоят уже не пулеметы, а ракеты, хотя и примитивные). Но процесс только-только набирает обороты. На этой неделе выплыл отчет про этику военных роботов, сделанный в декабре 2008г. исследователями из Ethics & Emerging Technologies Group калифорнийского политехнического университета (CalPoly) по заказу военных моряков: "Autonomous Military Robotics: Risk, Ethics, and Design" (http://ethics.calpoly.edu/ONR_report.pdf).

Неудивительно, конечно, что об этике роботостроительства по-серьезному заговорили именно для военных, хотя японские роботы для помощи больным и старым не меньше нуждаются в подобного сорта размышлизмах. Тем не менее, лед тронулся: сказки из будущего начинают потихоньку оплачиваться и попадать в мейнстрим.

Единственная надежда, что тиражи японских роботов-парамедиков (не путайте с парамедициной) будут такими большими, а скорость развития коммерческих моделей настолько большой, что военные роботы будут далеко от них отставать и по надежности, и по стоимости. Но, увы, не по вооруженности. И, скорее всего, не по уму -- именно этого боятся исследователи сингулярности, которые ожидают от военных исследований искусственного интеллекта всего самого плохого (и правильно делают). Но тут трудно гадать, ибо военные технологии рано или поздно оказываются на гражданке, и аналогичные проблемы в любом случае возникнут и там. Авторы отчета пишут прямо в предисловии: "Our goal is to raise the issues that need to be consider in responsibly introducing advanced technologies into the battlefield and, eventually, into society.

Мне кажется, что глубоко понять про право, мораль и этику для людей можно, только начав разбираться с ними в варианте для машин. В любом случае, лет через пять обсуждение того, является ли разумное вещество разумным существом, будет уже мейнстримом. И эти следующие пять лет будут совсем не скучными.
Preface 

1. Introduction 
1.1. Opening Remarks 
1.2. Definitions 
1.3. Market Forces & Considerations 
1.4. Report Overview 

2. Military Robotics 
2.1. Ground Robots 
2.2. Aerial Robots 
2.3. Marine Robots 
2.4. Space Robots 
2.5. Immobile/Fixed Robots 
2.6. Robots Software Issues 
2.7. Ethical Implications: A Preview 
2.8. Future Scenarios 
 
3. Programming Morality 
3.1. From Operational to Functional Morality 
3.2. Overview: Top‐Down and Bottom‐Up Approaches 
3.3. Top‐Down Approaches 
3.4. Bottom‐Up Approaches 
3.5. Supra‐Rational Faculties 
3.6. Hybrid Systems 
3.7. First Conclusions: How Best to Program Ethical Robots

4. The Laws of War and Rules of Engagement 
4.1. Coercion and the LOW 
4.2. Just‐War Theory and the LOW 
4.3. Just‐War Theory: Jus ad Bellum 
4.4. Just‐War Theory: Jus in Bello 
4.5. Rules of Engagement and the Laws of War 
4.6. Just‐War Theory: Jus post Bellum 
4.7. First Conclusions: Relevance to Robots 

5. Law and Responsibility 
5.1. Robots as Legal Quasi‐Agents 
5.2. Agents, Quasi‐Agents, and Diminished Responsibility 
5.3. Crime, Punishment, and Personhood 

6. Technology Risk Assessment Framework 
6.1. Acceptable‐Risk Factor: Consent 
6.2. Acceptable‐Risk Factor: Informed Consent 
6.3. Acceptable‐Risk Factor: The Affected Population 
6.4. Acceptable‐Risk Factor: Seriousness and Probability 
6.5. Acceptable‐Risk Factor: Who Determines Acceptable Risk? 
6.6. Other Risks 

7. Robot Ethics: The Issues 
7.1. Legal Challenges 
7.2. Just‐War Challenges 
7.3. Technical Challenges 
7.4. Human‐Robot Challenges 
7.5. Societal Challenges 
7.6. Other and Future Challenges 
7.7. Further and Related Investigations Neede

8. Conclusions 

9. References 

A. Appendix: Definitions 
A.1 Robot 
A.2 Autonomy 
A.3 Ethics 

B. Appendix: Contacts 
Subscribe

  • lytdybr

    Очередной разбор: ювелирка, банкротство, ЦОД, договорка купли-продажи. Ещё супервизия в одной из корпоративных групп, там разговаривали про сервисы и…

  • lytdybr

    Опубликовал новую версию руководства по системному мышлению (…

  • lytdybr

    Потихоньку переписываю руководство по системному мышлению для инженеров-менеджеров. В обязательствах добавилось кроме подробностей про квалификации и…

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 11 comments

  • lytdybr

    Очередной разбор: ювелирка, банкротство, ЦОД, договорка купли-продажи. Ещё супервизия в одной из корпоративных групп, там разговаривали про сервисы и…

  • lytdybr

    Опубликовал новую версию руководства по системному мышлению (…

  • lytdybr

    Потихоньку переписываю руководство по системному мышлению для инженеров-менеджеров. В обязательствах добавилось кроме подробностей про квалификации и…