Мне крайне не нравится развитие этих военных технологий (которое привело к тому, что в горячих точках "на заднем дворе" стоят уже не пулеметы, а ракеты, хотя и примитивные). Но процесс только-только набирает обороты. На этой неделе выплыл отчет про этику военных роботов, сделанный в декабре 2008г. исследователями из Ethics & Emerging Technologies Group калифорнийского политехнического университета (CalPoly) по заказу военных моряков: "Autonomous Military Robotics: Risk, Ethics, and Design" (http://ethics.calpoly.edu/ONR_report.pdf).
Неудивительно, конечно, что об этике роботостроительства по-серьезному заговорили именно для военных, хотя японские роботы для помощи больным и старым не меньше нуждаются в подобного сорта размышлизмах. Тем не менее, лед тронулся: сказки из будущего начинают потихоньку оплачиваться и попадать в мейнстрим.
Единственная надежда, что тиражи японских роботов-парамедиков (не путайте с парамедициной) будут такими большими, а скорость развития коммерческих моделей настолько большой, что военные роботы будут далеко от них отставать и по надежности, и по стоимости. Но, увы, не по вооруженности. И, скорее всего, не по уму -- именно этого боятся исследователи сингулярности, которые ожидают от военных исследований искусственного интеллекта всего самого плохого (и правильно делают). Но тут трудно гадать, ибо военные технологии рано или поздно оказываются на гражданке, и аналогичные проблемы в любом случае возникнут и там. Авторы отчета пишут прямо в предисловии: "Our goal is to raise the issues that need to be consider in responsibly introducing advanced technologies into the battlefield and, eventually, into society.
Мне кажется, что глубоко понять про право, мораль и этику для людей можно, только начав разбираться с ними в варианте для машин. В любом случае, лет через пять обсуждение того, является ли разумное вещество разумным существом, будет уже мейнстримом. И эти следующие пять лет будут совсем не скучными.
Preface
1. Introduction
1.1. Opening Remarks
1.2. Definitions
1.3. Market Forces & Considerations
1.4. Report Overview
2. Military Robotics
2.1. Ground Robots
2.2. Aerial Robots
2.3. Marine Robots
2.4. Space Robots
2.5. Immobile/Fixed Robots
2.6. Robots Software Issues
2.7. Ethical Implications: A Preview
2.8. Future Scenarios
3. Programming Morality
3.1. From Operational to Functional Morality
3.2. Overview: Top‐Down and Bottom‐Up Approaches
3.3. Top‐Down Approaches
3.4. Bottom‐Up Approaches
3.5. Supra‐Rational Faculties
3.6. Hybrid Systems
3.7. First Conclusions: How Best to Program Ethical Robots
4. The Laws of War and Rules of Engagement
4.1. Coercion and the LOW
4.2. Just‐War Theory and the LOW
4.3. Just‐War Theory: Jus ad Bellum
4.4. Just‐War Theory: Jus in Bello
4.5. Rules of Engagement and the Laws of War
4.6. Just‐War Theory: Jus post Bellum
4.7. First Conclusions: Relevance to Robots
5. Law and Responsibility
5.1. Robots as Legal Quasi‐Agents
5.2. Agents, Quasi‐Agents, and Diminished Responsibility
5.3. Crime, Punishment, and Personhood
6. Technology Risk Assessment Framework
6.1. Acceptable‐Risk Factor: Consent
6.2. Acceptable‐Risk Factor: Informed Consent
6.3. Acceptable‐Risk Factor: The Affected Population
6.4. Acceptable‐Risk Factor: Seriousness and Probability
6.5. Acceptable‐Risk Factor: Who Determines Acceptable Risk?
6.6. Other Risks
7. Robot Ethics: The Issues
7.1. Legal Challenges
7.2. Just‐War Challenges
7.3. Technical Challenges
7.4. Human‐Robot Challenges
7.5. Societal Challenges
7.6. Other and Future Challenges
7.7. Further and Related Investigations Needed
8. Conclusions
9. References
A. Appendix: Definitions
A.1 Robot
A.2 Autonomy
A.3 Ethics
B. Appendix: Contacts