Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Полиция алгоритмической мысли

Вскоре мы можем увидеть полицию алгоритмической мысли города Нью-Йорка: https://techcrunch.com/2017/12/12/new-york-city-moves-to-establish-algorithm-monitoring-task-force/ (This bill would require the creation of a task force that provides recommendations on how information on agency automated decision systems may be shared with the public and how agencies may address instances where people are harmed by agency automated decision systems -- http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0).

Там ключевое слово bias. Это когда машинным переводчиком из гендер-нейтральных языков "медсестра" переводится как "она" (но не "медбрат"), а вот "доктор" будет обязательно "он", а не "она" -- предписанная сегодня гендерная справедливость тут нарушается, а бездушному алгоритму не скажешь, что он сексистская свинья. Самое неудобное тут то, что алгоритм честно научился на человечьих примерах, а не придумал такие переводы сам. И это самый невинный пример, ибо более серьёзные примеры идут про всякие алгоритмы поиска преступников, которые сразу начинают подозревать афроамериканцев -- просто на основании статистики. Алгоритмы не должны так делать, хотя никто не знает, как сделать так, чтобы этих bias не было и в алгоритмы было встроено отсутствие всякой презумпции даже если это алгоритмы для помощи в презумпции!



Так что bias это ещё и тема для исследований в machine learning. Там каждый раз нужно теперь обсуждать: то ли bias из-за того, что плохо собирали данные, то ли и впрямь есть какие-то зависимости, то ли зависимости есть, но мы не имеем права их использовать для принятия решений.

Коммунизм можно было создать только с новыми людьми, у которых все буржуазные bias устранены. Хотели как-то таких людей воспитать по-быстрому. Насколько по-быстрому? Это просто продолжение истории про Моисея, который 40 лет водил свой народ по пустыне, чтобы выросло новое поколение, не знавшее рабства. Так сказать, избавлялись от культурных bias рабства, стереотипов рабского мышления. Теперь хотят воспитывать новые алгоритмы, которые должны воплощать в себе культуру нового человека из нового общества. Нужно не честное машинное обучение по текущему состоянию культуры, а предписанное идеологическими установками машинное обучение: и полиция проследит, чтобы машины думали как предписано, а не "как все". И отведёт на исправление ситуации не 40 лет, алгоритмы не нужно так долго водить по пустыне.

Ну что, людей не удаётся научить свободу любить, так научат алгоритмы -- пусть они любят свободу, предписанным методом. Полиция алгоритмической мысли за этим проследит.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10211833039715478
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 2 comments