Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Categories:

Пандора.ком

Прошёл год, я повторил оплату за Pandora.com -- $36 в год не такая большая цена за удовольствие слушать на 192Kbps. По-прежнему пользуюсь http://anchorfree.com/, ибо по-прежнему Adblock Plus режет его рекламу в FireFox.

Pandora.com только хорошеет: если раньше было еще заметны повторы треков, то сейчас повторов почти нет -- а когда они случаются, то к месту.

Осознал, что в этом году из своей необъятной коллекции сидишек практически ничего не слушал. Файловая коллекция тоже почему-то не была востребована, хотя притрагивался, да. Такое впечатление, что Youtube.com и даже music.yandex.ru и то больше пользовались.

Надо диски выносить, хоть и жалко. Сегодня вот обнаружил и выкинул кучу дисков "Библиотека в кармане" (было такое развлечение десяток лет назад -- сидишки с несколькими тысячами книжек. Сегодня этой радости уже никто и не помнит). Вот и "фонотека на полке" стала таким же анахронизмом -- а еще десять лет назад казалась крутейшим прорывом человеческого интеллекта (для меня, который с детства знал, что в библиотеку даже не ходят, в библиотеке пропадают сутками ввиду невозможности выноса нужных книг из читального зала).

Чудесато живём, и уже привыкли к этому.

Когда я слушаю именно Пандору, я думаю о двух подходах к семантике: один по линии "семантики языков программирования", а второй -- "семейного сходства" по Витгенштейну, теории прототипов и разных семантических моделек из лингвистики (http://en.wikipedia.org/wiki/Semantics). И жестоко страдаю, что двигаюсь сейчас со своими "онтологиями" только по линии классической логики, игнорируя "аналогии" и прочие когнитивные архитектуры. Но нельзя объять необъятного. Поэтому будут слушать Пандору дальше -- и пусть она напоминает мне, что на логике и логическом выводе свет клином не сошелся. Ассоциации и связанные с ними "гениальные находки" и "настоящая поэзия", распознавание образов (смежное с семантической унификацией -- http://en.wikipedia.org/wiki/Semantic_unification) и многофакторный анализ (смежный с таксономиями) тоже важны. Но эта языковая сфера не менее трудна, чем логическая (где, конечно, тоже хватает своих тараканов). Давид Ян на московском TEDx в прошлом году обещал мне, что в 2010 обязательно выйдет "прорывный лингвистический продукт ABBYY", но этого так и не случилось. Но случится, не в этом году, так в следующем (хотя этот перенос года выпуска происходит уже несколько лет подряд -- вот, например, статья про этот NLC 2006г.: http://offline.computerra.ru/2006/654/287107/, а разработка ведется вообще с 1995г.).

Пока же довольствуемся результатами проекта "музыкальный геном" от пандоры.ком.
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 10 comments
> По-прежнему пользуюсь http://anchorfree.com/

И как она? По-прежнему работает? У них что, ничего, кроме рекламы, нет? Ну какие-то ограничения по объёму/скорости у них должны быть, иначе количество халявщиков давно бы убило этот сервис. На сайте ограничений не нашёл.
У меня единственный тест: можно ли на этом сервисе слушать Пандору со 192Кбит/сек. Ответ экспериментальный: можно.

Как часто рвётся канал? Ответ: часов через шесть музыки (скорее всего, по объему прокачанного. Или по времени. Даже не задумывался о причинах, воспринимаю как данность).

Есть ли какие-то дополнительные эффекты, кроме вылезания рекламы? Ответ: может и есть, но я этих эффектов не заметил.

Особенности? Ответ: когда канал оборвался со стартованной программой, то просто перезапуска программы недостаточно. Нужно еще перезапустить браузер (иначе в нём залипает почему-то родной ip, и пандора не перезапускается -- извиняется, что не в той стране оказалась). Но если корректно стопнуть программу самому, то браузер перезапускать не нужно (но нужно не забыть при этом поставить плеер пандоры на паузу, чтобы она не обратилась к отечественному айпишнику).
Большое спасибо!
Да, я ее тоже люблю. Жаль только, что за пределами Америки оно не работает
Я за пределами Америки, и у меня работает. Поглядите внимательно на текст постинга, я написал, что нужно делать.
Могу забиться, что не выйдет и через 3 года. Общался с ним на днях, мне кажется, подход устарел. Весь "искуственный интеллект" в прошлом провалился из-за ручного программирование правил - так и тут, бесполезно вкладывать синтаксис, грамматику и семантику в лингвистические продукты, по крайней мере ставить только на это - 5-летние дети прекрасно говорят, не зная никаких правил и основной метод в таких продуктах должен основываться на ассоциативном подходе
И да, и нет: у пятилетних детей некоторый объем программирования правил уже выполнен (в отличие от, например, пятилетних собак -- у них соответствующая часть программирования не была выполнена).

Дополнительно, есть разные технологии обучения детей: бесхозные детки не так хорошо знают язык, как специально обучаемые -- это ведь тоже программирование!

Софт многоуровневый, и несколько базовых слоёв правил приходится программировать "вручную", и только потом уповать на обучение от среды.

Я не знаю той когнитивной/языковой архитектуры, которой придерживался/придерживается Давид Янг сотоварищи. Но есть некоторый вариант, что он сможет использовать уже наработанное для "автоматизации получения эвристик" (мне больше нравится тут говорить про мягкие эвристики, чем про жесткие правила). Я тут питаюсь только слухами и надеждами.

Я недавно где-то уже написал, что минимально требуется две разные стратегии разборки со знанием: "жесткая логика" и "смысловые расстояния/фамильное сходство". Я, увы, сейчас плотно сижу в подходе "жесткая логика" от программистов, поэтому и стремлюсь выскочить куда-нибудь к лингвистам.

Люди из CYC указывают, что по факту нужно иметь множество вычислителей, а не только "логический" и "ассоциативный". Я бы с этим тоже согласился, но пока иметь бы хотя бы пару.
Боюсь, что в данном случае проблема как раз в том, что годами програмиируются вручную эти самые "базовые слои" и практически ничего реального не делается для "обучения от среды".
Насчет того, что по факту нужно иметь множество вычислителей - абсолютно согласен, могу назвать некоторые из таких вычислителей - "ментальный", "эмоциональный", "онтологический" и т.п., подключение каждого из них изменит выдаваемый лингвистическим продуктом результат - ну, например, текст перевода с одного языка на другой одно и того же текста будет разным, т.е. развитие этих средств привнесет в лингвистический софт индивидуальность, "душу" переводчика, если хотите. И "логический" вычислитель, возможно, должен стоять в этом ряду средств едва ли не последним. А его ставят первым - и не получают результатов.
Статистические методы перевода бурно развиваются. Переводчик Гугля как раз работает с автоматически нарабатываемой статистикой -- и толку мало, результат такой же нечитабельный, как и в логических переводчиках.

Простые решения "одного метода" не срабатывают. Требуется множество методов, и какой-то метод управления разнообразием методов для конкретных ситуаций...
Насчет любых статистических методов у меня мнение сформировалось много лет назад - грубо говоря, если не придумал ничего хорошего, а делать надо, привлекаешь статистику. 95% кандидатских диссертаций оперируют статметодами, подгоняя выборку под нужный результат. Как только слышу про статметоды, сразу сами собой произносятся слова: "Не верю" :)