26761

Автор(ы): 

Автор(ов): 

1

Параметры публикации

Тип публикации: 

Статья в журнале/сборнике

Название: 

An Information Theoretic Approach to Constructing Machine Learning Criteria

Электронная публикация: 

Да

ISBN/ISSN: 

1474-6670

Наименование источника: 

  • IFAC-PapersOnLine

Обозначение и номер тома: 

Т. 1, вып. 1

Город: 

  • Лаксенбург

Издательство: 

  • International Federation of Automatic Control

Год издания: 

2013

Страницы: 

269-274 http://www.ifac-papersonline.net/Adaptation_and_Learning_in_Control_and_Signal_Processing/11th_IFAC_International_Workshop_on_Adaptation_and_Learning_in_Control_and_Signal_Processing__2013/index.html
Аннотация
Рассмотрен подход к построению теоретико-информационных критериев машинного обучения. В работе строится континуальное множество теоретико-информационных критериев, в основе которых лежит понятие энтропии Реньи порядка a, не равного единице. При стремлении порядка энтропии Реньи к единице, последняя переходит в энтропию Шеннона, которая может рассматриваться как предельный случай энтропии Реньи при стремлении порядка к единице. Применение энтропии Реньи имеет определенные преимущества по сравнению с энтропией Шеннона, поскольку выражение для энтропии Реньи включает в себя «логарифм от интеграла», что существенно удобнее в вычислительном плане, особенно при построении оценок на основе выборочных данных, в том числе в условиях зависимых наблюдений, чем в случае выражения для энтропии Шеннона, включающего «интеграл от логарифма». Исходя из условий, эквивалентных разложению взаимной информации Шеннона на сумму и разность соответствующих маргинальных и взаимной энтропии Шеннона, построено выражение, определяющее взаимную информацию по Реньи порядка a. При этом известное в литературе выражение для дивергенции Коши-Шварца является частным случаем построенного выражения для взаимной информации по Реньи при условии a=2. В свою очередь, критерием обучения выступает максимимзация построенной взаимной информации по Реньи порядка a между выходом объекта и выходом модели. Далее используются соответствующие ядерные методы оценивания энтропии Реньи по выборочным данным, что приводит, в конечном итоге, к задаче конечномерной оптимизации.

Библиографическая ссылка: 

Чернышев К.Р. An Information Theoretic Approach to Constructing Machine Learning Criteria // IFAC-PapersOnLine. 2013. Т. 1, вып. 1. С. 269-274 http://www.ifac-papersonline.net/Adaptation_and_Learning_in_Control_and_Signal_Processing/11th_IFAC_International_Workshop_on_Adaptation_and_Learning_in_Control_and_Signal_Processing__2013/index.html.