Спецсеминар А. Г. Дьяконова
(тема была выбрана 29.11.21)
Планируется провести обзор существующих методов и программного обеспечения, их сравнение, провести сопутствующие эксперименты, возможно рассмотреть оптимизацию гиперпараметров в приложении к AutoML.
29.11.21
Для первоначального ознакомления с темой были выбраны следующие статьи и литература:
https://www.automl.org/wp-content/uploads/2019/05/AutoML_Book_Chapter1.pdf
https://proceedings.neurips.cc/paper/2012/file/05311655a15b75fab86956663e1819cd-Paper.pdf
https://arxiv.org/pdf/2111.00513.pdf
https://proceedings.neurips.cc/paper/2011/file/86e8f7ab32cfd12577bc2619bc635690-Paper.pdf
https://arxiv.org/pdf/1502.02127.pdf
https://jmlr.org/papers/volume13/bergstra12a/bergstra12a.pdf
Нужно тщательнее изучить байесовскую оптимизацию и сопутствующую теорию, посмотреть другие источники.
05.12.21
Из пакетов было решено рассмотреть hyperopt, scikit-optimize, optuna, scikit-learn (стандартный GridSearch). Возможно в планах ознакомиться с H2O AutoML и bayesopt.
Первоначально планируется провести эксперименты для поиска по сетке, случайного поиска и байесовской оптимизации. Сравниваться будет итоговое качество лучшей модели, время работы, число итераций (+учет особенностей реализации?)
Нужно выбрать датасет и детально спланировать эксперименты, набор рассматриваемых моделей. Возможно попробовать различные типы данных (таблицы, текст).
12.12.21
Интересной показалась идея применения эволюционных алгоритмов, стоит почитать на эту тему
https://arxiv.org/pdf/2011.04434.pdf
Также в планах почитать про AutoML
13.12.21
Узнал про Google Vizier, нужно будет ознакомиться
22.12.21
Доклад на спецсеминаре по статье "Generalized Anomaly Detection": https://arxiv.org/pdf/2110.15108.pdf
29.04.22
За прошедшее время также были изучены следующие статьи и ресурсы:
https://www.cs.ubc.ca/~hutter/papers/ICML14-HyperparameterAssessment.pdf
https://ai.stanford.edu/~ronnyk/c45ap.pdf
https://docs.aws.amazon.com/sagemaker/latest/dg/automatic-model-tuning.html
https://pages.cs.wisc.edu/~gangluo/automatic_selection_review.pdf
https://proceedings.neurips.cc/paper/2015/file/11d0e6287202fced83f79975ec59a3a6-Paper.pdf
https://www.cs.ubc.ca/~hutter/papers/10-TR-SMAC.pdf
https://arxiv.org/pdf/1604.00772.pdf
https://conference.scipy.org/proceedings/scipy2013/pdfs/bergstra_hyperopt.pdf
http://laboratorios.fi.uba.ar/lsi/RCSJ-27-15-24.pdf
https://www.cs.tufts.edu/comp/150GA/homeworks/hw3/_reading6%201995%20particle%20swarming.pdf
https://arxiv.org/pdf/1907.10902.pdf
В теоретической части работы рассматриваются следующие алгоритмы и темы:
- Общая постановка задачи, особенности, задание конфигурационного пространства
- Поиск по сетке значений гиперпараметров
- Случайный поиск и некоторые модификации
- CMA-ES
- TPE
- Генетический алгоритм
- Particle Swarm Optimization
- SMAC
- Байесовская оптимизация
Эксперименты проводятся на табличных данных (датасеты Breast Cancer Wisconsin и California Housing Prices) и изображениях (CIFAR-10, MNIST). Рассматриваются задачи классификации и регрессии.
Оптимизируемые модели:
- SVM с RBF-ядром, оптимизируемые гиперпараметры: коэффициент регуляризации C и параметр ядра
$\gamma$ - CatBoostClassifier и CatBoostRegresion, оптимизируемые гиперпараметры: число деревьев, темп обучения, максимальная глубина, коэффициент регуляризации функции потерь
- Сверточные сети, оптимизируемые гиперпараметры: выбор функции активации, выбор оптимизатора, темп обучения
Применяемые алгоритмы оптимизации гиперпараметров:
- Поиск по сетке
- Случайный поиск
- TPE
- CMA-ES
- Байесовская оптимизация
Основные пакеты - optuna и scikit optimize. На табличных данных рассматриваются SVM и градиентный бустинг, на изображениях - сверточные сети. Исследуются время работы, результирующее качество.
05.05.22
Выложена текущая версия работы с кодом и графиками экспериментов. Изучение основных и дополнительных статей в целом завершено, в планах отредактировать и дополнить разделы про случайный поиск и байесовскую оптимизацию, добавить в отчет эксперименты для многослойного персептрона на MNIST, исправить общие недочеты и оформление.
20.05.22
Выложена итоговая версия работы с необходимыми дополнениями и исправлениями.