-
Notifications
You must be signed in to change notification settings - Fork 0
/
content_detailed.tex
367 lines (220 loc) · 23.2 KB
/
content_detailed.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
\chapter*{Основний зміст роботи}
%1. что такое автомат. скрининг
%2. как привязаны изображения
%3. особенности планарных изображений
%4. классические и нейросетевые
%5. классические огр. сложными поверхностями
%6. нейросетевые огр. наборами данных
%7. чтобы решить предлагается метож многоз. обуч
% 8. протириччя
%
% существует ряд интелектуальных систем задача которых интеллектуальная диагностика
% скрининг - обнарпужение аномалий
% основа скрининга сегментация и классифкация изображений
%
% методы машинного обучения требу.т большого количества данных для обучения
% в условиях ограничения количества даннх сложно делать мл, это ограничивает
% что такое "достаточно"
% особенность отсутствие больших обучающтих наборов
% это приводит к тому что глибоке навчання не может быть использовано
% привести примеры
% разнообразие патологий
% 1. неструктурированостьь патологий
% 2. отсутствие большого количества примеров
% 3. маленький процент среди здоровой популяции
% 4. сложность обобщения для различных патологий
% 5. задача скринига - поиск аномалий
% 6. описать подход поиска анамалий
%.7. локализация необычного процесса
% 8. для локализации используется семантическая сегментация
% 9. локализация!!!
% системы скрининга что зачем где?
% определение скрининга
% локализация
% незструктурированые данные, маленькие выборки
% сегодня решается либо классическими методами, которые требуют доменных знаний
% нейросетевые требуют много данных и точной разметки
% противоречие нейросети лучше, но требуют данных
% показанео, что нейронки лучше, но их нельзя использовать для прода, потому что проблемы с данными, мы решаем это противорречие
% сегодня задача анализа изображений исполщуется в разных областях, ...,
У \textbf{вступі} обґрунтовано актуальність розробки моделей нейронних мереж та методів іх навчання в задачах автоматизованого скринінгу, а також моделей наборів даних і методів їх генерації; визначені мета, об'єкт, предмет, задачі і методи дослідження; показано зв'язок з науковими програмами, планами; наведено наукову новизну та практичне значення одержаних результатів; висвітлено особистий внесок здобувача.
В \textbf{першому розділі} наведено огляд літератури за тематикою даної роботи та спорідненими питаннями; висвітлено результати, які були отримані іншими дослідниками. Зокрема, наведено огляд досліджень, що стосуються задачі автоматизованого скринінгу в різних областях; проведено аналіз моделей та методів комп'ютероного зору, насамперед, моделей глибоких нейронних мереж та методів їх навчання. Проведено аналіз методів розпізнавання, класифікації та семантичної сегментації планарних зображень, використання для цього моделей та методів багатозадачного навчання. Додатково проаналізовано метрики, що використовуються для оцінки достовірності в задачах класифікації та сегментації зображень. Виявлено, що достовірність прогнозів может бути визначена як міра Дайса-Соренсена, або F1-міра. Наведено підходи використання багатозадачного навчання для класифікації та сегментації зображень в задачах автоматизованого скринінгу.
Проведено аналіз зашумлення розмітки в наборах даних для різних задач автоматизованого скринінгу, який показав, що основними проблемами з розміткою даних в задачах скринінгу є:
\begin{enumerate}
\item Маски сегментації, що захоплюють сусідні з об'єктом пікселі;
\item Маски сегментації, що покривають об'єкт не повністю;
\item Відсутні маски сегментації для деяких об'єктів;
\item Присутні зайві маски на місцях, де немає об'єктів;
\item Зображенням присвоєні невірні класи.
\end{enumerate}
Наведено огляд наявних моделей наборів даних, та методів їх генерації. Виявлено, що відсутні моделі наборів даних, які б дозволяли змінювати рівень зашумлення розмітки відповідно до характеристик зашумлення в реальних наборах даних.
Виявлено, що неузгодженість та незбалансованість навчальних наборів даних для задач автоматизованого скринінгу виникає через відносно малу кількість аномальних прикладів в популяціях та значний рівень похибки розмітників. Це створює проблему при навчанні глибоких нейронних мереж стандартними методами. Тому при побудові моделей класифікації та сегментації потрібно вирішувати задачу \textit{навчання з урахуванням частково-помилкової розмітки}.
В задачах автоматизованого скринінгу важливо зменшення кількості хибно-позитивних результатів діагностики, через відносно малу розповсюдженість аномальних прикладів в популяціях та пов'язані з хибно-позитивними результатами подальші дії. Тому, при побудові систем класифікації та сегментації потрібно зосередитися на \textit{зменшенні хибно-позитивних результатів}.
Таким чином, проведений огляд сучасної літератури на тему дисертації дозволяє аргументувати актуальність та практичну цінність проведених у роботі досліджень.
У \textbf{другому розділі} представлено параметричну модель наборів даних із зашумленою розміткою для задач сегментації та класифікації, що відповідає оцінкам моделей шуму в різних задачах автоматизованого скринінгу, а також метод контрольованої генерації як зображень, так і масок сегментації та міток класів що модифікуються відповідно до випадково обраних недоліків.
Запропоновано використання модельних наборів даних тестування достовірності моделей та методів навчання глибоких нейронних мереж в задачах класифікації та семантичної сегментації. Тестування виконується в контрольованих умовах за допомогою введення зашумелння в розмітку лише тренувального набору даних, в той час як тестувальних набір даних залишається з точною розміткою.
Модель набору даних має наступні параметри:
\begin{itemize}
\item Набір зображень фону $\mathcal{X}_{b}$
\item Набір об'єктів $\mathcal{X}_{f}$
\item Набір зображень текстур об'єктів$\mathcal{X}_{tex}$
\item Кількість зображень в генерованому наборі даних $N$
\item Розмір генерованих зображень $S_{img}$ в пікселях
\item Середній розмір об'єкта $S_{obj}$ в пікселях
\item Максимальне відхилення розміру об'єкта $\Delta_{max}$ в відсотках
\item Максимальна кількість об'єктів на зображенні $N_{obj}$
\end{itemize}
На відміну від існуючих моделей, в запропоновану модель вводиться чотири додаткових параметри:
\begin{itemize}
\item Ймовірності зменшення та збільшення маски кожного з об'єктів $P_e$ та $P_d$
\item Допустимі масштаби збільшення та зменшення масок всіх об'єктів $S_e$ та $S_d$
\end{itemize}
Введення цих параметрів дозволяє створити контрольоване зашумлення розмітки відповідно до реальних характеристик.
На основі запропонованої параметричної моделі розроблено метод генерації наборів даних із зашумленою розміткою, який складається з двох етапів: етапу генерації фону та етапу розташування на ньому довільної кількості об'єктів. Для генерації фону можуть бути використані як звичайні натуральні зображення, так і синтетичні текстури, чи заливка константним кольором. В якості об'єктів запропоновано використання зображень з наборів даних MNIST, або FashionMNIST.
Використання зазначених наборів даних зумовлено трьома факторами:
\begin{itemize}
\item Можливість простого відділення об'єкта від вихідного фону;
\item Наявність схожих елементів в різних класів (наприклад, цифри 1 та 7, або класи \textit{T-shirt} та \textit{Dress});
\item Висока точність роботи сучасних нейронних мереж на цих наборах даних, що дозволяє сконцентруватися на впливі шуму в розмітці під час навчання, замість розпізнавання безпосередньо об'єктів.
\end{itemize}
Помилки в розмітку штучно вводяться за допомогою випадкового застосування морфологічних операцій ерозії та дилатації з квадратним ядром до масок сегментації окремих об'єктів перед додаванням їх до загальної маски.
На основі моделі генеруються навчальний та тестовий набори даних, всі зображення в наборах генеруються незалежно.
Алгоритм генерації кожного з зображень складається з наступних кроків:
1. Вибір випадкового зображення фону: $x_{bg} \sim \mathcal{X}_b$
2. Вибір кількості об'єктів на зображенні: $n_{obj} \sim \mathcal{U}(1, N_{obj})$
3. Ініціалізація маски сегментації: $M = 0 \; \text{так що} \; M \in \mathcal{R}^{C \times S_{img} \times S_{img}}$
4. Відповідно до кількості зображень $n_{obj}$ виконати наступні кроки:
\qquad 4.1 Вибрати розміри об'єкта: $s \sim \mathcal{U}(S_{obj} - \Delta_{max}, S_{obj} + \Delta_{max})$
\qquad 4.2 Вибрати координати розміщення об'єкта:
\begin{align*}
i_f &\sim \mathcal{U}(0, S_{img} - s)\\
j_f &\sim \mathcal{U}(0, S_{img} - s)
\end{align*}
\qquad 4.3 Вибрати зображення об'єкта $x_{fg} \sim \mathcal{X}_f$ та відповідний клас об'єкта $c_{fg} \sim \mathcal{Y}_f$
\qquad 4.4 Змінити розмір зображення об'єкта за допомогою білінійної інтерполяції:
\begin{align*}
\hat{x}_{fg} = R_{bilinear}(x_{fg})
\end{align*}
\qquad 4.5 Вибрати зображення текстури $x_{tex} \sim \mathcal{X}_{tex}$
\qquad 4.6 Модифікувати зображення об'єкта за допомогою текстури:
\begin{equation*}
\hat{x}_{fg} = x_{fg} \circ x_{tex}[i_f:i_f+s, j_f:j_f+s]
\end{equation*}
\qquad 4.7 Розмістити зображення об'єкта на зображенні фону:
\begin{equation*}
x_{bg}[i_f:i_f+s, j_f:j_f+s] = (1 - x_{fg}) \circ x_{bg} + \hat{x}_{fg}
\end{equation*}
\qquad 4.8 Сформувати маску сегментації об'єкта:
\begin{equation*}
M_{seg} = x_{fg} > \theta_{seg}
\end{equation*}
\qquad де $\theta_{seg}$ - поріг бінаризації вихідного зображення об'єкта. Для набору даних MNIST $\theta_{seg} = 0.2$, для набору даних FashionMNIST $\theta_{seg} = 0.1$.
\qquad 4.9 Модифікувати маску сегментації відповідно до необхідного рівня помилок:
\begin{equation*}
M_{seg} =
\begin{cases}
M_{seg} \oplus K^{S_d \times S_d} &\text{ якщо } p_d \sim \mathcal{U}(0, 1) < P_d\\
M_{seg} \ominus K^{S_e \times S_e} &\text{ якщо } p_e \sim \mathcal{U}(0, 1) < P_e
\end{cases}
\end{equation*}
\qquad де $K^{S_d \times S_d}$ - матриця ядра $K^{S_e \times S_e}$ - матриця ядра ерозії.
\qquad 4.10 Розмістити модифіковану маску сегментації об'єкта на загальному зображенні маски сегментації:
\begin{equation*}
M[c_{fg}, i_f:i_f+s, j_f:j_f+s] = max \; \{ M[c_{fg}, i_f:i_f+s, j_f:j_f+s], M_{seg} \}
\end{equation*}
Завдяки такому варіанту генерації, можливо отримання безлічі наборів даних із схожими характеристиками, що дозволяє використовувати непараметричні статистичні методи, такі як бутстрепінг для оцінки моделей. На практиці, для генерації різних наборів даних, достатньо зміни ініціалізації генератора випадкових чисел.
\textbf{Третій розділ} роботи присвячено моделям глибоких нейронних мереж, а також методам багатозадачного навчання для одночасного підвищення достовірності класифікації та семантичної сегментації без зміни витрат часу.
Запропоновано модель глибокої нейронної мережі з використанням архітектури енкодер-декодер, що заснована на архітектурі нейронних мереж LinkNet \cite{linknet}. Розроблена модель складається з енкодера та двох декодерів: для задач сегментації та класифікації відповідно. В ролі енкодера можуть бути використані наявні багатостадійні архітектури, такі як VGGNet, ResNet, EfficientNet та ін. Карти ознак після кожного етапу просторового зменшення використовуються як входи для декодера сегментації, для декодера класифікації використовується карта ознак з найглибшого шару енкодера. Графічне представлення моделі зображено на рисунку \ref{fig:my_net_arch_intro}
\begin{figure}
\centering
\includegraphics[width=16cm]{my_ne_arch.png}
\caption{Загальна архітектура нейронної мережі з декодером та класифікатором}
\label{fig:my_net_arch_intro}
\end{figure}
Також, запропоновану модель представлено математично. Нехай нейронну мережу енкодера визначено як $F_{encoder}$. Тоді для вхідного зображення $x \in \mathcal{R} ^ {3 \times H \times W}$, $v_1, v_2, ... v_i, ... v_n$ - набір карт ознак, так що $v_i \in \mathcal{R} ^ {c_i \times \frac{H}{i} \times \frac{W}{i}}$, де $c_i$ - кількість каналів для кожної з карт ознак, а $n$ - кількість стадій енкодера (залежить від архітектури):
\begin{equation}
\label{eqn:enc_features_intro}
v_1, v_2 ... v_n = F_{encoder}(x, \theta_{enc})
\end{equation}
де $\theta_{enc}$ - набір параметрів енкодера.
Тоді, нейронні мережі декодера сегментації та класифікації можна визначити як $F_{seg}$ та $F_{cls}$ відповідно. Для набору карт ознак, що генерує енкодер, маємо:
\begin{align}
M_{seg} &= F_{seg}((v_1, v_2 ... v_n), \theta_{seg}) \\
C_{cls} &= F_{cls}((v_n), \theta_{cls})
\end{align}
де $\theta_{seg}$ та $\theta_{cls}$ - набори параметрів декодерів сегментації та класифікації відповідно.
Перевагою використання базової архітектури LinkNet є можливість застосовувати трансферне навчання для пришвидшення процесу тренування: набір параметрів енкодера $\theta_{enc}$ ініціалізується з використанням параметрів, отриманих після навчання енкодера на наборі даних Imagenet. Декодери ініціалізується зв використанням методу Хе: $\theta \in \mathcal{U}(-b, b)$, де $b$ - константа залежна від типу шару.
На основі розробленої моделі нейронної мережі запропоновано методи багатозадачного навчання глибоких нейронних мереж та прогнозування результатів. Метод тренування нейронних мереж в умовах частково-помилкової розмітки навчальних даних спирається на використання задач, похідних від оригінальної. Показано, що для задачі семантичної сегментації існує семантично-близька більш загальна задача, для якої розмітка навчальних даних є більш влучною, ніж для вихідної.
На відміну від попередніх методів, що спираються на вивчення більш детальних семантично-близьких задач, в розробленому методі використання більш точних даних, для загальніших задач дозволяє покращити роздільність внутрішніх представлень нейронної мережі, що, в свою чергу, покращує результати на вихідній задачі. Також, оскільки задачі є семантично близькими, не відбувається конфлікту градієнтів, що є типовим при навчанні семантично-різнорідних задач.
Так, більш загальною до задачі семантичної сегментації є задача класифікації. В такому контексті, задача класифікації зводиться до задачі навчання за набором зразків: замість розмітки кожного з об'єктів для всіх класів на зображенні, зображення являє собою мішок з одним, чи декількома об'єктами та відповідним маркуванням, чи є об'єкти заданих класів на зображенні.
Нехай для зображення $x \in \mathcal{R}^{3 \times H \times W}$ існує маска сегментації $y_s \in \mathcal{R}^{C \times H \times W}$ де $C$ - кількість класів, а $H$ та $W$ висота та ширина зображення відповідно. Якщо в масці сегментації є хоча б один розмічений об'єкт класу $с$, встановлюється мітка відповідного класу $y_c \in (0, 1)^C$ в розмітці задачі класифікації:
\begin{equation}
y_c = t < \sum_{i}^{H} \sum_{j}^{W} y_{s_{ij}}
\end{equation}
де $t$ - поріг мінімального розміру об'єкта в пікселях
Згенерована таким чином задача класифікації має меншу ймовірність хибної розмітки.
Для зменшення впливу помилкової частини розмітки, вперше запропоновано зміну до функції втрат при навчанні нейронних мереж: функцію втрат для задачі з менш точною розміткою обмежено зверху, таким чином, при навчанні на декількох задачах, градієнти від неправильної розмітки не впливають на процес навчання:
\begin{equation*}
\mathcal{L} \rceil = min(L, \theta)
\end{equation*}
де $\theta$ - поріг обмеження функції втрат.
Для функції обмеження зверху градієнт визначено лише на проміжку $(-\infty, \theta]$, тому для проміжку $(\theta, \infty)$ градієнт встановлено рівним нулю:
\begin{equation*}
\mathcal{\nabla} min(L, \theta) =
\begin{cases}
1 &\text{$L \in (-\infty, \theta]$}\\
0 &\text{$L \in (\theta, \infty)$}
\end{cases}
\end{equation*}
Для кожної з задач окремо обчислюється функція втрат. Для навчання декодера сегментації використовується обмежена зверху функція втрат, в той час як для декодера класифікації - звичайна.
Загальне значення функції втрат визначається як арифметичне середнє між індивідуальними значеннями:
\begin{equation}
L_{total} = \frac{L_{seg} \rceil + L_{cls}}{2}
\end{equation}
Відповідно, загальний градієнт функції втрат буде сумою градієнтів складових частин:
\begin{equation}
\nabla L_{total} = \frac{\nabla L_{seg} \rceil + \nabla L_{cls}}{2}
\end{equation}
Поріг обмеження функції втрат для задачі сегментації є параметром алгоритму навчання та має обиратися емпірично в залежності від рівня помилок в розмітці. Таким чином, забезпечується "прохід" градієнтів для оновлення параметрів від хоча б однієї функції втрат для кожного вхідного прикладу.
На основі запропонованих моделі нейронної мережі та методу її навчання, розроблено метод об'єднання семантично-близьких задач на етапі прогнозування, для того, щоб підвищити достовірність класифікації та сегментації планарних зображень без підвищення витрат часу.
Нехай $C_{cls} \in \mathcal{R}^{C}$ та $M_{seg} \in \mathcal{R}^{C \times H \times W}$- результати декодерів класифікації та сегментації відповідно, значення яких знаходяться на проміжку $(- \infty, + \infty)$ (логіти).
Для отримання результатів на проміжку $[0, 1]$ використовується логістична сигмоїдна функція активації:
\begin{equation*}
\sigma(x) = \frac{1}{1 + e^{-x}}
\end{equation*}
Запропонований метод полягає у зважуванні карти сегментації за допомогою нормованих логітів класифікатора. Першим кроком є трансформація логітів сегментації та класифікації в некалібровані оцінки на проміжку $[0, 1]$:
\begin{align*}
\hat{M}_{seg} &= \sigma(M_{seg}) \\
\hat{C}_{cls} &= \sigma(C_{cls})
\end{align*}
Ці оцінки мають ті самі розмірності, що й оригінальні маска та класи, для зручності репрезентації операцій додано додаткові розмірності до вектору класів: $\hat{M}_{seg} \in \mathcal{R}^{C \times H \times W}$ та $\hat{C}_{cls} \in \mathcal{R}^{C \times 1 \times 1}$
Зважування карти сегментації відбувається за допомогою добутку Адамара між матрицями $\hat{M}_{seg}$ та $\hat{C}_{cls}$
\begin{equation*}
M_{refined} = \hat{M}_{seg} \circ \hat{C}_{cls}
\end{equation*}
Для покращення можливостей інтерпретації прогнозів моделей, було вдосконалено метод локалізації важливих для класифікації ознак зображення за рахунок використання методів багатозадачного навчання, що дозволило його використання в умовах відсутності розмітки семантичної сегментації в навчальному наборі даних.
В основі запропонованого методу лежить ітеративне уточнення карти ознак локалізації за допомогою направлення градієнтів від задачі класифікації:
Першим етапом, обчислюється уточнена ознак класифікації. Для цього, обчислюється добуток Адамара між нормованим за допомогою сигмоїдної функції виходом декодера сегментації та логітами класифікації:
\begin{equation}
M_{unsup} = \hat{M}_{seg} \circ C_{cls}
\end{equation}
Далі, для отримання результату класифікації виконується сумація елементів $M_{unsup}$ з нормалізацією за сумою елементів оригінальної ненормалізованої карти локалізації:
\begin{equation}
C_{unsup} = \frac{\sum_{h=0}^H \sum_{w=0}^{W} M_{unsup(h,w)}}{\sum_{h=0}^H \sum_{w=0}^{W} M_{seg(h,w)} + c}
\end{equation}
Для чисельної стабільності, до знаменника додано малу константу $c \approx 10^{-5}$
Оскільки масштаб нормованого виходу декодера сегментації знаходиться на проміжку $[0, 1]$, використання добутку Адамара дозволяє розглядати $\hat{M}_{seg}$ як карту важливості регіонів для задачі класифікації. В процесі навчання нейронної мережі, така структура поєднання задач спонукає нейронну мережу до призначення високих значень ($\hat(M)_{seg} \rightarrow 1$) для важливих ознак, що є спільними на зображеннях з навчального набору даних.
де $\sigma(x)$ - логістична функція.
Таке ітеративне уточнення спонукає нейронну мережу до призначення високих значень ($\sigma(M) \rightarrow 1$) для важливих ознак, що є спільними на зображеннях з навчального набору даних.
На етапі прогнозування використовується як задача класифікації, так і задача локалізації. Тільки у тому випадку, коли вихід класифікації перевищує заданий поріг $T_c$, виконується процедура декодування локалізації, в іншому випадку, карта локалізації вважається рівною нулю для всіх пікселів.
Оскільки виходи декодера сегментації $M_{unsup}$ є неперервними, а їхній масштаб визначається процесом навчання, поріг бінаризації локалізації $T_{seg}$ може бути різним для різних зображень. Для вибору оптимального порогу $T_{seg}$ на кожному з вхідних зображень, в процесі пост-обробки запропоновано використати адаптивну бінарізацію за методом Оцу, щоб уникнути необхідності калібрації прогнозів нейронної мережі.
Після виконання бінаризації, над отриманою маскою $M_t = M > T_s$ виконується морфологічна операція ерозії з квадратним ядром розміру 1\% від розміру зображення для того, щоб позбутися малих можливо хибно-позитивних регіонів маски.
Наведені моделі та методи було апробовано на наступних предметних доменах: скринінг діабетичної ретинопатії, скринінг дефектів сталевих листів, скринінг меланоми, та скринінг хмарних утворень.
У \textbf{четвертому розділі} описано розроблені інструментальні засоби, що реалізують запропоновані методи та випробування розробленого методу в рамках експериментів як на синтетичних даних, що були згенеровані за допомогою запропонованої моделі, а також експерименти в реальних задачах скринінгу.
Інструментальні засоби розроблено мовою програмування \textit{Python} з використанням фреймворку автоматичного диференціювання \textit{PyTorch}. На основі розроблених інструментальних засобів створено ефективні програмні модулі, які інтегровано з <<хмарними>> сервісами для вирішення ресурсомістких задач навчання нейронних мереж, що забезпечує високу обчислювальну потужність та швидкість прогнозування в задачах автоматизованого скринінгу.
За допомогою моделі протестовано запропоновані методи в різних умовах, виконаний аналіз внеску окремих компонентів та проведено аналіз стійкості запропонованого методу до різних рівнів зашумлення розмітки. В середньому, підвищення коефіцієнта Дайса відносно базової моделі склало 13\%. Для високих рівнів зашумлення, підвищення склало 42\%.
У рамках проекту \textit{<<Severstal: Steel Defect Detection>>} на платформі для змагань з наук про дані Kaggle було використано запропоновані моделі нейронних мереж та запропоновані методи їх навчання та прогнозування результатів для задачі семантичної сегментації дефектів сталевих листів. Підвищення достовірності (міра Дайса) відносно базової моделі склало 4.2\% .
У рамках проекту \textit{<<Understanding Clouds from Satellite Images>>} на платформі для змагань з наук про дані Kaggle було використано запропоновані моделі нейронних мереж, а також методи їх навчання та прогнозування результатів для задачі семантичної сегментації патернів організації хмар на супутникових знімках. Підвищення достовірності (міра Дайса) відносно базової моделі склало 3.9\%.
У рамках проекту \textit{<<APTOS 2019 Blindness Detection>>} на платформі для змагань з наук про дані Kaggle було використано запропоновані методи багатозадачного навчання та прогнозування результатів в задачі класифікації фотографій очного дна для скринінгу діабетичної ретинопатії. Підвищення достовірності (F1-міра) відносно базової моделі склало 2.1\%.
При виконанні проекту \textit{<<SIIM-ISIC Melanoma Classification>>} на платформі для змагань з наук про дані Kaggle було використано запропонований локалізації важливих для класифікації ознак зображення в задачі розпізнавання уражень шкіри для скринінгу меланоми. Використання запропонованого методу дозволило спростити процес контролю навчання нейронних мереж, що допомогло попередити перенавчання і підвищити достовірність класифікації на 3.5\%.
Розроблені в роботі методи та інструментальні засоби отримали \textbf{впровадження} в програмний продукт SafetyRadar компанії \textit{VITech Lab}, основним призначенням якого є скринінг наявності елементів засобів індивідуального захисту на людях в умовах будівельних майданчиків, або лікарень та лабораторій.