From b9aabbcba6bd4bd6f196ab2c037ad37804cd58f4 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 23 Dec 2020 12:15:11 +0300 Subject: [PATCH 01/23] [ru] cs-221-reflex-models --- ru/cs-221-reflex-models.md | 542 +++++++++++++++++++++++++++++++++++++ 1 file changed, 542 insertions(+) create mode 100644 ru/cs-221-reflex-models.md diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md new file mode 100644 index 000000000..ca3b7512b --- /dev/null +++ b/ru/cs-221-reflex-models.md @@ -0,0 +1,542 @@ + + +**Reflex-based models translation** [[webpage]](https://stanford.edu/~shervine/teaching/cs-221/cheatsheet-reflex-models) + +
+ +**1. Reflex-based models with Machine Learning** + +⟶ Модели на основе рефлексов с машинным обучением + +
+ + +**2. Linear predictors** + +⟶ Линейные предсказатели + +
+ + +**3. In this section, we will go through reflex-based models that can improve with experience, by going through samples that have input-output pairs.** + +⟶ В этом разделе мы рассмотрим модели, основанные на рефлексах, которые можно улучшить с опытом, просмотрев образцы с парами вход-выход. + +
+ + +**4. Feature vector ― The feature vector of an input x is noted ϕ(x) and is such that:** + +⟶ Вектор признаков ― Вектор признаков входного сигнала x обозначается как ϕ(x) и таков, что: + +
+ + +**5. Score ― The score s(x,w) of an example (ϕ(x),y)∈Rd×R associated to a linear model of weights w∈Rd is given by the inner product:** + +⟶ Оценка ― Оценка s(x,w) примера (ϕ(x),y) ∈Rd×R, связанного с линейной моделью весов w∈Rd, дается внутренним произведением: + +
+ + +**6. Classification** + +⟶ Классификация + +
+ + +**7. Linear classifier ― Given a weight vector w∈Rd and a feature vector ϕ(x)∈Rd, the binary linear classifier fw is given by:** + +⟶ Линейный классификатор ― Для вектора весов w∈Rd и вектора признаков ϕ(x)∈Rd двоичный линейный классификатор fw имеет вид: + +
+ + +**8. if** + +⟶ если + +
+ + +**9. Margin ― The margin m(x,y,w)∈R of an example (ϕ(x),y)∈Rd×{−1,+1} associated to a linear model of weights w∈Rd quantifies the confidence of the prediction: larger values are better. It is given by:** + +⟶ Отступ ― Отступ m(x,y,w)∈R примера (ϕ(x),y)∈Rd×{−1,+1}, связанная с линейной моделью весов w∈Rd, количественно оценивает уверенность прогноз: большие значения лучше. Задается: + +
+ + +**10. Regression** + +⟶ Регрессия + +
+ + +**11. Linear regression ― Given a weight vector w∈Rd and a feature vector ϕ(x)∈Rd, the output of a linear regression of weights w denoted as fw is given by:** + +⟶ Линейная регрессия ― Для данного вектора весов w∈Rd и вектора признаков ϕ(x)∈Rd результат линейной регрессии весов w, обозначенный как fw, определяется выражением: + +
+ + +**12. Residual ― The residual res(x,y,w)∈R is defined as being the amount by which the prediction fw(x) overshoots the target y:** + +⟶ Разность ― Разность res(x,y,w)∈R определяется как величина, на которую прогноз fw(x) превышает целевой y: + +
+ + +**13. Loss minimization** + +⟶ Минимизация потерь + +
+ + +**14. Loss function ― A loss function Loss(x,y,w) quantifies how unhappy we are with the weights w of the model in the prediction task of output y from input x. It is a quantity we want to minimize during the training process.** + +⟶ Функция потерь ― Функция потерь Loss(x,y,w) количественно определяет, насколько мы недовольны весами w модели в задаче прогнозирования выхода y из входа x. Это количество, которое мы хотим минимизировать во время тренировочного процесса. + +
+ + +**15. Classification case - The classification of a sample x of true label y∈{−1,+1} with a linear model of weights w can be done with the predictor fw(x)≜sign(s(x,w)). In this situation, a metric of interest quantifying the quality of the classification is given by the margin m(x,y,w), and can be used with the following loss functions:** + +⟶ Классификационный случай ― Классификация выборки x истинной метки y∈{−1,+1} с линейной моделью весов w может быть выполнена с помощью предиктора fw(x)≜sign(s(x,w)). В этой ситуации интересующий показатель, определяющий качество классификации, задается отступом m(x,y,w) и может использоваться со следующими функциями потерь: + +
+ + +**16. [Name, Illustration, Zero-one loss, Hinge loss, Logistic loss]** + +⟶ [Название, Иллюстрация, потеря ноль единицы, потеря петли, логистическая потеря] + +
+ + +**17. Regression case - The prediction of a sample x of true label y∈R with a linear model of weights w can be done with the predictor fw(x)≜s(x,w). In this situation, a metric of interest quantifying the quality of the regression is given by the margin res(x,y,w) and can be used with the following loss functions:** + +⟶ Случай регрессии ― Предсказание выборки x истинной метки y∈R с помощью линейной модели весов w может быть выполнено с помощью предиктора fw(x)≜s(x,w). В этой ситуации интересующий показатель, количественно оценивающий качество регрессии, задается отступом res(x,y,w) и может использоваться со следующими функциями потерь: + +
+ + +**18. [Name, Squared loss, Absolute deviation loss, Illustration]** + +⟶ [Название, Квадратичная потеря, Абсолютное отклонение, Иллюстрация] + +
+ + +**19. Loss minimization framework ― In order to train a model, we want to minimize the training loss is defined as follows:** + +⟶ Фреймворк минимизации потерь ― чтобы обучить модель, мы хотим минимизировать потери при обучении, которые определяются следующим образом: + +
+ + +**20. Non-linear predictors** + +⟶ Нелинейные предсказатели + +
+ + +**21. k-nearest neighbors ― The k-nearest neighbors algorithm, commonly known as k-NN, is a non-parametric approach where the response of a data point is determined by the nature of its k neighbors from the training set. It can be used in both classification and regression settings.** + +⟶ k-ближайшие соседи ― Алгоритм k-ближайших соседей, широко известный как k-NN, представляет собой непараметрический подход, в котором ответ для точки данных определяется характером её k соседей из обучающего набора. Его можно использовать в настройках как классификации, так и регрессии. + +
+ + +**22. Remark: the higher the parameter k, the higher the bias, and the lower the parameter k, the higher the variance.** + +⟶ Примечание: чем выше параметр k, тем выше смещение, а чем ниже параметр k, тем выше дисперсия. + +
+ + +**23. Neural networks ― Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks. The vocabulary around neural networks architectures is described in the figure below:** + +⟶ Нейронные сети ― Нейронные сети - это класс моделей, построенных с использованием слоёв. Обычно используемые типы нейронных сетей включают сверточные и рекуррентные нейронные сети. Словарь архитектур нейронных сетей представлен на рисунке ниже: + +
+ + +**24. [Input layer, Hidden layer, Output layer]** + +⟶ [Входной слой, Скрытый слой, Выходной слой] + +
+ + +**25. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** + +⟶ Обозначим i - это i-й уровень сети, а j - j-й скрытый блок слоя, у нас есть: + +
+ + +**26. where we note w, b, x, z the weight, bias, input and non-activated output of the neuron respectively.** + +⟶ где мы обозначаем w, b, x, z вес, смещение, вход и неактивированный выход нейрона соответственно. + +
+ + +**27. For a more detailed overview of the concepts above, check out the Supervised Learning cheatsheets!** + +⟶ Для более подробного обзора приведенных выше концепций ознакомьтесь со шпаргалками по контролируемому обучению! + +
+ + +**28. Stochastic gradient descent** + +⟶ Стохастический градиентный спуск + +
+ + +**29. Gradient descent ― By noting η∈R the learning rate (also called step size), the update rule for gradient descent is expressed with the learning rate and the loss function Loss(x,y,w) as follows:** + +⟶ Градиентный спуск ― Gradient descent - Обозначим η∈R скорость обучения (также называемую размером шага), правило обновления для градиентного спуска выражается с помощью скорости обучения и функции потерь Loss(x,y,w) следующим образом: + +
+ + +**30. Stochastic updates ― Stochastic gradient descent (SGD) updates the parameters of the model one training example (ϕ(x),y)∈Dtrain at a time. This method leads to sometimes noisy, but fast updates.** + +⟶ Стохастические обновления ― Stochastic gradient descent (SGD) обновляет параметры модели по одному обучающему примеру (ϕ(x),y)∈Dtrain за раз. Этот метод приводит к иногда шумным, но быстрым обновлениям. + +
+ + +**31. Batch updates ― Batch gradient descent (BGD) updates the parameters of the model one batch of examples (e.g. the entire training set) at a time. This method computes stable update directions, at a greater computational cost.** + +⟶ Пакетные обновления ― Batch gradient descent (BGD) обновляет параметры модели по одной партии примеров (например, половина обучающего набора) за раз. Этот метод вычисляет стабильные направления обновления с большими вычислительными затратами. + +
+ + +**32. Fine-tuning models** + +⟶ Доводка моделей + +
+ + +**33. Hypothesis class ― A hypothesis class F is the set of possible predictors with a fixed ϕ(x) and varying w:** + +⟶ Класс гипотез ― Класс гипотез F - это набор возможных предикторов с фиксированным ϕ(x) и изменяющимся w: + +
+ + +**34. Logistic function ― The logistic function σ, also called the sigmoid function, is defined as:** + +⟶ Логистическая функция ― Логистическая функция σ, также называемая сигмовидной функцией, определяется как: + +
+ + +**35. Remark: we have σ′(z)=σ(z)(1−σ(z)).** + +⟶ Примечание: у нас есть σ′(z)=σ(z)(1−σ(z)). + +
+ + +**36. Backpropagation ― The forward pass is done through fi, which is the value for the subexpression rooted at i, while the backward pass is done through gi=∂out∂fi and represents how fi influences the output.** + +⟶ Обратное распространение ― Backpropagation - Прямой проход выполняется через fi, которое является значением подвыражения с индексом i, а обратный проход выполняется через gi=∂out∂fi и представляет, как fi влияет на вывод. + +
+ + +**37. Approximation and estimation error ― The approximation error ϵapprox represents how far the entire hypothesis class F is from the target predictor g∗, while the estimation error ϵest quantifies how good the predictor ^f is with respect to the best predictor f∗ of the hypothesis class F.** + +⟶ Ошибка аппроксимации и оценки ― Ошибка аппроксимации ϵapprox представляет, как далеко весь класс гипотез F от целевого предиктора g∗, в то время как ошибка оценки ϵest количественно определяет, насколько хорош предиктор ^f по отношению к лучшему предиктору f∗ из класса гипотез F. + +
+ + +**38. Regularization ― The regularization procedure aims at avoiding the model to overfit the data and thus deals with high variance issues. The following table sums up the different types of commonly used regularization techniques:** + +⟶ Регуляризация ― Процедура регуляризации направлена на то, чтобы модель не переобучалась на данных (запоминала их полностью), и, таким образом, решает проблемы с высокой дисперсией. В следующей таблице суммированы различные типы широко используемых методов регуляризации: + +
+ + +**39. [Shrinks coefficients to 0, Good for variable selection, Makes coefficients smaller, Tradeoff between variable selection and small coefficients]** + +⟶ [Уменьшает коэффициенты до 0, Подходит для выбора переменных, Делает коэффициенты меньше, Компромисс между выбором переменных и небольшими коэффициентами] + +
+ + +**40. Hyperparameters ― Hyperparameters are the properties of the learning algorithm, and include features, regularization parameter λ, number of iterations T, step size η, etc.** + +⟶ Гиперпараметры ― это свойства алгоритма обучения и включают функции, параметр регуляризации λ, количество итераций T, размер шага η и так далее. + +
+ + +**41. Sets vocabulary ― When selecting a model, we distinguish 3 different parts of the data that we have as follows:** + +⟶ Наборы словарей ― при выборе модели мы выделяем 3 разные части данных, которые у нас есть, а именно: + +
+ + +**42. [Training set, Validation set, Testing set]** + +⟶ [Обучающий набор, Контрольный набор, Тестовый набор] + +
+ + +**43. [Model is trained, Usually 80% of the dataset, Model is assessed, Usually 20% of the dataset, Also called hold-out or development set, Model gives predictions, Unseen data]** + +⟶ [Модель обучена, Обычно 80% набора данных, Модель оценена, Обычно 20% набора данных, Также называется отложенным или набором для разработки, Модель дает прогнозы, Ранее невиданные данные] + +
+ + +**44. Once the model has been chosen, it is trained on the entire dataset and tested on the unseen test set. These are represented in the figure below:** + +⟶ Как только модель выбрана, она обучается на всем наборе данных и тестируется на невиданном тестовом наборе. Они представлены на рисунке ниже: + +
+ + +**45. [Dataset, Unseen data, train, validation, test]** + +⟶ [Набор данных, Ранее невиданные данные, обучение, контроль, тест] + +
+ + +**46. For a more detailed overview of the concepts above, check out the Machine Learning tips and tricks cheatsheets!** + +⟶ Для более подробного обзора приведенных выше концепций ознакомьтесь со шпаргалками с советами и приемами машинного обучения! + +
+ + +**47. Unsupervised Learning** + +⟶ Обучение без учителя + +
+ + +**48. The class of unsupervised learning methods aims at discovering the structure of the data, which may have of rich latent structures.** + +⟶ Класс методов обучения без учителя направлен на обнаружение структуры данных, которые могут иметь богатые скрытые структуры. + +
+ + +**49. k-means** + +⟶ k-средние + +
+ + +**50. Clustering ― Given a training set of input points Dtrain, the goal of a clustering algorithm is to assign each point ϕ(xi) to a cluster zi∈{1,...,k}** + +⟶ Кластеризация ― Дан обучающий набор входных точек Dtrain, цель алгоритма кластеризации состоит в том, чтобы назначить каждую точку ϕ(xi) кластеру zi∈{1,...,k} + +
+ + +**51. Objective function ― The loss function for one of the main clustering algorithms, k-means, is given by:** + +⟶ Целевая функция ― функция потерь для одного из основных алгоритмов кластеризации, k-средних, определяется выражением: + +
+ + +**52. Algorithm ― After randomly initializing the cluster centroids μ1,μ2,...,μk∈Rn, the k-means algorithm repeats the following step until convergence:** + +⟶ Алгоритм ― после случайной инициализации центроидов кластера μ1,μ2,...,μk∈Rn алгоритм k-средних повторяет следующий шаг до сходимости: + +
+ + +**53. and** + +⟶ и + +
+ + +**54. [Means initialization, Cluster assignment, Means update, Convergence]** + +⟶ [Инициализация средних, Назначение кластера, Обновление средних, Сходимость] + +
+ + +**55. Principal Component Analysis** + +⟶ Метод главных компонент - Principal Component Analysis (PCA) + +
+ + +**56. Eigenvalue, eigenvector ― Given a matrix A∈Rn×n, λ is said to be an eigenvalue of A if there exists a vector z∈Rn∖{0}, called eigenvector, such that we have:** + +⟶ Собственное значение, собственный вектор ― Для данной матрицы A∈Rn×n, λ называется собственным значением A, если существует вектор z∈Rn∖{0}, называемый собственным вектором, такой, что у нас есть: + +
+ + +**57. Spectral theorem ― Let A∈Rn×n. If A is symmetric, then A is diagonalizable by a real orthogonal matrix U∈Rn×n. By noting Λ=diag(λ1,...,λn), we have:** + +⟶ Спектральная теорема ― Пусть A∈Rn×n. Если A симметрична, то A диагонализуема действительной ортогональной матрицей U∈Rn×n. Обозначим Λ=diag(λ1,...,λn), у нас есть: + +
+ + +**58. Remark: the eigenvector associated with the largest eigenvalue is called principal eigenvector of matrix A.** + +⟶ Примечание: собственный вектор, связанный с наибольшим собственным значением, называется главным собственным вектором матрицы A. (примечание переводчика: Смотри минимизацию нормы Фробениуса матрицы ошибок) + +
+ + +**59. Algorithm ― The Principal Component Analysis (PCA) procedure is a dimension reduction technique that projects the data on k dimensions by maximizing the variance of the data as follows:** + +⟶ Алгоритм ― процедура метода главных компонент - это метод уменьшения размерности, который проецирует данные по k измерениям, максимизируя дисперсию данных следующим образом: + +
+ + +**60. Step 1: Normalize the data to have a mean of 0 and standard deviation of 1.** + +⟶ Шаг 1. Нормализовать данные, чтобы получить среднее значение 0 и стандартное отклонение 1. + +
+ + +**61. [where, and]** + +⟶ [где, и] + +
+ + +**62. [Step 2: Compute Σ=1mm∑i=1ϕ(xi)ϕ(xi)T∈Rn×n, which is symmetric with real eigenvalues., Step 3: Compute u1,...,uk∈Rn the k orthogonal principal eigenvectors of Σ, i.e. the orthogonal eigenvectors of the k largest eigenvalues., Step 4: Project the data on spanR(u1,...,uk).]** + +⟶ [Шаг 2: Вычислить Σ=1mm∑i=1ϕ(xi)ϕ(xi)T∈Rn×n, которая симметрична действительным собственным значениям., Шаг 3: Вычислить u1,...,uk∈Rn k ортогональных главных собственных векторов Σ, т.е. ортогональные собственные векторы k наибольших собственных значений., Шаг 4: Спроецировать данные на spanR(u1,...,uk).] + +
+ + +**63. This procedure maximizes the variance among all k-dimensional spaces.** + +⟶ Эта процедура максимизирует дисперсию всех k-мерных пространств. + +
+ + +**64. [Data in feature space, Find principal components, Data in principal components space]** + +⟶ [Данные в пространстве функций, Поиск главных компонент, Данные в пространстве главных компонент] + +
+ + +**65. For a more detailed overview of the concepts above, check out the Unsupervised Learning cheatsheets!** + +⟶ Более подробный обзор приведенных выше концепций можно найти в шпаргалках по Обучению без учителя! + +
+ + +**66. [Linear predictors, Feature vector, Linear classifier/regression, Margin]** + +⟶ [Линейные предикторы, Вектор признаков, Линейный классификатор/регрессия, Отступn] + +
+ + +**67. [Loss minimization, Loss function, Framework]** + +⟶ [Минимизация потерь, Функция потерь, Фреймворк] + +
+ + +**68. [Non-linear predictors, k-nearest neighbors, Neural networks]** + +⟶ [Нелинейные предикторы, k-ближайшие соседи, Нейронные сети] + +
+ + +**69. [Stochastic gradient descent, Gradient, Stochastic updates, Batch updates]** + +⟶ [Стохастический градиентный спуск, Градиент, Стохастические обновления, Пакетные обновления] + +
+ + +**70. [Fine-tuning models, Hypothesis class, Backpropagation, Regularization, Sets vocabulary]** + +⟶ [Модели тонкой настройки, Класс гипотез, Обратное распространение, Регуляризация, Наборы словарей] + +
+ + +**71. [Unsupervised Learning, k-means, Principal components analysis]** + +⟶ [Обучение без учителя, k-средние, Метод главных компонент] + +
+ + +**72. View PDF version on GitHub** + +⟶ Посмотреть PDF-версию на GitHub + +
+ + +**73. Original authors** + +⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/shervinea + +
+ + +**74. Translated by X, Y and Z** + +⟶ Российская адаптация: Пархоменко Александр ― https://github.com/AlexandrParkhomenko + +
+ + +**75. Reviewed by X, Y and Z** + +⟶ Проверено X, Y и Z + +
+ + +**76. By X and Y** + +⟶ По X и Y + +
+ + +**77. The Artificial Intelligence cheatsheets are now available in [target language].** + +⟶ Шпаргалки по искусственному интеллекту теперь доступны в формате [target language]. + From 177571f5f3891aa18ce2126af752fd9e5300b209 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko Date: Thu, 24 Dec 2020 10:29:50 +0300 Subject: [PATCH 02/23] [russian] ru --- ru/cs-221-reflex-models.md | 3 --- 1 file changed, 3 deletions(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index ca3b7512b..dae224a77 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -1,5 +1,3 @@ - - **Reflex-based models translation** [[webpage]](https://stanford.edu/~shervine/teaching/cs-221/cheatsheet-reflex-models)
@@ -539,4 +537,3 @@ **77. The Artificial Intelligence cheatsheets are now available in [target language].** ⟶ Шпаргалки по искусственному интеллекту теперь доступны в формате [target language]. - From dbd645c967409ce9e51fd2db37c2280b07109bb3 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:05:10 +0300 Subject: [PATCH 03/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index dae224a77..3092fbd49 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -4,7 +4,7 @@ **1. Reflex-based models with Machine Learning** -⟶ Модели на основе рефлексов с машинным обучением +⟶ Модели машинного обучения на основе рефлексов
From 4a48a4f59b211e1e0e1e90711837cfae8a4bf30c Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:05:18 +0300 Subject: [PATCH 04/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 3092fbd49..873a3adf2 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -18,7 +18,7 @@ **3. In this section, we will go through reflex-based models that can improve with experience, by going through samples that have input-output pairs.** -⟶ В этом разделе мы рассмотрим модели, основанные на рефлексах, которые можно улучшить с опытом, просмотрев образцы с парами вход-выход. +⟶ В этом разделе мы рассмотрим модели, основанные на рефлексах, которые улучшаются по мере накопления опыта, обучаясь на парах наблюдений вход-выход.
From 2bd9d5fd34b06b139ba50a53e62245c4fc344762 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:05:25 +0300 Subject: [PATCH 05/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 873a3adf2..74679c74c 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -46,7 +46,7 @@ **7. Linear classifier ― Given a weight vector w∈Rd and a feature vector ϕ(x)∈Rd, the binary linear classifier fw is given by:** -⟶ Линейный классификатор ― Для вектора весов w∈Rd и вектора признаков ϕ(x)∈Rd двоичный линейный классификатор fw имеет вид: +⟶ Линейный классификатор ― Для вектора весов w∈Rd и вектора признаков ϕ(x)∈Rd бинарный линейный классификатор fw имеет вид:
From 2121dc2e7d458659296cbbf769bfe83062f50c70 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:12 +0300 Subject: [PATCH 06/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 74679c74c..d9b700b7a 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -95,7 +95,7 @@ **14. Loss function ― A loss function Loss(x,y,w) quantifies how unhappy we are with the weights w of the model in the prediction task of output y from input x. It is a quantity we want to minimize during the training process.** -⟶ Функция потерь ― Функция потерь Loss(x,y,w) количественно определяет, насколько мы недовольны весами w модели в задаче прогнозирования выхода y из входа x. Это количество, которое мы хотим минимизировать во время тренировочного процесса. +⟶ Функция потерь ― Функция потерь Loss(x,y,w) количественно определяет, насколько мы недовольны весами w модели в задаче прогнозирования выхода y на основе входа x. Это количество, которое мы хотим минимизировать во время процесса обучения.
From 85bc525d6aad626629c4a940e8cf6863be568bdc Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:18 +0300 Subject: [PATCH 07/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index d9b700b7a..739b759be 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -515,7 +515,7 @@ **74. Translated by X, Y and Z** -⟶ Российская адаптация: Пархоменко Александр ― https://github.com/AlexandrParkhomenko +⟶ Переведено на русский язык: Пархоменко Александр ― https://github.com/AlexandrParkhomenko
From 84be98e9012c7ff4d70764c1e0cbb9b808db31d1 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:25 +0300 Subject: [PATCH 08/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 739b759be..78ebd76c3 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -522,7 +522,7 @@ **75. Reviewed by X, Y and Z** -⟶ Проверено X, Y и Z +⟶ Проверено на русском языке: Труш Георгий (Georgy Trush) ― https://github.com/geotrush
From ed22364d4a4a0e91fcd03c08d42c964b95cf9afe Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:32 +0300 Subject: [PATCH 09/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 78ebd76c3..39b44d1ca 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -508,7 +508,7 @@ **73. Original authors** -⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/shervinea +⟶ Авторы оригинала: Afshine Amidi и Shervine Amidi ― https://github.com/afshinea и https://github.com/shervinea
From 4dec6b3f581a01a5b5741e7fa8276e4286f393ab Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:36 +0300 Subject: [PATCH 10/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 39b44d1ca..a9a0625da 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -487,7 +487,7 @@ **70. [Fine-tuning models, Hypothesis class, Backpropagation, Regularization, Sets vocabulary]** -⟶ [Модели тонкой настройки, Класс гипотез, Обратное распространение, Регуляризация, Наборы словарей] +⟶ [Модели дообучения, Класс гипотез, Обратное распространение ошибки, Регуляризация, Наборы словарей]
From 1d4ab074b1abeb1a2c28e520f70c0693247c8f1f Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:40 +0300 Subject: [PATCH 11/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index a9a0625da..d1014df3b 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -473,7 +473,7 @@ **68. [Non-linear predictors, k-nearest neighbors, Neural networks]** -⟶ [Нелинейные предикторы, k-ближайшие соседи, Нейронные сети] +⟶ [Нелинейные предикторы, k-ближайших соседей, Нейронные сети]
From 7e3bc5d35b0606ba931d893fb0a2b3f095af4dc1 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:06:54 +0300 Subject: [PATCH 12/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index d1014df3b..94f71a3b0 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -102,7 +102,7 @@ **15. Classification case - The classification of a sample x of true label y∈{−1,+1} with a linear model of weights w can be done with the predictor fw(x)≜sign(s(x,w)). In this situation, a metric of interest quantifying the quality of the classification is given by the margin m(x,y,w), and can be used with the following loss functions:** -⟶ Классификационный случай ― Классификация выборки x истинной метки y∈{−1,+1} с линейной моделью весов w может быть выполнена с помощью предиктора fw(x)≜sign(s(x,w)). В этой ситуации интересующий показатель, определяющий качество классификации, задается отступом m(x,y,w) и может использоваться со следующими функциями потерь: +⟶ Случай классификации ― Классификация выборки x истинной метки y∈{−1,+1} с линейной моделью весов w может быть выполнена с помощью предиктора fw(x)≜sign(s(x,w)). В этой ситуации интересующий показатель, определяющий качество классификации, задается зазором m(x,y,w) и может использоваться со следующими функциями потерь:
From 22db8f331c97fc8c318132154584818dd4965d0d Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:07:08 +0300 Subject: [PATCH 13/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 94f71a3b0..e10b6e4c0 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -109,7 +109,7 @@ **16. [Name, Illustration, Zero-one loss, Hinge loss, Logistic loss]** -⟶ [Название, Иллюстрация, потеря ноль единицы, потеря петли, логистическая потеря] +⟶ [Название, Иллюстрация, Zero-one loss, Hinge loss, Logistic loss]
From db76a4b0167c3e9040ac4c80e6af68a6fbeb9ca5 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:07:22 +0300 Subject: [PATCH 14/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index e10b6e4c0..c4e86ab44 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -116,7 +116,7 @@ **17. Regression case - The prediction of a sample x of true label y∈R with a linear model of weights w can be done with the predictor fw(x)≜s(x,w). In this situation, a metric of interest quantifying the quality of the regression is given by the margin res(x,y,w) and can be used with the following loss functions:** -⟶ Случай регрессии ― Предсказание выборки x истинной метки y∈R с помощью линейной модели весов w может быть выполнено с помощью предиктора fw(x)≜s(x,w). В этой ситуации интересующий показатель, количественно оценивающий качество регрессии, задается отступом res(x,y,w) и может использоваться со следующими функциями потерь: +⟶ Случай регрессии ― Предсказание выборки x истинной метки y∈R с помощью линейной модели весов w может быть выполнено с помощью предиктора fw(x)≜s(x,w). В этой ситуации интересующий показатель, количественно оценивающий качество регрессии, задается зазором res(x,y,w) и может использоваться со следующими функциями потерь:
From f595155f4eeac6d798bcce8100419bdbe7c3dcfa Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:07:43 +0300 Subject: [PATCH 15/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index c4e86ab44..3c2de6b70 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -144,7 +144,7 @@ **21. k-nearest neighbors ― The k-nearest neighbors algorithm, commonly known as k-NN, is a non-parametric approach where the response of a data point is determined by the nature of its k neighbors from the training set. It can be used in both classification and regression settings.** -⟶ k-ближайшие соседи ― Алгоритм k-ближайших соседей, широко известный как k-NN, представляет собой непараметрический подход, в котором ответ для точки данных определяется характером её k соседей из обучающего набора. Его можно использовать в настройках как классификации, так и регрессии. +⟶ k-ближайших соседей ― Алгоритм k-ближайших соседей, широко известный как k-NN, представляет собой непараметрический подход, в котором метка новой точки данных определяется признаками её k соседей из обучающего набора. Его можно использовать в случаях как классификации, так и регрессии.
From b9727881acadd41041b7d680025f316d99283429 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:07:57 +0300 Subject: [PATCH 16/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 3c2de6b70..2489869a6 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -207,7 +207,7 @@ **30. Stochastic updates ― Stochastic gradient descent (SGD) updates the parameters of the model one training example (ϕ(x),y)∈Dtrain at a time. This method leads to sometimes noisy, but fast updates.** -⟶ Стохастические обновления ― Stochastic gradient descent (SGD) обновляет параметры модели по одному обучающему примеру (ϕ(x),y)∈Dtrain за раз. Этот метод приводит к иногда шумным, но быстрым обновлениям. +⟶ Стохастические обновления ― Stochastic gradient descent (SGD) обновляет параметры модели по одному обучающему примеру (ϕ(x),y)∈Dtrain за раз. Этот метод зачастую приводит к шумным, но быстрым обновлениям.
From 92a584d93545d65249b8e0534952518cb98b4f27 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:08:13 +0300 Subject: [PATCH 17/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 2489869a6..7455b5bb0 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -221,7 +221,7 @@ **32. Fine-tuning models** -⟶ Доводка моделей +⟶ Дообучение моделей
From a8288b8f8f6e0064cf5d491b2da3ee5df15d4182 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:08:39 +0300 Subject: [PATCH 18/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 7455b5bb0..c887065b1 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -459,7 +459,7 @@ **66. [Linear predictors, Feature vector, Linear classifier/regression, Margin]** -⟶ [Линейные предикторы, Вектор признаков, Линейный классификатор/регрессия, Отступn] +⟶ [Линейные предикторы, Вектор признаков, Линейный классификатор/регрессия, Зазор]
From 602f6064031d623de659f51914470d98411605da Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:09:15 +0300 Subject: [PATCH 19/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index c887065b1..60979bb12 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -256,7 +256,7 @@ **37. Approximation and estimation error ― The approximation error ϵapprox represents how far the entire hypothesis class F is from the target predictor g∗, while the estimation error ϵest quantifies how good the predictor ^f is with respect to the best predictor f∗ of the hypothesis class F.** -⟶ Ошибка аппроксимации и оценки ― Ошибка аппроксимации ϵapprox представляет, как далеко весь класс гипотез F от целевого предиктора g∗, в то время как ошибка оценки ϵest количественно определяет, насколько хорош предиктор ^f по отношению к лучшему предиктору f∗ из класса гипотез F. +⟶ Ошибки приближения и оценки ― Ошибка приближения ϵapprox отражает то, насколько далеко весь класс гипотез F от целевого предиктора g∗, в то время как ошибка оценки ϵest количественно определяет, насколько хорош предиктор ^f по отношению к лучшему предиктору f∗ из класса гипотез F.
From 9aeba524129901fe2fd3f65c62d0e47ea112d9f2 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:56:31 +0300 Subject: [PATCH 20/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 60979bb12..162120e55 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -277,7 +277,7 @@ **40. Hyperparameters ― Hyperparameters are the properties of the learning algorithm, and include features, regularization parameter λ, number of iterations T, step size η, etc.** -⟶ Гиперпараметры ― это свойства алгоритма обучения и включают функции, параметр регуляризации λ, количество итераций T, размер шага η и так далее. +⟶ Гиперпараметры ― это свойства алгоритма обучения, включающие параметр регуляризации λ, количество итераций T, размер шага η и так далее.
From 86e1ea6385fcd94b9c415a2599cb630debf98e88 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 14:57:02 +0300 Subject: [PATCH 21/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 162120e55..93d962a7f 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -249,7 +249,7 @@ **36. Backpropagation ― The forward pass is done through fi, which is the value for the subexpression rooted at i, while the backward pass is done through gi=∂out∂fi and represents how fi influences the output.** -⟶ Обратное распространение ― Backpropagation - Прямой проход выполняется через fi, которое является значением подвыражения с индексом i, а обратный проход выполняется через gi=∂out∂fi и представляет, как fi влияет на вывод. +⟶ Обратное распространение ошибки ― Backpropagation - Прямой проход сети выполняется через fi, которое является значением подвыражения с индексом i, а обратный проход выполняется через gi=∂out∂fi и отражает то, как сильно fi влияет на выход.
From fa7489cd32abfc05c605f9fb4305babee1e67050 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 20:12:16 +0300 Subject: [PATCH 22/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index 93d962a7f..e31af96b0 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -32,7 +32,7 @@ **5. Score ― The score s(x,w) of an example (ϕ(x),y)∈Rd×R associated to a linear model of weights w∈Rd is given by the inner product:** -⟶ Оценка ― Оценка s(x,w) примера (ϕ(x),y) ∈Rd×R, связанного с линейной моделью весов w∈Rd, дается внутренним произведением: +⟶ Оценка ― Оценка s(x,w) примера (ϕ(x),y) ∈Rd×R, связанного с линейной моделью весов w∈Rd, задается скалярным произведением:
From 836fa86ceadaaa8edc5830cffb6ff76879030591 Mon Sep 17 00:00:00 2001 From: AlexandrParkhomenko <48244777+AlexandrParkhomenko@users.noreply.github.com> Date: Wed, 17 Feb 2021 21:37:19 +0300 Subject: [PATCH 23/23] Update ru/cs-221-reflex-models.md Co-authored-by: Georgy Trush <48649707+geotrush@users.noreply.github.com> --- ru/cs-221-reflex-models.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ru/cs-221-reflex-models.md b/ru/cs-221-reflex-models.md index e31af96b0..808f8294e 100644 --- a/ru/cs-221-reflex-models.md +++ b/ru/cs-221-reflex-models.md @@ -347,7 +347,7 @@ **50. Clustering ― Given a training set of input points Dtrain, the goal of a clustering algorithm is to assign each point ϕ(xi) to a cluster zi∈{1,...,k}** -⟶ Кластеризация ― Дан обучающий набор входных точек Dtrain, цель алгоритма кластеризации состоит в том, чтобы назначить каждую точку ϕ(xi) кластеру zi∈{1,...,k} +⟶ Кластеризация ― Дан обучающий набор входных точек Dtrain, цель алгоритма кластеризации состоит в том, чтобы определить каждую точку ϕ(xi) к одному из кластеров zi∈{1,...,k}