Мова викладання в курсі – російська. Незабаром буде доступна українська версія цього курсу.
Відеозаписи лекцій без зворотного зв’язку та участі викладача. Ви отримаєте доступ до матеріалів одразу після оплати.
Що дасть Вам цей курс
Зазвичай математику у вишах викладають у відриві від реальних завдань, де вона надалі застосовуватиметься. Ми пішли іншим шляхом. Кожен модуль професійного курсу збалансований математичною теорією і практичними прикладами, які взяті з реальних кейсів. Ви будете розв’язувати задачу регресії, проводити АБ-тестування, працювати над рекомендаційною системою, використовувати метод опорних векторів.
Для кого цей курс?
Для вступу потрібно бути знайомим з основами математичного аналізу, лінійної алгебри та теорії ймовірності. Курс підійде всім, хто хоче розвиватися у сфері Data Science. Він допоможе вам освоїти весь необхідний математичний апарат для розв’язання завдань на позиції Middle/Senior Data Scientist.
Навіщо вчити математику?
Професія Data Scientist стає однією з найперспективніших і найбільш затребуваних в IT. Середня зарплата фахівців Data Science в Росії вдвічі вища, ніж у фахівців інших IT-напрямків – 190 тис. руб. Основна складність професії – високі вимоги до знань вищої математики. Впевнене володіння математичним апаратом дає змогу підвищити рівень компетенцій і вирости в професійному плані.
Тривалість курсу: 132 академічні години
1 Лінійна алгебра
Вступ. Математика в DataScience.
Розуміння, що бути успішним Datascientist без знання математики, а головне без її розуміння, неможливо.
Вступ 2. Основні терміни та визначення математичного аналізу, лінійної алгебри та теорії ймовірностей
– Базові терміни матаналізу (межа, неперервність функції, диференціал)
– Базові терміни лінійної алгебри (вектор, матриця, її види, ранг, визначник)
– Базові терміни теорії ймовірності (визначення ймовірності, мат.очікування, дисперсія)
– Встановлення Python, надання рекомендацій щодо інтерпретатора
– Обчислення базових задач на Python за допомогою стандартних пакетів
Вступ 3. Теорія ймовірностей
Базові терміни теорії ймовірності (визначення ймовірності, мат.очікування, дисперсія)
Матриці. Основні поняття та операції
Ключові визначення, операція над матрицями, визначник, обернена матриця, обчислення власних значень і власних векторів, квадратичні форми.
Матричні розкладання
– Розкладання SVD і ALS
– Невід’ємні розкладання
– Заповнення пропусків у матрицях
Матричні похідні
– Матричні похідні
– Диференціальні рівняння в матрицях
Застосування лінійної алгебри в Data Science.
Класифікація даних з SVM і Logistic Regression
Застосування лінійної алгебри в Machine Learning.
Обробка зображень і лінійна алгебра
Математичний аналіз
Теорія множин
– Імовірнісні простори. Дискретний простір елементарних результатів
– Імовірність на числовій прямій і площині. Правило додавання та множення
Метричні простори.
– Поняття метричного простору.
– Визначення нормованого простору, поняття норми, відмінність від метрики, приклади нормованих просторів.
– Норма в оптимізації.
Теорія меж
– Визначення Коші.
– Визначення Піано.
– Обчислення меж функцій.
– Асимптотичні функції.
– Еквівалентні функції.
– Оцінка складності функції.
Диференціювання
– Диференційованість функції в точці. Часткові похідні та диференціали вищих порядків
– Градієнт. Матриця Гессе
Оптимізація
– Екстремуми функцій багатьох змінних
– Визначення точок локального та глобального мінімуму. Необхідна і достатня умова екстремуму для опуклих функцій.
– Поняття стаціонарних точок і відмінність у їх визначенні від точок екстремуму.
Метод найменших квадратів розібрати метод найменших квадратів.
Метод максимальної правдоподібності. Обговорити та зрозуміти ММП
Інтегрування
– Невизначений інтеграл.
– Визначений інтеграл
– Додатки визначеного інтеграла та наближені методи його обчислення.
– Невласні інтеграли. Подвійні інтеграли. Наближені методи інтегрування
Застосування Мат.аналізу в ML
– Лінійна регресія
– Логістична регресія – Логістична регресія
Теорія ймовірностей
Комбінаторика та Основи теорії ймовірностей
– Принцип Діріхле. Перестановки. Розміщення. Поєднання.
– Дослід і його результати. Простір елементарних подій. Імовірність події.
– Незалежність подій. Умовна ймовірність.
– Формули додавання та множення.
– Формули повної ймовірності та Байєса.
Випадкові величини
– Випадкова величина
– Дискретні та безперервні випадкові величини
– Закон розподілу випадкової величини та способи його опису
Дискретні та безперервні розподіли
– Функція розподілу та її властивості
– Розподіл Бернуллі
– Біноміальний розподіл
– Моделювання на Python дискретного розподілу (для задачі МонтеКарло)
Безперервні випадкові величини
– Основні закони розподілу та їхній фізичний зміст: біноміальний, пуасонівський, експоненціальний, рівномірний, гаусівський
– Комп’ютерне моделювання різних розподілів
Теореми – Випадкові послідовності та збіжність
– Теорема Пуассона для схеми Бернуллі
– Закон великих чисел (Чебишева, Бернуллі, Хінчіна)
– ЦПТ Локальна, ЦПТ Ліндеберга, ЦПТ Ляпунова
– Крапчасті оцінки та їхні властивості
Точкове та інтервальне оцінювання
– Асимптотична нормальність оцінок
– Довірчі інтервали. Принцип побудови довірчих інтервалів
Перевірка гіпотез
– Перевірка статистичних гіпотез. Формулювання гіпотез.
– Перевірка гіпотези про закон розподілу вибірки. Критерій згоди Пірсона.
– Перевірка гіпотези про незалежність двох номінальних ознак. Критерій хі-квадрат
Перевірка гіпотез. Частина 2
– Помилки I і II роду, рівень значущості.
– Статистичний критерій. Побудова довірчої та критичної областей. P-value
– Перевірка гіпотези про ймовірність успіху в схемі Бернуллі. Біноміальний критерій
Види залежностей
– Види залежностей випадкових величин: функціональна, причинно-наслідкова, статистична, кореляційна. Відмінності та зв’язок між ними.
– Умовні розподіли
Регресії – Лінійні, багатовимірні, логістичні регресії
– МНК, ММП, ММ
Метод головних компонент
– Визначення головних компонент, їх обчислення
– Зниження розмірності та добір ознак
– Застосування в задачах регресійного аналізу
Моделювання випадкових величин
– Random Walks, практичні методи
– Ймовірнісний класифікатор: Logistic
– Regression, Random Forest, Gradient Boosting
– Ймовірнісні Нейронні Мережі
Моделювання випадкових величин.Частина 2
– Random Walks, практичні методи
– Ймовірнісний класифікатор: Logistic
– Regression, Random Forest, Gradient Boosting
– Ймовірнісні Нейронні Мережі
Відгуки
Відгуків немає, поки що.