Язык преподавания в курсе – русский. Вскоре будет доступна украинская версия этого курса.
Видеозаписи лекций без обратной связи и участия преподавателя. Вы получите доступ к материалам сразу после оплаты.
Что даст Вам этот курс
Обычно математику в вузах преподают в отрыве от реальных задач, где она в дальнейшем будет применяться. Мы пошли другим путем. Каждый модуль профессионального курса сбалансирован математической теорией и практическими примерами, которые взяты из реальных кейсов. Вы будете решать задачу регрессии, проводить АБ-тестирование, работать над рекомендательной системой, использовать метод опорных векторов.
Для кого этот курс?
Для поступления нужно быть знакомым с основами математического анализа, линейной алгебры и теории вероятности. Курс подойдет всем, кто хочет развиваться в сфере Data Science. Он поможет вам освоить весь необходимый математический аппарат для решения задач на позиции Middle/Senior Data Scientist.
Зачем учить математику?
Профессия Data Scientist становится одной из самых перспективных и востребованных в IT. Средняя зарплата специалистов Data Science в России вдвое выше, чем у специалистов других IT-направлений – 190 тыс. руб. Основная сложность профессии – высокие требования к знаниям высшей математики. Уверенное владение математическим аппаратом позволяет повысить уровень компетенций и вырасти в профессиональном плане.
Продолжительность курса: 132 академических часа
1 Линейная алгебра
Введение. Математика в DataScience.
Понимание, что быть успешным Datascientist без знания математики, а главное без ее понимания, невозможно.
Введение 2. Основные термины и определения математического анализа, линейной алгебры и теории вероятностей
– Базовые термины матанализа (предел, непрерывность функции, дифференциал)
– Базовые термины линейной алгебры (вектор, матрица, ее виды, ранг, определитель)
– Базовые термины теории вероятности (определение вероятности, мат.ожидание, дисперсия)
– Установка Python, предоставление рекомендаций по интерпретатору
– Вычисление базовых задач на Python с помощью стандартных пакетов
Введение 3. Теория вероятностей
Базовые термины теории вероятности (определение вероятности, мат.ожидание, дисперсия)
Матрицы. Основные понятия и операции
Ключевые определения, операция над матрицами, определитель, обратная матрица, вычисление собственных значений и собственных векторов, квадратичные формы.
Матричные разложения
– Разложение SVD и ALS разложения
– Неотрицательные разложения
– Заполнение пробелов в матрицах
Матричные производные
– Матричные производные
– Дифференциальные уравнения в матрицах
Применение линейной алгебры в Data Science.
Классификация данных с SVM и Logistic Regression
Применение линейной алгебры в Machine Learning.
Обработка изображений и линейная алгебра
Математический анализ математический анализ
Теория множеств
– Вероятностные пространства. Дискретное пространство элементарных результатов
– Вероятность на числовой прямой и плоскости. Правило сложения и умножения
Метрические пространства.
– Понятие метрического пространства.
– Определение нормированного пространства, понятие нормы, отличие от метрики, примеры нормированных пространств.
– Норма в оптимизации.
Теория границ
– Определение Коши.
– Определение Пиано.
– Вычисление границ функций.
– Асимптотические функции.
– Эквивалентные функции.
– Оценка сложности функции.
Дифференцирование
– Дифференцируемость функции в точке. Частичные производные и дифференциалы высших порядков
– Градиент. Матрица Гессе
Оптимизация
– Экстремумы функций многих переменных
– Определение точек локального и глобального минимума. Необходимое и достаточное условие экстремума для выпуклых функций.
– Понятие стационарных точек и отличие в их определении от точек экстремума.
Метод наименьших квадратов разобрать метод наименьших квадратов.
Метод максимального правдоподобия. Обсудить и понять ММП
Интегрирование
– Неопределенный интеграл.
– Определенный интеграл
– Приложения определенного интеграла и приближенные методы его вычисления.
– Несобственные интегралы. Двойные интегралы. Приближенные методы интегрирования
Применение Мат.анализа в ML
– Линейная регрессия – Линейная регрессия
– Логистическая регрессия – Логистическая регрессия
Теория вероятностей
Комбинаторика и Основы теории вероятностей
– Принцип Дирихле. Перестановки. Размещение. Сочетание.
– Опыт и его результаты. Пространство элементарных событий. Вероятность события.
– Независимость событий. Условная вероятность.
– Формулы сложения и умножения.
– Формулы полной вероятности и Байеса.
Случайные величины
– Случайная величина
– Дискретные и непрерывные случайные величины
– Закон распределения случайной величины и способы его описания
Дискретные и непрерывные распределения
– Функция распределения и ее свойства
– Распределение Бернулли
– Биномиальное распределение
– Моделирование на Python дискретного распределения (для задачи МонтеКарло)
Непрерывные случайные величины
– Основные законы распределения и их физический смысл: биномиальный, пуасоновский, экспоненциальный, равномерный, гауссовский
– Компьютерное моделирование различных распределений
Теоремы – Случайные последовательности и сходимость
– Теорема Пуассона для схемы Бернулли
– Закон больших чисел (Чебышева, Бернулли, Хинчина)
– ЦПТ Локальная, ЦПТ Линдеберга, ЦПТ Ляпунова
– Краевые оценки и их свойства
Точечное и интервальное оценивание
– Асимптотическая нормальность оценок
– Доверительные интервалы. Принцип построения доверительных интервалов
Проверка гипотез
– Проверка статистических гипотез. Формулировка гипотез.
– Проверка гипотезы о законе распределения выборки. Критерий согласия Пирсона.
– Проверка гипотезы о независимости двух номинальных признаков. Критерий хи-квадрат
Проверка гипотез. Часть 2
– Ошибки I и II рода, уровень значимости.
– Статистический критерий. Построение доверительной и критической областей. P-value
– Проверка гипотезы о вероятности успеха в схеме Бернулли. Биномиальный критерий
Виды зависимостей
– Виды зависимостей случайных величин: функциональная, причинно-следственная, статистическая, корреляционная. Различия и связь между ними.
– Условные распределения
Регрессии – Линейные, многомерные, логистические регрессии
– МНК, ММП, ММ
Метод главных компонент
– Определение главных компонент, их вычисление
– Снижение размерности и отбор признаков
– Применение в задачах регрессионного анализа
Моделирование случайных величин
– Random Walks, практические методы
– Вероятностный классификатор: Logistic
– Regression, Random Forest, Gradient Boosting
– Вероятностные нейронные сети
Моделирование случайных величин.Часть 2
– Random Walks, практические методы
– Вероятностный классификатор: Logistic
– Regression, Random Forest, Gradient Boosting
– Вероятностные Нейронные Сети
Отзывы
Отзывов пока нет.