Russian Courses
Бесплатно

Теория вероятностей и статистика для машинного обучения и науки о данных (Курс 3)

Превью: 1.1. Введение в курс

Зарегистрируйтесь для доступа ко всем 99 урокам курса.

Выберите урок для просмотра

Содержание курса

Хотите смотреть этот курс?

Зарегистрируйтесь бесплатно, чтобы получить доступ ко всем урокам этого курса.

Регистрация Уже есть аккаунт? Войти
  • 1. 1.1. Введение в курс

  • 2. 1.3. Заметка о программировании

  • 3. 1.5. Что такое Probability

  • 4. 1.6. Введение в вероятность: Пример с кубиком 1

  • 5. 1.8. Дополнение вероятности

  • 6. 1.9. Сумма вероятностей

  • 7. 1.10. Сумма вероятностей (совместные события)

  • 8. 1.11. Независимость

  • 9. 1.12. Задача о днях рождения

  • 10. 1.13. Условная вероятность Часть 1

  • 11. 1.14. Условная вероятность. Часть 2

  • 12. 1.16. Теорема Байеса

  • 13. 1.17. Теорема Байеса и математическая формула

  • 14. 1.19. Теорема Байеса на примере спама

  • 15. 1.20. Теорема Байеса: априорное и апостериорное

  • 16. 1.21. Теорема Байеса и модель наивного Байеса

  • 17. 1.22. Вероятность в Machine Learning

  • 18. 1.22. Случайные переменные

  • 19. 1.23. Распределения вероятностей

  • 20. 1.24. Биномиальное распределение

  • 21. 1.25. Биномиальный коэффициент

  • 22. 1.26. Распределение Бернулли

  • 23. 1.27. Непрерывные распределения вероятностей

  • 24. 1.28. Функция плотности вероятности

  • 25. 1.29. Функция распределения

  • 26. 1.31. Равномерное распределение

  • 27. 1.32. Нормальное распределение

  • 28. 1.33. Распределение хи-квадрат

  • 29. 1.34. Выборка из распределения

  • 30. 1.42. Заключение

  • 31. 2.1. Математическое ожидание

  • 32. 2.2. Другие меры центральной тенденции

  • 33. 2.3. Мат. ожидание функции

  • 34. 2.4. Сумма математических ожиданий

  • 35. 2.5. Дисперсия

  • 36. 2.6. Стандартное отклонение

  • 37. 2.7. Пример суммы Гауссиан

  • 38. 2.8. Стандартизация распределения

  • 39. 2.10. Скос и Куртозис

  • 40. 2.11. Асимметрия и Куртозис

  • 41. 2.11. Скошенность и Куртозис

  • 42. 2.12. Квантилы и Box Plots

  • 43. 2.13. Визуализация данных: Box Plots

  • 44. 2.14. Визуализация данных с помощью Kernel Density Estimation

  • 45. 2.15. Визуализация данных: Violin Plots

  • 46. 2.16. Визуализация данных QQ-графики

  • 47. 2.18. Совместное распределение (дискретное)

  • 48. 2.19. Совместное распределение (дискретное) Часть 2

  • 49. 2.20. Совместное распределение (непрерывное)

  • 50. 2.21. Маргинальное и условное распределение

  • 51. 2.22. Условное распределение

  • 52. 2.23. Ковариация в наборе данных

  • 53. 2.24. Ковариация вероятностного распределения

  • 54. 2.25. Ковариационная матрица

  • 55. 2.26. Коэффициент корреляции

  • 56. 2.28. Многомерное гауссово распределение

  • 57. 2.33. Заключение

  • 58. 3.1. Выборка и популяция

  • 59. 3.2. Среднее значение, пропорция и дисперсия

  • 60. 3.3. Выборочная доля

  • 61. 3.4. Выборочная дисперсия

  • 62. 3.5. Закон больших чисел

  • 63. 3.6. Центральная предельная теорема

  • 64. 3.7. Центральная предельная теорема для непрерывной случайной величины

  • 65. 3.10. Точечная оценка

  • 66. 3.11. Мотивация метода максимального правдоподобия

  • 67. 3.12. Пример MLE Бернулли

  • 68. 3.13. Пример метода максимального правдоподобия для Гауссиана

  • 69. 3.16. МЛЭ Регрессия

  • 70. 3.17. Регуляризация

  • 71. 3.18. Вернемся к основам Байеса

  • 72. 3.19. Фреквентисты против Бэйесианцев

  • 73. 3.20. Обновление ваших убеждений

  • 74. 3.21. Байесовская статистика и обновление априорных данных

  • 75. 3.22. Байесовская статистика: пример с распределением Бернулли

  • 76. 3.23. Связь между MAP, MLE и регуляризацией

  • 77. 3.24. Итог недели 3

  • 78. 4.1. Доверительный интервал (известное стандартное отклонение)

  • 79. 4.2. Интуиция доверительного интервала

  • 80. 4.3. Доверительные интервалы и погрешность

  • 81. 4.5. Шаги расчета доверительных интервалов

  • 82. 4.6. Интервалы доверия - пример

  • 83. 4.7. Расчёт объёма выборки

  • 84. 4.8. Разница между уверенностью и вероятностью

  • 85. 4.9. Доверительный интервал (неизвестное стандартное отклонение)

  • 86. 4.10. Доверительные интервалы для доли

  • 87. 4.12. Формулировка гипотез

  • 88. 4.13. Ошибки первого и второго рода

  • 89. 4.14. Правосторонний, левосторонний и двусторонний

  • 90. 4.15. Проверка гипотез

  • 91. 4.16. Критические значения

  • 92. 4.17. Мощность теста

  • 93. 4.18. Интерпретация результатов

  • 94. 4.19. T-распределение

  • 95. 4.20. Тесты

  • 96. 4.21. Двухвыборочный T-тест

  • 97. 4.23. Парный t-тест

  • 98. 4.24. Применение ML: AB-тестирование

  • 99. 4.29. Заключение

Скачать курс по Машинное обучение. Теория вероятностей и статистика для машинного обучения и науки о данных (Курс 3)

Нужен архив курса целиком?

Мы отправим ссылку на полный архив с оригиналом, переводом и материалами. Просто напишите администратору info@russiancourses.net и укажите, что именно нужно (можем поделиться вариантами отдельно).

Пропущены номера уроков?

Если в нумерации есть паузы, значит часть занятий текстовые или в виде файлов. Их можно найти в разделе «Материалы курса»: скачайте архив, чтобы получить все конспекты и дополнительные задания.

Категория

Машинное обучение

Длительность

8 ч 25 мин

Уроки

99 уроков

О курсе

Освойте вероятности и статистику — ключевые инструменты анализа данных и машинного обучения 📊

Probability and Statistics for Machine Learning & Data Science — третий курс программы Mathematics for Machine Learning and Data Science от DeepLearning.AI под руководством Луиса Серрано. Этот курс поможет вам научиться описывать неопределённость, анализировать данные и оценивать качество моделей машинного обучения через призму статистики и теории вероятностей.
Вы научитесь:

  • 🎲 Описывать и количественно измерять неопределённость в прогнозах моделей машинного обучения с помощью понятий вероятности, случайных величин и распределений
  • 📈 Визуально и интуитивно понимать свойства часто используемых распределений: Бернулли, биномиального и нормального (гауссовского)
  • 📊 Применять статистические методы, такие как оценка максимального правдоподобия (MLE) и максимизация априорной вероятности (MAP)
  • ⚙️ Оценивать производительность моделей с помощью доверительных интервалов и погрешностей
  • 🧪 Применять методы статистических гипотез к популярным тестам в data science, например A/B-тестированию
  • 🔍 Проводить исследовательский анализ данных (EDA) для выявления и подтверждения закономерностей в наборах данных
Почему этот курс важен:

Без прочного понимания вероятности и статистики невозможно построить надёжные модели. Эти инструменты лежат в основе всех методов машинного обучения — от анализа распределений до оценки точности моделей. Курс научит вас использовать их интуитивно и осознанно, применяя в реальных задачах.
Вы освоите:

  • 📊 Основы вероятностного моделирования и анализа данных
  • 🧮 Методы статистической оценки и проверки гипотез
  • 🐍 Реализацию статистических моделей на Python
  • 📉 Интерпретацию и визуализацию результатов экспериментов
Курс включает:

  • 🎓 4 модуля, обновлённые в 2024 году
  • 💻 Лабораторные упражнения на Python с использованием библиотек машинного обучения
  • 🧠 Простые визуализации, объясняющие ключевые идеи статистики
  • 📜 Сертификат, подтверждающий практические знания в анализе данных
Рекомендуется: иметь школьные знания по алгебре и функциям, а также базовые навыки программирования (циклы, условия, структуры данных). Все задания выполняются в Python и сопровождаются пояснениями по используемым библиотекам.
Итог: после прохождения курса вы будете понимать, как использовать вероятности и статистику для оценки, улучшения и интерпретации моделей машинного обучения, а также уверенно применять эти методы в реальных аналитических проектах.
Назад к бесплатным курсам