Математический анализ для машинного обучения и науки о данных (Курс 2)
Превью: 1.1. Введение в курс
Зарегистрируйтесь для доступа ко всем 60 урокам курса.
Выберите урок для просмотра
Содержание курса
Хотите смотреть этот курс?
Зарегистрируйтесь бесплатно, чтобы получить доступ ко всем урокам этого курса.
Регистрация Уже есть аккаунт? Войти-
1. 1.1. Введение в курс
-
2. 1.2. Заметка о программировании
-
3. 1.4. Мотивация к изучению Machine Learning
-
4. 1.5. Введение в Деривативы
-
5. 1.6. Производные и касательные
-
6. 1.7. Наклоны, Максимумы и Минимумы
-
7. 1.10. Обозначение производной
-
8. 1.11. Некоторые общие производные и прямые
-
9. 1.12. Некоторые общие производные и квадратичные функции
-
10. 1.13. Некоторые общие производные и многочлены высокой степени
-
11. 1.14. Некоторые общие производные и другие степени функций
-
12. 1.16. Обратная функция и её производная
-
13. 1.17. Производная тригонометрических функций
-
14. 1.18. Суть экспоненциальной функции E
-
15. 1.19. Производная e в степени x
-
16. 1.20. Производная от логарифма X
-
17. 1.21. Существование производной
-
18. 1.22. Свойства производной и умножение на скаляр
-
19. 1.23. Свойства производной: правило суммы
-
20. 1.24. Свойства производной: правило произведения
-
21. 1.25. Свойства производной и правило цепочки
-
22. 1.29. Введение в оптимизацию
-
23. 1.30. Оптимизация квадратного отклонения: задача одной линии электропередачи
-
24. 1.31. Оптимизация квадратных потерь: задача трёх линий электропередач
-
25. 1.31. Оптимизация квадратичных потерь: задача двух линий электропередач
-
26. 1.32. Оптимизация Log Loss. Часть 1
-
27. 1.33. Оптимизация Log Loss часть 2
-
28. 1.38. Заключение
-
29. 2.1. Касательные плоскости
-
30. 2.2. Частные производные Часть 1
-
31. 2.3. Частные производные, часть 2
-
32. 2.4. Градиенты
-
33. 2.5. Градиенты и Максима Минима
-
34. 2.6. Оптимизация с градиентами: пример
-
35. 2.7. Оптимизация с помощью градиентов: аналитический метод
-
36. 2.10. Оптимизация с помощью градиентного спуска в одномерном случае. Часть 1
-
37. 2.11. Оптимизация с использованием Gradient Descent для одной переменной, часть 2
-
38. 2.12. Оптимизация с использованием градиентного спуска в одной переменной Часть 3
-
39. 2.14. Оптимизация с помощью градиентного спуска в двух переменных Часть 1
-
40. 2.15. Оптимизация методом градиентного спуска для двух переменных. Часть 2
-
41. 2.17. Оптимизация с помощью градиентного спуска и метода наименьших квадратов
-
42. 2.18. Оптимизация с использованием градиентного спуска. МНК с множественными наблюдениями
-
43. 2.21. Заключение
-
44. 3.1. Регрессия с Перцептроном
-
45. 3.2. Регрессия с функцией потерь персептрона
-
46. 3.3. Регрессия с Перцептроном и Градиентным Спуском
-
47. 3.5. Классификация с Перцептроном
-
48. 3.6. Классификация с перцептроном. Сигмоидальная функция
-
49. 3.7. Классификация с перцептроном и градиентным спуском
-
50. 3.8. Классификация с перцептроном, вычисление производных
-
51. 3.10. Классификация с нейронной сетью
-
52. 3.11. Классификация с использованием нейронной сети и минимизация Log Loss
-
53. 3.12. Градиентный спуск и обратное распространение
-
54. 3.14. Метод Ньютона
-
55. 3.15. Метод Ньютона: пример
-
56. 3.16. Вторая производная
-
57. 3.18. Гессиан
-
58. 3.19. Гессианы и выпуклость
-
59. 3.20. Метод Ньютона для переменных
-
60. 3.25. Заключение
Скачать курс по Машинное обучение. Математический анализ для машинного обучения и науки о данных (Курс 2)
Нужен архив курса целиком?
Мы отправим ссылку на полный архив с оригиналом, переводом и материалами. Просто напишите администратору info@russiancourses.net и укажите, что именно нужно (можем поделиться вариантами отдельно).
Пропущены номера уроков?
Если в нумерации есть паузы, значит часть занятий текстовые или в виде файлов. Их можно найти в разделе «Материалы курса»: скачайте архив, чтобы получить все конспекты и дополнительные задания.
Категория
Машинное обучение
Длительность
4 ч 21 мин
Уроки
60 уроков
materials.zip
О курсе
- 🔢 Аналитически оптимизировать функции, используемые в машинном обучении, с помощью свойств производных и градиентов
- ⚙️ Приближённо оптимизировать функции, применяя градиентный спуск и метод Ньютона
- 📊 Визуально интерпретировать процесс дифференцирования различных типов функций
- 🧠 Выполнять градиентный спуск в нейронных сетях с разными функциями активации и стоимости
- 🧮 Оптимизации функций
- 📈 Понимании градиентных методов и их геометрической интерпретации
- 🐍 Программировании и математическом моделировании на Python
- 🔍 Анализе поведения нейронных сетей и их функций потерь
- 🎓 3 модуля обучения с обновлённым контентом 2024 года
- 💻 Практические лабораторные задания на Python
- 📉 Визуализации, помогающие интуитивно понять, как работает оптимизация
- 📜 Сертификат, подтверждающий ваши навыки в области прикладной математики
Источник
Открыть источник