Основы машинного обучения: создание моделей ИИ экспертного уровня
Оригинал: Machine Learning Foundations: Build Expert-Level AI Models
Скачать курс по Машинное обучение. Основы машинного обучения: создание моделей ИИ экспертного уровня
Нужен архив курса целиком?
Мы отправим ссылку на полный архив с оригиналом, переводом и материалами. Просто напишите администратору info@russiancourses.net и укажите, что именно нужно (можем поделиться вариантами отдельно).
Пропущены номера уроков?
Если в нумерации есть паузы, значит часть занятий текстовые или в виде файлов. Их можно найти в разделе «Материалы курса»: скачайте архив, чтобы получить все конспекты и дополнительные задания.
Превью: 001. Реальные примеры использования Python
Превью: 001. Реальные примеры использования Python
Это первый урок курса "Основы машинного обучения: создание моделей ИИ экспертного уровня". Зарегистрируйтесь и оформите подписку для доступа ко всем 140 урокам.
Раздел
О курсе на русском языке
- 🧠 Писать чистый и эффективный код на Python для анализа данных и ML-задач
- 📊 Понимать ключевые статистические концепции для интерпретации данных
- 🧪 Проводить проверку гипотез для обоснования бизнес-решений
- 📈 Анализировать и визуализировать данные современными инструментами
- 🧹 Очищать и подготавливать реальные данные к использованию
- 🤖 Строить, оценивать и оптимизировать модели машинного обучения
- 🎓 Последовательное обучение Python для задач анализа данных и ИИ
- 📐 Модули по статистике и аналитическому мышлению
- 🛠 Практические задания по анализу, визуализации и очистке данных
- 🤖 Построение, обучение и оценка моделей машинного обучения
Сводка
Информация о курсе
-
1. 001. Реальные примеры использования Python
RU -
2. 002. Установка Anaconda для Windows и Mac OS
-
3. 003. Введение в переменные
-
4. 004. Введение в типы данных и преобразование типов
-
5. 005. Область видимости переменных
-
6. 006. Введение в операторы
-
7. 008. Введение в Lists и Tuples
-
8. 009. Введение в множества и словари
-
9. 010. Введение в Stacks и Queues
-
10. 011. Введение в сложность по времени и памяти
-
11. 012. Введение в алгоритмы сортировки
-
12. 013. Введение в алгоритмы поиска
-
13. 015. Введение в параметры и аргументы
-
14. 016. Введение в модули Python
-
15. 017. Введение в функции Filter, Map и Zip
-
16. 018. Введение в списки, множества и словарные включения
-
17. 019. Введение в лямбда-функции
-
18. 020. Введение в аналитические и агрегатные функции
-
19. 022. Введение в Strings
-
20. 023. Введение в важные функции строк
-
21. 024. Введение в форматирование строк и ввод пользователя
-
22. 025. Введение в метасимволы
-
23. 026. Введение в встроенные функции для регулярных выражений
-
24. 027. Специальные символы и наборы для регулярных выражений
-
25. 029. Введение в условные операторы
-
26. 030. Введение в For Loops
-
27. 031. Введение в циклы While
-
28. 032. Введение в Break и Continue
-
29. 033. Использование условных операторов в циклах
-
30. 034. Вложенные циклы и условные операторы
-
31. 036. Введение в концепцию ООП
-
32. 037. Введение в наследование
-
33. 038. Введение в Encapsulation
-
34. 039. Введение в полиморфизм
-
35. 040. Введение в класс Date и Time
-
36. 041. Введение в класс Time Delta
-
37. 043. Введение в статистику и её значение
-
38. 044. Роль статистики в анализе данных
-
39. 045. Введение в Python для статистического анализа
-
40. 047. Типы данных
-
41. 048. Показатели центральной тенденции
-
42. 049. Меры разброса
-
43. 050. Меры зависимости
-
44. 051. Меры формы и положения
-
45. 052. Меры стандартных баллов
-
46. 054. Введение в основы вероятности
-
47. 055. Введение в теорию множеств
-
48. 056. Введение в условную вероятность
-
49. 057. Введение в Теорему Байеса
-
50. 058. Введение в перестановки и комбинации
-
51. 059. Введение в случайные величины
-
52. 060. Введение в функции распределения вероятностей
-
53. 062. Введение в нормальное распределение
-
54. 063. Введение в асимметрию и куртозис
-
55. 064. Введение в статистические преобразования
-
56. 065. Введение в выборочные и генеральные средние
-
57. 066. Введение в теорему Центрального предела
-
58. 067. Введение в Bias и Variance
-
59. 068. Введение в метод максимального правдоподобия
-
60. 069. Введение в доверительные интервалы
-
61. 070. Введение в корреляции
-
62. 071. Введение в методы выборки
-
63. 073. Основы проверки гипотез
-
64. 074. Введение в T-тесты
-
65. 075. Введение в Z-тесты
-
66. 076. Введение в тестыхи-квадрат
-
67. 077. Введение в ANOVA тесты
-
68. 079. Введение в массивы Numpy
-
69. 080. Введение в операции с Numpy
-
70. 081. Введение в Pandas
-
71. 082. Введение в Series и DataFrames
-
72. 083. Чтение данных CSV и JSON с помощью Pandas
-
73. 084. Анализ данных с помощью Pandas
-
74. 086. Индексация, срезы и фильтрация данных
-
75. 087. Слияние и конкатенация в Pandas
-
76. 088. Корреляция и построение графиков с использованием Pandas
-
77. 089. Введение в функции Lambda, Map и Apply
-
78. 090. Введение в группировочные операции с Pandas
-
79. 091. Введение в кросс-табуляцию с использованием Pandas
-
80. 092. Введение в фильтрацию данных с помощью Pandas
-
81. 093. Интерактивные операции группировки и фильтрации
-
82. 095. Факторы хорошей визуализации данных
-
83. 096. Введение в унивариативную визуализацию данных
-
84. 097. Введение в двумерные визуализации данных
-
85. 098. Построение двух категориальных переменных
-
86. 099. Введение в многомерные визуализации данных
-
87. 100. Введение в Heatmaps и Pairplots
-
88. 102. Цветовые градиенты, фасетные сетки и подграфики
-
89. 103. Введение в визуализацию 3D данных
-
90. 104. Введение в интерактивную визуализацию данных
-
91. 105. Введение в карты с использованием Plotly
-
92. 106. Введение в воронки и диаграммы Ганта с использованием Plotly
-
93. 107. Введение в анимированные визуализации данных с использованием Plotly
-
94. 109. Причины и влияние отсутствующих значений
-
95. 110. Типы отсутствующих значений
-
96. 111. Когда удалять пропущенные значения из данных
-
97. 112. Заполнение пропущенных значений статистическими методами
-
98. 113. Заполнение пропусков с бизнес-логикой
-
99. 114. Влияние выбросов на ML модели
-
100. 115. Работа с выбросами в данных
-
101. 116. Введение в Label и Ordinal Encoding
-
102. 117. Введение в двоичное и N-ичное кодирование
-
103. 118. Введение в Target Encoding
-
104. 119. Введение в функции Reindex, Set Index, Reset Index и Sort Index
-
105. 120. Введение в функции Replace и Droplevel
-
106. 121. Введение в функции Split и Strip
-
107. 122. Введение в функции Stack и Unstack
-
108. 123. Введение в функции Melt, Explode и Squeeze
-
109. 124. Введение в функции At Time и Between Time
-
110. 125. Введение в функции Nlargest и Nsmallest
-
111. 126. Как удалить ненужные столбцы
-
112. 127. Декомпозиция функций даты и времени
-
113. 128. Декомпозиция категориальных признаков
-
114. 129. Биннинг числовых признаков
-
115. 130. Агрегация Features
-
116. 131. Как индустрии используют Machine Learning
-
117. 132. Классификация vs Регрессия
-
118. 133. Преобразование данных с помощью линейной регрессии
-
119. 134. K-блочная кросс-валидация
-
120. 135. Анализ производительности модели регрессии
-
121. 136. Понимание R2 и скорректированного R2
-
122. 137. MAE, RMSE, R2 и скорректированный R2 в коде
-
123. 138. Значимость линейной регрессии в индустрии
-
124. 139. Что такое регуляризация и почему это важно
-
125. 140. Интуиция Lasso, Ridge и Elastic Net
-
126. 141. Применение Lasso, Ridge и Elastic Net в Sklearn
-
127. 142. Введение в логистическую регрессию
-
128. 143. Реализация логистической регрессии с помощью Sklearn
-
129. 144. Выбор признаков с использованием RFE-CV
-
130. 145. Настройка гиперпараметров с использованием Grid Search
-
131. 146. Применение кросс-валидации
-
132. 147. Использование Accuracy Score для анализа производительности модели
-
133. 148. Применимость логистической регрессии в индустрии
-
134. 149. Ядро и трюки для SVM
-
135. 150. Реализация Support Vector Machines с использованием Sklearn
-
136. 151. Введение в K ближайших соседей
-
137. 152. Реализация K ближайших соседей с использованием Sklearn
-
138. 153. Введение в Наивный и Гауссов Наивный Байесовский алгоритм
-
139. 154. Реализация Наивного Байеса с использованием Sklearn
-
140. 155. Когда применять алгоритмы SVM, KNN, Naive Bayes