![Прикладная статистика](/img/default-banner.jpg)
- 346
- 434 127
Прикладная статистика
Registrace 9. 10. 2022
Video
Временные ряды 9.5 Сезонность сложной структуры в R
zhlédnutí 135Před 10 měsíci
Временные ряды 9.5 Сезонность сложной структуры в R
Временные ряды 9.4 Сравнение прогнозов: RC и SPA тесты
zhlédnutí 126Před 10 měsíci
Временные ряды 9.4 Сравнение прогнозов: RC и SPA тесты
Временные ряды 9.3 Сравнение прогнозов, DMтест
zhlédnutí 103Před 10 měsíci
Временные ряды 9.3 Сравнение прогнозов, DMтест
Временные ряды 9.2 Данные прерывающиеся нулями
zhlédnutí 124Před 10 měsíci
Временные ряды 9.2 Данные прерывающиеся нулями
Временные ряды 9.1 Много сезонных составляющих
zhlédnutí 509Před 10 měsíci
Временные ряды 9.1 Много сезонных составляющих
Временные ряды 8.9 Обнаружение структурного сдвига в R
zhlédnutí 124Před 10 měsíci
Временные ряды 8.9 Обнаружение структурного сдвига в R
Временные ряды 8.8 Обнаружение выборосов в R
zhlédnutí 95Před 10 měsíci
Временные ряды 8.8 Обнаружение выборосов в R
Временные ряды 8.7 заполнение пропусков в R
zhlédnutí 113Před 10 měsíci
Временные ряды 8.7 заполнение пропусков в R
Временные ряды 8.6 L6 Оценивание эффекта воздействия
zhlédnutí 68Před 10 měsíci
Временные ряды 8.6 L6 Оценивание эффекта воздействия
Временные ряды 8.5 Структурная модель как конструктор
zhlédnutí 108Před 10 měsíci
Временные ряды 8.5 Структурная модель как конструктор
Временные ряды 8.3 Обнаружение структурного сдвига
zhlédnutí 130Před 10 měsíci
Временные ряды 8.3 Обнаружение структурного сдвига
Временные ряды 8.1 Пропуски, аномалии и структурные сдвиги
zhlédnutí 357Před 10 měsíci
Временные ряды 8.1 Пропуски, аномалии и структурные сдвиги
Временные ряды 7.9 регрессия с ARMA ошибками
zhlédnutí 90Před 10 měsíci
Временные ряды 7.9 регрессия с ARMA ошибками
Временные ряды 7.8 Дневные данные, ARIMA и тригонометрические предикторы
zhlédnutí 75Před 10 měsíci
Временные ряды 7.8 Дневные данные, ARIMA и тригонометрические предикторы
Временные ряды 7.7 собираем предикторы и оцениваем лес/бустинг в R
zhlédnutí 111Před 10 měsíci
Временные ряды 7.7 собираем предикторы и оцениваем лес/бустинг в R
Временные ряды 7.6 Оценка двух эффектов
zhlédnutí 69Před 10 měsíci
Временные ряды 7.6 Оценка двух эффектов
Временные ряды 7.5 ARIMA и предикторы
zhlédnutí 127Před 10 měsíci
Временные ряды 7.5 ARIMA и предикторы
Временные ряды 7.2 У нас ещё есть время
zhlédnutí 69Před 10 měsíci
Временные ряды 7.2 У нас ещё есть время
Временные ряды 7.1 Как обойтись без ARIMA и ETS
zhlédnutí 304Před 10 měsíci
Временные ряды 7.1 Как обойтись без ARIMA и ETS
Временные ряды 6.9 Алгоритм Хандакара Хиндмана
zhlédnutí 65Před 10 měsíci
Временные ряды 6.9 Алгоритм Хандакара Хиндмана
Не могли бы вы пояснить, что означает выражение: вероятностная масса справа будет компенсироваться интервалом слева? Не совсем понятно почему правый край надо брать = 1?
почему дисперсия считается не как x среднее минус Xi, а просто сложением всех Xi?
Спасибо !
чезабретто
Спасибо за пример вначале - очень наглядно
Непонятно, почему ЦПТ не работает на "Польском ЕГЭ". На графике вы показываете "нарушенное" биномиальное распределение и говорите, что оно должно быть похоже на нормальное. По свойствам биномиального распределения это верное утверждение. Но это не то же самое, что говорит ЦПТ: по ЦПТ выборочное среднее сходится к нормальному (а на графике было не выборочное среднее, а индивидуальные результаты). Таймкод 11:05
Thank you!!!
plt.hist((x_1 + x_2 +x_3+x_4+x_5+x_6+x_7+x_8)/((8**(1/2))*0.577), bins = 100, density = True) нужно же делить на корень(n)*среднекв_откл n = 8 (допустим) 0.577 -- среднеквадратичное отклонение для равномерного распределения от -1 до 1 и тогда действительно наблюдается сходимость а в видео автор просто суммирует случайные величины, а не использует цпт полностью, и там не будет хорошей сходимости, если просто считать суммы, то они будут все время ниже плотности стандартного нормального распределения
У Томаса Байеса даже год рождения : случайная величина. Статистик от Б - га !
Спасибо за видео! Все рассказано простыми и понятными словами.
А где доказательство?
Добавляйте ссылке под видео, а не в самом видео.
4:20 не понимаю, если подставлять вместо сигма квадрат дисперсию, то в нормальном распределении будет p * (1 - p) / n^2 же? Почему то в лекции делят на n без квадрата
Если убрать все p^ становится понятнее. Все X1, ..., Xn ~ Bern(p) имеют распределение Бернулли с параметром p. Для нее определена дисперсия случайной величины, Var(X) = σ^2 = p(1-p). И среднее X_ имеет асимптотическое распределение N(μ, σ^2/n) = N(p, p(1-p)/n). В слайде p^ уже равна X_ среднее, для которого E(p^) = p, Var(p^) = p(1-p)/n. И p^ ~ N(E(p^), Var(p^)) = N(p, p(1-p)/n). Т.е. Var(p^) и σ^2 это дисперсии разных величин, p^ и X.
то что я искал
спасибо за детство😭😭😭😭😭😭
А можно ссылку на эту лекцию?
Какой смысл упоминать тетрадку и не прикладывать её? Если это реклама, то так прямо и говорите - полный курс с ноутбуками стоит столько-то. Если не реклама, то выкладывайте ноутбуки.
А где бы взять код на питоне?
так что там с Жорой?
Спасибо 🙏
можно побольше руками размахивать
Можно, размахивай сколько влезет. Вроде никто не запрещал
Спасибо! Все по существу. Некоторые нюансы я не знал, и при прогнозировании временных рядов с помощью градиентного бустинга использовал специальную кросс-валидации без перемешивания
Классные лекции! Спасибо
Блин, только на этом ролике заметил, что в плейлисте уроки не отсортированы
Как же всë понятно!!! Спасибо за ролик!
Почему s = 5?
4:17 по идее должен быть следующий промежуток для K(z): K(z) = [-(1/2) <= z < 1/2], то есть равно должно быть слева, возле -(1/2), а не справа, как на доске
можно отзеркалить видео, и будете писать слева направо
06:55 - переливание краски из одной банки в другую это НЕ Гауссовская операция, т.к. меняется количество краски в банке-источнике. Гауссовскими операциями уменьшить ранг матрицы действительно нельзя, а вот операциями типа переливание можно. Например, если бы количество краски в каждой банке было бы не 0.8, а например, 0.2, то можно было бы перелить всю краску в одну банку и ранг матрицы уменьшился бы от 4 до 1. Поэтому итоговый вывод на 08:00 неверен.
Когда мы из банки А переливаем в Б, то мы к Б добавляем некоторый процент x банки А, а вот банка A при этом уменьшается на этот процент, то есть умножается на коэффициент (1-x). Заметим, что мы никогда не сможешь полностью опустошить никакую банку, а значит (1-х) никогда не равен 0. По итогу мы к одной строке прибавляем другую умноженную на некоторый коэффициент и так же умножаем строку ту строку на ненулевой коэффициент, а значит все законно
Спасибо!
Прекрасное объяснение!
Спасибо за лекцию
Супер! Спасибо за объяснение!
2:40. Вектор вида (0, x, 0, -x) тоже подойдет. Лямбда будет -1.
Не понял фразу "Сумма большого числа случайных величин имеет распределение близкое к нормальному". Сумма величин имет распределение? Это как? Или я чего-то не понимаю
случайная величина есть функция
Сумма случайных величин - это тоже случайная величина. Вы верно поняли.
@@ivanpetrov521 Я к тому, что распределение может иметь только группа значений. И распределение может иметь некоторый набор сумм, но не одна какая-то одна сумма. Меня это смутило.
@@siddorblue2207 Ну, говорят и так и так. Но у нас термин "случайная величина" предполагает отображение исходов в числа, но не одно конкретное число. Да, иногда при анализе выборки говорят "сумма случайных величин равна 123", но реально имеют в виду "сумма реализация случайных величин", т.е. сумму конкретных чисел. Правильней под суммой случайных величин понимать сумму отображений, т.е. ещё не реализовавшихся исходов. В таком случае сумма случайных величин тоже случайная величина.
@@siddorblue2207 проще говоря, "случайная величина" это такой кот шредингера. Мы не знаем, чему она равна, пока эксперимент не проведём. А когда проведём эксперимент, она превращается из случ.величины в наблюдение. Поэтому при сумме случайных величин получается снова кот шредингера.
Если проверяется гипотеза, что вероятность смертей Старков совпадает с остальными, то тогда нужно писать: H0: pS = pL; pS=pG; pS=pNW
Объясните, пожалуйста, почему тут используется запись "X = k"? k - это какое-то конкретное значение X или какие-то возможные значения из X? Почему используется именно k, а не x?
круто
лайк
лайк
ничего не понятно
Не понял в чём проблема зефирного теста. То что дети из богатых семей лучше справляются с зефирным тестом чем дети из бедных, никак не отрицает результаты первого эксперимента. Там обе группы как раз таки были однородные, все из успешных семей. Те кто не умел сдерживаться в дальнейшем добились худших результатов в жизни.
А откуда взялись а1, а2 и а3? Что это такое?
нихера непонятно. используется материал, который не объяснялся
Спасибо!
на 10-й минуте ошиблка в арифметике - z_obs = 10/sqrt(29) = 1.86 а не 1.76
Переписал функцию на более общий вид, мб кому-то пригодится def mat_stat(*args, **kwargs): try: df = args[0] match kwargs.get('ddof'): case 0: ddof = 0 case _: ddof = 1 xm, ym = [df[i].mean() for i in df] xsd, ysd = [df[i].std(ddof=ddof) for i in df] pc = df.corr().x.y return [xm, ym, xsd, ysd, pc] except IndexError as ie: print(f'Ошибка {ie}: укажите аргументы функции')
Добрый день! А если тестируемых групп не 2, а , например, 3, это же тоже должно влиять на объем выборки. Этот параметр можно где-то учесть в данных методиках расчета?
почему видео начинается со скримера...
Все просто супер