Was ist der Maximum Likelihood Schätzer der Poisson-Verteilung? 💡
Vložit
- čas přidán 13. 07. 2024
- Wir bestimmen in diesem Video den #Maximum #Likelihood Schätzer für die #Poisson Verteilung.
📚 loelschlaeger.de/statistik-mi...
0:00 Die allgemeine Vorgehensweise
3:10 Die Poisson-Verteilung
4:00 Der Maximum Likelihood Schätzer der Poisson Verteilung
8:00 Ein Beispiel
9:45 Eine abschließende Frage
Hab nicht mit einem so qualitativem Video gerechnet! Sehr gut erklärt. Vielen Dank!
Vielen Dank! 180 Min Vorlesung und ein großes Rätzel - 12:30 Min Video von dir und alles war klar.
Warum sind Profs immer so schlecht im Erklären?
@@D3rMesaa Die besten Lehrer sind nur paar Steps vor dir
Rätsel schreibt man mit s
Vielen Dank, hervorragend erklärt!
Sehr gut! Kurz und knapp, sofort auf den Punkt gebracht!
Ich kann gar nicht sagen wie sehr du mir mit den Videos zum ML wahrscheinlich grade den Pöter rettest. VIELEN DANK
Einfach verdammt tolle Videos die du hier machst. Vielen Dank!!
Toll-Danke-bin sehr dankbar für dieses Video
Sehr gut und prägnant erklärt, danke! :)
Als ich konkretes Beispiel gehört habe, war ich sehr erfreut!
Top, alles super erklärt! Danke
Echt große Hilfe! Danke
Super erklärt, Lennart!
echt super Video, vielen Dank!
I'm in love xD
Und danke für das mega Video
Also deine Videos sind mit die besten erklärten ganzheitlichsten Videos. top
Jedes Mal komme ich wieder zu diesen Videos zurück, weil ich einfach weiß: "es gab diese Videos auf CZcams von Lennart zu ML, mit denen versteh ich das Thema". Jedes Mal wieder eine Große Hilfe☺️👍🏼
Danke. War total super. Du hättest bei beim Ableiten und auch beim = 0 setzen noch eine Zeile dazwischen machen können, was der zwischenschritt ist. Aber hab recherchiert und konnte es nun selber nachvollziehen... Und jetzt hab ich das komplettset. Und vorallem check ich die MaximumLikelihood jetzt. THX
Tolle Darstellung, danke!!!
Endlich mal Videos zu dem Thema auf deutsch. :)
super erklärt, danke!
Sofort gesubbed! Echte qualitative Videos!
Danke schön Für Die Erklärung
Bereite mich gerade auf die stochastische Zulassungsprüfung für die Aktuars-Ausbildung ohne Seminar in Autodidaktik vor (danke corona), und deine Erklärung hat mir sehr geholfen, danke!
vielen dank , das hat uns viel geholfen ..
So gut. Vielen Dank!
Sehr gutes Video!
super gutes video, didaktisches gold.
kannst du vielleicht ein Video zur Momentenmethode machen?
Gutes, anschauliches Video ansonsten!
Deine Videos sind super! Kannst du evtl. noch ein Video mit Erklärung und Beispielen zur Bayes'schen Methode (mit zum Beispiel apriori exponential verteiltem Alpha) und zur Dichte, Randverteilungen und bedingter Dichte machen?
du bist mein Held
Hi, coole Videos 👍🏼. Kannst du mal was zu linearer Regression machen ?
Hallo, vielen Dank für dieses Video. Könntest du mir aber erklären, wieso im 2. Schritt bei der Logarithmierung der Likelihood Funktion in der untersten Zeile (beim Zusammenfassen) das n da ist?
Ehrenmann!
Richtig gut! Muss man aber nicht noch die zweite Ableitung bzw. die Hessematrix betrachten für die hinreichende Bedingung?
Hi Lennart, kannst du einmal erläutern, warum es hier und auch generell in der induktiven Statistik so wichtig ist, Unabhängigkeit anzunehmen?
Ich habe eine Dichtefunktion mit f(x) = a·k^a ·x(−a−1) gegeben und soll darauf Maximum-Likelihood anwenden, um a zu schätzen. Ich weiß aber absolut nicht, von welcher Art diese Funktion ist und weiß somit auch die Wahrscheinlichkeitsverteilung nicht, die ich für die Likelihood-Funktion brauche. Hast du da eine Idee? :(
warum fällt bei der Ableitung der letzte Teil (ln x!) weg, aber der davor bleibt? Hab grad ein Brett vor dem Kopf..
Du hast echt viel mehr Abonnenten verdient, danke für das Video!
weil der letzte Teil kein Lambda beinhaltet.
Edit: Man leitet ja nach lambda ab
Deine Videos sind echt super, vielen Dank!
Du könntest nicht zufällig eins zum Stetigkeitssatz machen?
Liebe Grüße (:
Hallo, könntest du mir vielleicht einmal genau erklären wie du im 4. Schritt nach Lambda umstellst? :)
Da habe ich auch lange geknobelt. Der "Trick" ist, erst das -n auf die rechte Seite der Gleichung zu bringen. Sprich +n auf beide Seiten der Gleichung. Dann hast du rechts = n anstatt = 0. Jetzt kommt das 1/lambda was vor dem Summenzeichen steht. Da es mit dem Summebzeichen-Term per Multiplikation verknüpft ist, dividieren wir mit 1/lambda. Auf der rechten Seite steht nun n / 1/lambda. Division durch einen Bruch ist die Multiplikation mit seinem Kehrwert, also n * lambda/1. Nun wieder das n auf die linke Seite, also durch n dividieren. Das n landet im Nenner unter dem Xi. Das Xi/n kannst du auch als Produkt aus Xi * 1/n schreiben. Das gesuchte 1/n einfach als Vorfaktor vor die Summe ziehen, fertig.
Kannst du erklären warum bei Punkt 4 aus -n + 1/Lamnda --> 1/n wird ? steh da voll auf dem Schlauch :(
Da habe ich auch lange geknobelt. Der "Trick" ist, erst das -n auf die rechte Seite der Gleichung zu bringen. Sprich +n auf beide Seiten der Gleichung. Dann hast du rechts = n anstatt = 0. Jetzt kommt das 1/lambda was vor dem Summenzeichen steht. Da es mit dem Summebzeichen-Term per Multiplikation verknüpft ist, dividieren wir mit 1/lambda. Auf der rechten Seite steht nun n / 1/lambda. Division durch einen Bruch ist die Multiplikation mit seinem Kehrwert, also n * lambda/1. Nun wieder das n auf die linke Seite, also durch n dividieren. Das n landet im Nenner unter dem Xi. Das Xi/n kannst du auch als Produkt aus Xi * 1/n schreiben. Das gesuchte 1/n einfach als Vorfaktor vor die Summe ziehen, fertig.
Hey! Wieso steht im 2. Schritt (7:20) in der letzten Zeile ein n vor dem Lambda? Man zieht das -Lambda doch einfach nur aus der Summe raus oder nicht?
Richtig gedacht. Beachte, dass das Summenzeichen hier eine Variable n als Zielwert hat. Dafür gibt es eine Rechenregel, die besagt, dass das Summenzeichen mit Starwert i=1 und Konstante als Zielwert in die Variable n umgeschrieben werden kann.
Wie kommt es dass bei 7:20 in der 2. Zeile von 2. das ln(lambda) plötzlich vor der Summe von Xi steht? Müsste man nicht die Summe aus Xi*ln(lambda) berechnen?
Das ln(lambda) hat keinen Einfluss auf das Summenzeichen, da der Parameter i nur bei Xi vorhanden ist. Deshalb kannst du das ln(lambda) als Vorfaktor vor das Summenzeichen ziehen.
Der Schätzwert ist doch dann quasi einfach der erwartungswert oder?
Wieso genau erscheint beim Summe in die Klammer ziehen bei 7:18 der Faktor n vor dem Lambda?
Du schreibst das Summenzeichen einfach in die Variable n um.
spielt es eine rolle ob man beim 2. schritt mit log oder ln rechnet?
ln ist besser, damit die e-Funktion aufgelöst wird 👍
Hätte man nicht besser erklären können, top
Bei 7:55 müsste doch xi wegfallen als konstante. Du rechnest aber damit weiter oder verstehe ich da was falsch
Schau dir einmal die Gleichung zur Berechnung des Mittelwertes an. Ist exakt das, was an der von dir erwähnten Stelle rauskommt. :)
wie kommt man denn bei 7:20 ca in der zweiten Zeile auf das -n*lamda? Wäre nett wenn mir das jemand kurz erklären würde:))
Ist vlt.zu spät aber da wurde ja die Summe über n entfernt. Da -lamda ein Summand war halt n lambda
Hallo, vielen Dank für dieses Video. Könntest du mir aber erklären, wieso im 2. Schritt bei der Logarithmierung der Likelihood Funktion in der untersten Zeile (beim Zusammenfassen) das n da ist?
@@statistik-mit-lennart Hallo, Meister. Selber Schritt, andere Frage: müsste das ln(lambda) beim Ausklammern aus der Summe nicht auch mit n multipliziert werden (wie bei -n*lambda) oder übersehe ich da eine Log-Regel?
EDIT: ich glaube, ich hab's: das ln(lambda) ist ja Teil der Multiplikation mit Xi, weshalb es einfach rausgezogen werden kann. Sprich: Sum(Xi * ln(lambda) = ln(lambda)*Sum(Xi)