Was ist der Maximum Likelihood Schätzer der Poisson-Verteilung? 💡

Sdílet
Vložit
  • čas přidán 13. 07. 2024
  • Wir bestimmen in diesem Video den #Maximum #Likelihood Schätzer für die #Poisson Verteilung.
    📚 loelschlaeger.de/statistik-mi...
    0:00 Die allgemeine Vorgehensweise
    3:10 Die Poisson-Verteilung
    4:00 Der Maximum Likelihood Schätzer der Poisson Verteilung
    8:00 Ein Beispiel
    9:45 Eine abschließende Frage

Komentáře • 62

  • @dolibert
    @dolibert Před 5 lety +68

    Hab nicht mit einem so qualitativem Video gerechnet! Sehr gut erklärt. Vielen Dank!

  • @anjatuski6987
    @anjatuski6987 Před 5 lety +77

    Vielen Dank! 180 Min Vorlesung und ein großes Rätzel - 12:30 Min Video von dir und alles war klar.

    • @D3rMesaa
      @D3rMesaa Před 4 lety +3

      Warum sind Profs immer so schlecht im Erklären?

    • @diamondpacan5642
      @diamondpacan5642 Před 3 lety +1

      @@D3rMesaa Die besten Lehrer sind nur paar Steps vor dir

    • @NoahElRhandour
      @NoahElRhandour Před 3 lety +2

      Rätsel schreibt man mit s

  • @mbst5026
    @mbst5026 Před 5 lety +7

    Vielen Dank, hervorragend erklärt!

  • @lenaboehm4825
    @lenaboehm4825 Před 4 lety +1

    Sehr gut! Kurz und knapp, sofort auf den Punkt gebracht!

  • @nicki.5374
    @nicki.5374 Před 4 lety +1

    Ich kann gar nicht sagen wie sehr du mir mit den Videos zum ML wahrscheinlich grade den Pöter rettest. VIELEN DANK

  • @studium1568
    @studium1568 Před 3 lety

    Einfach verdammt tolle Videos die du hier machst. Vielen Dank!!

  • @elisasugarfree9600
    @elisasugarfree9600 Před 4 lety +3

    Toll-Danke-bin sehr dankbar für dieses Video

  • @820Connoisseur
    @820Connoisseur Před 5 lety +3

    Sehr gut und prägnant erklärt, danke! :)

  • @bigplot
    @bigplot Před 4 lety +1

    Als ich konkretes Beispiel gehört habe, war ich sehr erfreut!

  • @gulli2356
    @gulli2356 Před 5 lety +2

    Top, alles super erklärt! Danke

  • @KnockShock96
    @KnockShock96 Před 5 lety +1

    Echt große Hilfe! Danke

  • @leahcim87
    @leahcim87 Před 5 lety +1

    Super erklärt, Lennart!

  • @dtboyz1182
    @dtboyz1182 Před 4 lety +2

    echt super Video, vielen Dank!

  • @thegoodestboii
    @thegoodestboii Před 4 lety +1

    I'm in love xD
    Und danke für das mega Video

  • @theodoroslabis1557
    @theodoroslabis1557 Před 3 lety

    Also deine Videos sind mit die besten erklärten ganzheitlichsten Videos. top

  • @LillyCaroful
    @LillyCaroful Před 3 lety +1

    Jedes Mal komme ich wieder zu diesen Videos zurück, weil ich einfach weiß: "es gab diese Videos auf CZcams von Lennart zu ML, mit denen versteh ich das Thema". Jedes Mal wieder eine Große Hilfe☺️👍🏼

  • @Kleineswiss19
    @Kleineswiss19 Před 3 lety

    Danke. War total super. Du hättest bei beim Ableiten und auch beim = 0 setzen noch eine Zeile dazwischen machen können, was der zwischenschritt ist. Aber hab recherchiert und konnte es nun selber nachvollziehen... Und jetzt hab ich das komplettset. Und vorallem check ich die MaximumLikelihood jetzt. THX

  • @ankebraun8422
    @ankebraun8422 Před 4 lety +1

    Tolle Darstellung, danke!!!

  • @wergraphy4220
    @wergraphy4220 Před 5 lety +1

    Endlich mal Videos zu dem Thema auf deutsch. :)

  • @tanjabolliger4067
    @tanjabolliger4067 Před 5 lety +2

    super erklärt, danke!

  • @freundlicherdude5731
    @freundlicherdude5731 Před 5 lety +2

    Sofort gesubbed! Echte qualitative Videos!

  • @noureddin3608
    @noureddin3608 Před 4 lety

    Danke schön Für Die Erklärung

  • @Olli77577
    @Olli77577 Před 3 lety

    Bereite mich gerade auf die stochastische Zulassungsprüfung für die Aktuars-Ausbildung ohne Seminar in Autodidaktik vor (danke corona), und deine Erklärung hat mir sehr geholfen, danke!

  • @ibrahimmohamad382
    @ibrahimmohamad382 Před 3 lety

    vielen dank , das hat uns viel geholfen ..

  • @nadineschuttler807
    @nadineschuttler807 Před 3 lety

    So gut. Vielen Dank!

  • @jan5013
    @jan5013 Před 4 lety +1

    Sehr gutes Video!

  • @wings4max
    @wings4max Před 3 lety

    super gutes video, didaktisches gold.

  • @pzeid48
    @pzeid48 Před 5 lety +8

    kannst du vielleicht ein Video zur Momentenmethode machen?
    Gutes, anschauliches Video ansonsten!

  • @janluders6881
    @janluders6881 Před 4 lety

    Deine Videos sind super! Kannst du evtl. noch ein Video mit Erklärung und Beispielen zur Bayes'schen Methode (mit zum Beispiel apriori exponential verteiltem Alpha) und zur Dichte, Randverteilungen und bedingter Dichte machen?

  • @TheProblembaer2
    @TheProblembaer2 Před 2 lety

    du bist mein Held

  • @Jokster1
    @Jokster1 Před 4 lety

    Hi, coole Videos 👍🏼. Kannst du mal was zu linearer Regression machen ?

  • @bestofbadminton8006
    @bestofbadminton8006 Před 3 lety +1

    Hallo, vielen Dank für dieses Video. Könntest du mir aber erklären, wieso im 2. Schritt bei der Logarithmierung der Likelihood Funktion in der untersten Zeile (beim Zusammenfassen) das n da ist?

  • @munireuyanik
    @munireuyanik Před 4 měsíci

    Ehrenmann!

  • @ceylonmeetsmusic
    @ceylonmeetsmusic Před 4 lety +1

    Richtig gut! Muss man aber nicht noch die zweite Ableitung bzw. die Hessematrix betrachten für die hinreichende Bedingung?

  • @Srempel9
    @Srempel9 Před 4 lety

    Hi Lennart, kannst du einmal erläutern, warum es hier und auch generell in der induktiven Statistik so wichtig ist, Unabhängigkeit anzunehmen?

  • @crlnhpt7543
    @crlnhpt7543 Před 4 lety

    Ich habe eine Dichtefunktion mit f(x) = a·k^a ·x(−a−1) gegeben und soll darauf Maximum-Likelihood anwenden, um a zu schätzen. Ich weiß aber absolut nicht, von welcher Art diese Funktion ist und weiß somit auch die Wahrscheinlichkeitsverteilung nicht, die ich für die Likelihood-Funktion brauche. Hast du da eine Idee? :(

  • @cooucouu
    @cooucouu Před 5 lety +1

    warum fällt bei der Ableitung der letzte Teil (ln x!) weg, aber der davor bleibt? Hab grad ein Brett vor dem Kopf..
    Du hast echt viel mehr Abonnenten verdient, danke für das Video!

    • @thai.1472
      @thai.1472 Před 5 lety +1

      weil der letzte Teil kein Lambda beinhaltet.
      Edit: Man leitet ja nach lambda ab

  • @elenascrolling
    @elenascrolling Před 4 lety

    Deine Videos sind echt super, vielen Dank!
    Du könntest nicht zufällig eins zum Stetigkeitssatz machen?
    Liebe Grüße (:

  • @schotokischotgun3933
    @schotokischotgun3933 Před 5 lety

    Hallo, könntest du mir vielleicht einmal genau erklären wie du im 4. Schritt nach Lambda umstellst? :)

    • @Pixelhaut
      @Pixelhaut Před 2 lety +1

      Da habe ich auch lange geknobelt. Der "Trick" ist, erst das -n auf die rechte Seite der Gleichung zu bringen. Sprich +n auf beide Seiten der Gleichung. Dann hast du rechts = n anstatt = 0. Jetzt kommt das 1/lambda was vor dem Summenzeichen steht. Da es mit dem Summebzeichen-Term per Multiplikation verknüpft ist, dividieren wir mit 1/lambda. Auf der rechten Seite steht nun n / 1/lambda. Division durch einen Bruch ist die Multiplikation mit seinem Kehrwert, also n * lambda/1. Nun wieder das n auf die linke Seite, also durch n dividieren. Das n landet im Nenner unter dem Xi. Das Xi/n kannst du auch als Produkt aus Xi * 1/n schreiben. Das gesuchte 1/n einfach als Vorfaktor vor die Summe ziehen, fertig.

  • @simonasch9953
    @simonasch9953 Před 3 lety +1

    Kannst du erklären warum bei Punkt 4 aus -n + 1/Lamnda --> 1/n wird ? steh da voll auf dem Schlauch :(

    • @Pixelhaut
      @Pixelhaut Před 2 lety +2

      Da habe ich auch lange geknobelt. Der "Trick" ist, erst das -n auf die rechte Seite der Gleichung zu bringen. Sprich +n auf beide Seiten der Gleichung. Dann hast du rechts = n anstatt = 0. Jetzt kommt das 1/lambda was vor dem Summenzeichen steht. Da es mit dem Summebzeichen-Term per Multiplikation verknüpft ist, dividieren wir mit 1/lambda. Auf der rechten Seite steht nun n / 1/lambda. Division durch einen Bruch ist die Multiplikation mit seinem Kehrwert, also n * lambda/1. Nun wieder das n auf die linke Seite, also durch n dividieren. Das n landet im Nenner unter dem Xi. Das Xi/n kannst du auch als Produkt aus Xi * 1/n schreiben. Das gesuchte 1/n einfach als Vorfaktor vor die Summe ziehen, fertig.

  • @boratsagdiev6486
    @boratsagdiev6486 Před 4 lety

    Hey! Wieso steht im 2. Schritt (7:20) in der letzten Zeile ein n vor dem Lambda? Man zieht das -Lambda doch einfach nur aus der Summe raus oder nicht?

    • @Pixelhaut
      @Pixelhaut Před 2 lety

      Richtig gedacht. Beachte, dass das Summenzeichen hier eine Variable n als Zielwert hat. Dafür gibt es eine Rechenregel, die besagt, dass das Summenzeichen mit Starwert i=1 und Konstante als Zielwert in die Variable n umgeschrieben werden kann.

  • @AK96ist
    @AK96ist Před 4 lety

    Wie kommt es dass bei 7:20 in der 2. Zeile von 2. das ln(lambda) plötzlich vor der Summe von Xi steht? Müsste man nicht die Summe aus Xi*ln(lambda) berechnen?

    • @Pixelhaut
      @Pixelhaut Před 2 lety +1

      Das ln(lambda) hat keinen Einfluss auf das Summenzeichen, da der Parameter i nur bei Xi vorhanden ist. Deshalb kannst du das ln(lambda) als Vorfaktor vor das Summenzeichen ziehen.

  • @MrFlolXD
    @MrFlolXD Před 4 lety

    Der Schätzwert ist doch dann quasi einfach der erwartungswert oder?

  • @tonybenello
    @tonybenello Před 4 lety

    Wieso genau erscheint beim Summe in die Klammer ziehen bei 7:18 der Faktor n vor dem Lambda?

    • @Pixelhaut
      @Pixelhaut Před rokem

      Du schreibst das Summenzeichen einfach in die Variable n um.

  • @michaelyo7571
    @michaelyo7571 Před 2 dny

    spielt es eine rolle ob man beim 2. schritt mit log oder ln rechnet?

  • @multirazah3791
    @multirazah3791 Před 5 lety

    Hätte man nicht besser erklären können, top

  • @punchline9131
    @punchline9131 Před 3 lety

    Bei 7:55 müsste doch xi wegfallen als konstante. Du rechnest aber damit weiter oder verstehe ich da was falsch

    • @Pixelhaut
      @Pixelhaut Před 2 lety

      Schau dir einmal die Gleichung zur Berechnung des Mittelwertes an. Ist exakt das, was an der von dir erwähnten Stelle rauskommt. :)

  • @anna-lenahogerl9409
    @anna-lenahogerl9409 Před 4 lety

    wie kommt man denn bei 7:20 ca in der zweiten Zeile auf das -n*lamda? Wäre nett wenn mir das jemand kurz erklären würde:))

    • @metadata5760
      @metadata5760 Před 3 lety

      Ist vlt.zu spät aber da wurde ja die Summe über n entfernt. Da -lamda ein Summand war halt n lambda

  • @jeli834
    @jeli834 Před 4 lety

    Hallo, vielen Dank für dieses Video. Könntest du mir aber erklären, wieso im 2. Schritt bei der Logarithmierung der Likelihood Funktion in der untersten Zeile (beim Zusammenfassen) das n da ist?

    • @barsaltincan2306
      @barsaltincan2306 Před 4 lety +1

      @@statistik-mit-lennart Hallo, Meister. Selber Schritt, andere Frage: müsste das ln(lambda) beim Ausklammern aus der Summe nicht auch mit n multipliziert werden (wie bei -n*lambda) oder übersehe ich da eine Log-Regel?
      EDIT: ich glaube, ich hab's: das ln(lambda) ist ja Teil der Multiplikation mit Xi, weshalb es einfach rausgezogen werden kann. Sprich: Sum(Xi * ln(lambda) = ln(lambda)*Sum(Xi)