- 93
- 26 653
Mathe ohne Magie
Registrace 6. 02. 2023
Hallo!
Schön, dass du dich für meinen Kanal interessierst:)
Ich bin ein einfacher Mathe-Student, der das Bedürfnis hat, die Angst vor der Mathematik zu bekämpfen. Daher habe ich diesen Kanal erstellt. Ich möchte den Leuten mitteilen, dass die Mathematik sehr interessant sein kann, wenn man sie versteht. In der Mathematik gibt es auch keine Magie, weil alles aus Axiomen folgt. Ich bin davon überzeugt, dass eine gute Erklärung mathematischer Konzepte eine gigantische Rolle spielt, was das Verstehen der Konzepte angeht. Lass mich deshalb gerne wissen, ob meine Erklärungen mit deinen idealen Wissensaneignungen kompatibel sind.
Schön, dass du dich für meinen Kanal interessierst:)
Ich bin ein einfacher Mathe-Student, der das Bedürfnis hat, die Angst vor der Mathematik zu bekämpfen. Daher habe ich diesen Kanal erstellt. Ich möchte den Leuten mitteilen, dass die Mathematik sehr interessant sein kann, wenn man sie versteht. In der Mathematik gibt es auch keine Magie, weil alles aus Axiomen folgt. Ich bin davon überzeugt, dass eine gute Erklärung mathematischer Konzepte eine gigantische Rolle spielt, was das Verstehen der Konzepte angeht. Lass mich deshalb gerne wissen, ob meine Erklärungen mit deinen idealen Wissensaneignungen kompatibel sind.
Video
Explizite, lineare Differenzialgleichungen zweiter Ordnung ohne y
zhlédnutí 80Před 21 dnem
Explizite, lineare Differenzialgleichungen zweiter Ordnung ohne y
Variation der Konstanten (inhomogene lineare Differenzialgleichung 2. Ordnung mit konstanten Koeff.)
zhlédnutí 95Před 21 dnem
Variation der Konstanten (inhomogene lineare Differenzialgleichung 2. Ordnung mit konstanten Koeff.)
Typ der rechten Seite (inhomogene lineare Differenzialgleichung 2. Ordnung mit konstanten Koeff.)
zhlédnutí 134Před 21 dnem
Typ der rechten Seite (inhomogene lineare Differenzialgleichung 2. Ordnung mit konstanten Koeff.)
Homogene lineare Differenzialgleichungen zweiter Ordnung mit konstanten Koeffizienten
zhlédnutí 174Před měsícem
Homogene lineare Differenzialgleichungen zweiter Ordnung mit konstanten Koeffizienten
Integrierender Faktor/Eulerscher Multiplikator (gewöhnliche Differenzialgleichungen)
zhlédnutí 164Před měsícem
Integrierender Faktor/Eulerscher Multiplikator (gewöhnliche Differenzialgleichungen)
Variation der Konstanten (explizite, inhomogene lineare Differenzialgleichung erster Ordnung)
zhlédnutí 214Před měsícem
Variation der Konstanten (explizite, inhomogene lineare Differenzialgleichung erster Ordnung)
Explizite, homogene lineare Differenzialgleichungen erster Ordnung
zhlédnutí 192Před měsícem
Explizite, homogene lineare Differenzialgleichungen erster Ordnung
Richtungsfelder (gewöhnliche Differenzialgleichungen)
zhlédnutí 150Před 2 měsíci
Richtungsfelder (gewöhnliche Differenzialgleichungen)
Substitution (gewöhnliche Differenzialgleichungen)
zhlédnutí 209Před 2 měsíci
Substitution (gewöhnliche Differenzialgleichungen)
Gewöhnliche Differenzialgleichungen klassifizieren
zhlédnutí 373Před 2 měsíci
Gewöhnliche Differenzialgleichungen klassifizieren
KKT Punkte finden (mit Ungleichheitsnebenbedingungen)
zhlédnutí 178Před 2 měsíci
KKT Punkte finden (mit Ungleichheitsnebenbedingungen)
KKT Punkte (KKT Bedingungen überprüfen, mit Ungleichheitsnebenbedingungen)
zhlédnutí 388Před 2 měsíci
KKT Punkte (KKT Bedingungen überprüfen, mit Ungleichheitsnebenbedingungen)
Barierrefunktionen (Optimieren mit Nebenbedingungen)
zhlédnutí 135Před 2 měsíci
Barierrefunktionen (Optimieren mit Nebenbedingungen)
Straffunktionen (Optimieren mit Nebenbedingungen)
zhlédnutí 223Před 2 měsíci
Straffunktionen (Optimieren mit Nebenbedingungen)
Minimieren mittels des mehrdimensionalen Newton-Verfahrens
zhlédnutí 196Před 3 měsíci
Minimieren mittels des mehrdimensionalen Newton-Verfahrens
Nelder-Mead-Verfahren (2-dimensional)
zhlédnutí 203Před 3 měsíci
Nelder-Mead-Verfahren (2-dimensional)
Minimieren mittels der Goldenen-Schnitt-Suche
zhlédnutí 378Před 3 měsíci
Minimieren mittels der Goldenen-Schnitt-Suche
Basislösungen eines linearen Gleichungssystems (zulässig, degeneriert)
zhlédnutí 660Před 4 měsíci
Basislösungen eines linearen Gleichungssystems (zulässig, degeneriert)
Schattenpreise eines linearen Optimierungsproblems
zhlédnutí 465Před 4 měsíci
Schattenpreise eines linearen Optimierungsproblems
super tolle und anschauliche Erklärung, vielen Dank!!
gar nix gecheckt beim prof. ist ja voll easy
Sehr gut und anschaulich dargestellt. Vielen Dank!
Was ist wenn b nicht gegeben ist, und man soll ein b bestimmten dass ||Ax-b||2 minimal wird für alle x ?
kann man bei den letzten Bsp nicht einfach die Gleichungsystem lösen? x&y sind ja eindeutig oder?
bei den Bsp aus die erste & dritte Minute addiert man zwei nicht negative Zahlen und bekommt eine negative Zahl?
Vielen Dank für deine Videos 🙏🙏🙏 Du bist echt eine große Hilfe, um Numerik zu verstehen. Leider finde ich nirgends etwas zu Pseudoinverse
Welcher Saboteur hat den Ton verzapft?
Richtig gut 😄 danke
Das funktioniert doch so nicht, jede lineare Abbildung von z.b. R^p -> R^q mit p=q=2 lässt sich mit einem Vektorraum R^pq also in dem bsp R^4 identifizieren, dadurch stimmt das doch nicht einfach jeweils eine zeile/Spalte zu nehmen. Man müsste die matrix doch mit einer konstante abschätzen bzw die ganze matrix durchgehen um den größten eintrag zu suchen bei supremumsnorm/alle Einträge summieren bei 1norm. Oder habe ich da einen Denkfehler?
-4+(-3)=7????🚨
Wichtig ist, dass man die Beträge nimmt. |-3| = 3, |-4| = 4, also ist |-3| + |-4| = 7.
Sehr verständlich! Danke!
Danke für das Video, war sehr hilfreich
Ich fand das Video sehr verständlich, nur leider definiert unser Professor die Bedingungen anders als alles was ich finden konnte.: Seien f,h,g: stetig differenzierbar und x ein regulärer Punkt. Es gibt Koeffizienten lamda 1-k und mü 1-k, mü <= 0. mit gradient von f = lamda* Gradient von h + mü*Gradient von g. Außerdem soll gelten ug = 0. Sodass L =Hessematrix von f - lambda*Hessematrix von h - mü*Hessematrix von g dann soll L positiv definit auf dem Tangentialraum der aktiven Nebenbedinungen sein. Ich verstehe absolut nicht, was er damit meint, hast du eine Idee?
Hallo, danke für den Kommentar:) Ich vermute, du meinst, dass f die Funktion ist, die wir minimieren wollen, g_1,...,g_k Ungleichheitsnebenbedingungen und h_1,...,h_l Gleichheitsnebenbedingungen sind. In dem Video wir vorausgesetzt, dass grad(f) + u_1 grad(g_1) + ... + u_k grad(g_k) = 0. Mit den Gleichheitsnebenbedingungen schaut es so aus: grad(f) + u_1 grad(g_1) + ... + u_k grad(g_k) + v_1 grad(h_1) + ... + v_l grad(h_l) = 0. Bringt man alles bis auf grad(f) auf die rechte Seite, erhält man grad(f) = -u_1 grad(g_1) - ... - u_k grad(g_k) - v_1 grad(h_1) - ... - v_l grad(h_l). In dem Fall wäre mü_i = -u_i und lambda_i = -v_i. Die Bedingung u_i >= 0 ist also äquivalent zur Bedingung mü <= 0. Für die Gleichheitsnebenbedingungen braucht man eine solche Vorzeichenbedingung nicht. Über den Teil mit der Hessematrix habe ich leider nichts gefunden. Ich vermute, dass dieser nichts mit der Definition eines KKT-Punkts zu tun hat, sonder eher etwas damit, wie die Aussagen "x ist ein Minimum" und "x ist ein KKT" zusammenhängen. Ist das Problem Konvex, gilt KKT-Punkt => globales Minimum Gilt eine der Regularitätsvoraussetzungen, gilt lokales Minimum => KKT-Punkt Ich hoffe, es hilft ein bisschen.
Sollten 1 - 4/12 nicht 2/3 sein?
das ist doch magie!
wenn nicht sogar schwarze magie!
@@Meskalin_ Nein, es gibt hier gar keine Art von Magie;)
Toll erklärt, danke dir!
Top
3:13 die k-te H.M. kommt aus dem Nichts? ebenso 5:02 die Setzung von v(a) ?
KORREKTUR: Bei 6:56 sollte stehen: Somit ist (1,0) ein Eigenvektor zum Eigenwert 1.
KORREKTUR: Bei 10:58 sollte L_1^{-1} = 1 0 0 4 1 0 7 0 1 sein.
ich hab versucht mit +v zu berechnen aber am ende bekomme ich (1, -5,0) ist es noch richtig?
Hallo, wenn du mir erläuterst, um welche Stelle es sich in dem Video handelt, kann ich dir die Frage gerne beantworten:)
Kann ich ich durch dieses Verfahren auch die Länge meines Yarrak approximieren
toll erklärt, dankeschön! Gibst du auch privat Nachhilfe? :)
Danke:) Ich gebe keine private Nachhilfe. Du kannst jedoch gerne ein Videothema vorschlagen:)
❤❤❤
Top G!
for real! Danke für die heftigen Videos!
Die Inverse von L1 sind die Vorzeichen falsch!!!
Danke für den Hinweis:)
Danke für die hilfreichen Videos!! Geniales Logo - jetzt check ich es erst!😄
Deine Videos sind top, du erklärst es super ich habe es in meinem Skript absolut nicht verstanden aber mit deinen Videos ist es jetzt super klar, Danke
Bei min 6:41 hätten wir die Matrix A mit einer Gaußschen Umformung zum Beispiel umgedreht (die erste und zweite Reihe vertauscht) so wäre der Erste Hauptminor 1. Ich nehme aber an, dass das nicht erlaubt ist oder? Und danke für die tollen Erklärungen zum Auffrischen :)
Danke für das Feedback:) Gaußsche Umformungen können die Definitheit einer Matrix verändern, daher sind diese nicht erlaubt. Wenn wir außerdem bei dem Beispiel die Zeilen vertauschen würden, hätten wir eine Matrix, die nicht symmetrisch ist. In dem Fall lässt sich das Hauptminorenkriterium gar nicht erst anwenden.
stark
Bravo Niko❤
Zupa ist das👍🏻
Danke! Sehr hilfreich
Gute Videos :) Gruß
Endlich verstehe ich es ... Danke Mathemann ❤️