Wir wissen nicht weshalb aber Künstliche Intelligenz kann sehen

Sdílet
Vložit
  • čas přidán 5. 09. 2024
  • Ein Künstliches Neuronales Netz mit mehreren Neuronenschichten kann Handschrift erkennen. Aber wieso funktioniert KI und Mustererkennung überhaupt ?
    Teil 3 aus der Reihe KI für jedermann einfach erklärt, sehen wir mit Röntgenblick in ein Computerhirn und enthüllen die erstaunliche Arbeit einer Künstlichen Intelligenz.

Komentáře • 42

  • @gooddude8485
    @gooddude8485 Před 2 měsíci +8

    Keine Ahnung wo dein Channel auf einmal herkommt, aber hast dir für das Video n Abo verdient.

  • @dbpx14
    @dbpx14 Před 2 měsíci +2

    Ich habe bisher zu Neuronale Netzwerke nur englisch sprachige Kanäle gefunden und vor paar Wochen mit meinem Mitgründer mich über das exakt selbe Thema und Quanten-Algorithmen/Technologie unterhalten.

  • @matthias_mwd
    @matthias_mwd Před 2 měsíci +2

    Sehr gute Bewegbildproduktion und finde es gut wie du alles erklärst

  • @consciousmeandu
    @consciousmeandu Před 2 měsíci

    Wow ❤️‍🔥 das ist ja mal ein sehr krasses Video 👍 Dankeschön

  • @polle4862
    @polle4862 Před 2 měsíci

    Super erklärt. Habe mir alle 3 Videos angeschaut. :)

  • @outdxal5352
    @outdxal5352 Před 2 měsíci +2

    Ich denke, daß ein Mensch, wenn er Handschrift entziffert auch ein Modell des wahrscheinlich die Linienfolge hervorgerufene n Bewegungsablaufs im Kopf entwickelt. Dadurch können Ungenauigkeiten bei der Erzeugung eines Zeichens erklärt und damit "Rauschen" minimiert werden.

  • @ihavenoideawhatname
    @ihavenoideawhatname Před 2 měsíci +6

    Also da bin ich völlig anderer Meinung. Die zweite Convolution kann niemals... Nein Spaß, der Algorithmus hat mir dein Video empfohlen und obwohl ich nur Bahnhof verstanden habe, habe ich es mir trotzdem reingezogen. Manchmal ist dabei sein alles.

    • @stupidfish2
      @stupidfish2 Před 2 měsíci

      Denke schon dass du es verstanden hast. Die KI versteht es nicht. Fütterung von ganz viel Daten, dann Training des neuronalen Netzes und Hokus Pokus das Ding spukt dann das aus was wir feiern und (über-)bewerten!

  • @ASSAKKER
    @ASSAKKER Před 2 měsíci +2

    Sehr Interessant!!!!!!!!

  • @SirSvenjamin
    @SirSvenjamin Před 2 měsíci

    Bitte mehr davon, interessiert mich mega

  • @frankschuler9738
    @frankschuler9738 Před měsícem

    Könnten sie bitte einmal die Backpropagation anhand eines einfachen Beispiels erklären. Es ist ja auch "nur" ein Algorithmus zur Gradientenberechnung ausgehend vom Output. Mir ist noch nicht so ganz klar, wie das während des Trainings auf die einzelnen Schichten angewendet wird.

  • @frankschuler9738
    @frankschuler9738 Před měsícem

    Könnten sie etwas zu der skalierbaren MatMul-freien Sprachmodellierung sagen?

  • @romeojenny
    @romeojenny Před 2 měsíci

    Alle sprechen davon wie simple KI funktioniert. Simpel ist auch digitale Logik. Es Lässt sich theoretisch aus drei Logik Bausteine Alles realisieren. Elektronik auf Transistorebene mit der man Logik aufbaut ist auch relativ simpel. Das ist der Sinn davon, komplexe Regelwerke in einzelne Fragmente zu zerlegen die dann im Einzelnen einfach aussehen. Nur so können wir komplexe Zusammenhänge überhaupt verstehen.

  • @erichpoly4434
    @erichpoly4434 Před 2 měsíci

    Wenn ich mir so ein System vorstellen muste. Dann würde ich mir Pfeiler am Strand vorstellen. Die wellen sind die Eingaben Flut und durch die Pfeiler werden die Wellen addiert oder aufgelöst.
    Selbst die Vorstellung von Luftverwurbelung kann das Hirn an die Grenzen kommen.
    Und heute wurden wir darauf trainiert Algorithmisch zu denken. Obwohl es in der Natur alles mit Differentialgleichungen beschrieben werden kann.

  • @zyklos229
    @zyklos229 Před 2 měsíci

    Ich würde schon sagen, dass wir wissen, dass das NN als ein Minimierer einer hochdimensionalen Fehlerfunktion agiert.
    Im linearen Fall hat die Mathematik das 100%ig durchdrungen, nennt sich lineare Regression und funktioniert in der Praxis wohl auch nicht so schlecht.
    Ich glaube, ein Hauptproblem war die Schwellfunktion, die das Problem nicht-linear macht, weil auch die Zielfunktion nicht-linear sein soll und das ist halt ein Bereich der Mathematik, der sehr undankbar zu durchdringen ist - wie der Unterschied von Meeresoberfläche zu Meer.

    • @clevermato
      @clevermato  Před 2 měsíci

      Stimmt. Bei RNNs zum Beispiel mit LSTM Neuronen kommt noch das Problem hinzu, dass die Zielwerte wieder zu Eingangswerten hinzugerechnet werden. Dann befinden wir uns komplett in der Chaostheorie.

  • @Milan_Rosko
    @Milan_Rosko Před 2 měsíci

    Hilfe! Ich verstehe mehrere Sachen nicht. Ich dachte
    - Handschrift lesen funktioniert ausschließlich per Perceptronen und die organisieren sich per backpropagation automatisch im training.
    - Millionen von Neuronen? Ich dachte Handschriftlich geht schon bei weniger?
    Ich wäre sehr dankbar für eine kurze erklärung.

    • @redtonyred
      @redtonyred Před 2 měsíci +4

      Ich nehme an du meinst mit Perzeptron ein Multylayer Perzeptron im Sinne eines fully connected feedforward networks.
      Die werden in der Bilderkennung sehr schnell zu groß. Stell dir vor du hast ein Bild mit 256x256=2^16 Pixels. Das wäre ja eher ein sehr kleines Bild. Da hättest du aber schon 2^16 Inputwerte. Selbst wenn dein nächster Layer dann eher recht klein wäre z.b. 2^7=128, dann müsstest du schon allein für die Verbindungen zwischen diesen beiden Schichten 2^33 (ca. 8Mio) Gewichte trainieren. Bei größeren Bildern z.B. im 4k Format hast du über 8Mio Pixels und müsstest natürlich auch die größe der Layer dementsprechend anpassen. Du kommst also sehr schnell an die Stelle, an der die Anzahl der Parameter grade zu explodiert, für eine relativ leichte Aufgabe. Das ist aber nicht notwendig, weil man um ein Objekt auf einem Bild zu erkennen gar nicht jeden einzelnen Pixelwert erkennen muss. So kann man ja auch als Mensch z.b. auf einem Bild schon oft erkennen, was da drauf ist, wenn man z.b. nur die Kanten auf dem Bild sehen würde. Da kommen dann die CNNs ins Spiel. Die Nutzen die räumliche Anordnung der Pixel und die einzelnen Convolutionkernel arbeiten dann einzelne Aspekte des Bilds heraus, wie z.b. Horizontale Kanten, oder Vertikale Kanten. Der Vorteil ist hier, dass man mit sehr viel weniger trainierbaren Parametern auskommt, weil der Kernel viel kleiner ist als das Bild und dann einfach an allen Stellen im Bild der gleiche Kernel verwendet werden kann. so kann man z.b. horizontale Kanten, bzw. vertikale Kanten mit einem Kernel hervorheben, der nur 9 Gewichte hat. Den Kernel wendet man dann auf jedes Pixel im Bild an. D.h. an dieser Stelle ist die Anzahl der Parameter, die trainiert werden müssen unabhängig von der Bildgröße. Nachdem man dann das Bild durch mehrere Convolutional und Poolinglayer geschickt hat, dann schickt man es auch wieder durch ein fully connected feedforward netz, aber eben ein deutlich kleineres, mit einem deutlich kleineren Inputvektor, weil die Convolutional und Poolinglayer das Bild vorher auf die wesentlichen Informationen reduziert haben und quasi eine komprimierte Representation des Bildes erzeugt haben, die aber immer noch hinreichend genug Informationen enthält, damit das kleinere feedforwardnetwork hinter den Convolutional und Poolinglayern die Klassifikaitonsaufgabe noch lösen kann.

    • @Milan_Rosko
      @Milan_Rosko Před 2 měsíci +2

      @@redtonyred Dankeschön für die ausführliche Erklärung.
      Was mich in irre geführt hat ist dass viele 3D visualisationen von "Multylayer Perzeptronen" im internet welche auch Zahlen von 0 bis 9 erkennen nur einen Teil der Neuronen zeigen...

    • @GeigenAkademie
      @GeigenAkademie Před 2 měsíci

      Bei so einfachen Aufgaben, wie Schrifterkennung, kann die Eingangsdimension durch eine vorgeschaltete Dimensionsreduktion deutlich reduziert werden (PCA), z.B. 784 -> 10, ohne wesentlich Information zu verlieren

  • @mariasulis-pb2yc
    @mariasulis-pb2yc Před 2 měsíci +1

    Wie 🤔🤔🤔

  • @thorduisenberg8841
    @thorduisenberg8841 Před 2 měsíci

    Eins verstehe ich nicht. Diese Schichten erkennen Muster. Wenn sie die 7 erkannt haben und die 7 nun kennen, überschrieben die neuen Informationen doch vorherige. Diese paar Synapsen stellen auch keinen endlosen Speicher dar. Das würde ich gern mal erklärt bekommen.

    • @GeigenAkademie
      @GeigenAkademie Před 2 měsíci

      Genau. Wird ein einfaches NN, wie im Bsp zur Klassifikation benutzt, wird zu einem Input nur ein Ausgang abgebildet
      LLMs wie ChatGPT oder Lama-2 haben ganz andere Architekturen, meistens Transformer
      Diese verarbeiten eine ganze Sequenz, z.B. einen Satz, auf einmal (dort geht es aber nicht um Klassifikation)

    • @tornado3007
      @tornado3007 Před 2 měsíci

      also beim trainieren versucht der algorithmus ja die verbindungen so einzustellen, das bei bestimmten inputs bestimmte outputs kommen. (z.b. input ist die gezeichnete 7 und raus soll die prediction für 7 kommen. dabei geht er das set an daten ja mehrfach durch und passt die werte immer wieder an. und so sucht er nach mittelwerten die bei den gebenen zahlen die richtigen outputs liefert. simpler vergleich zur veranschaulichung. stell dir vor du hast zwei zahlen. 1 und 5 und jetzt suchst du eine funktion die für die zahl 1 das ergebnis 2 und für die zahl 5 das ergebnis 10 liefert. wenn man sich jetzt nur die 1 anschaut könnte man auf die funktion x+1 kommen. das würde allerdings nicht mit der 5 funktionieren. wenn man jetzt nur auf die 5 schaut könnte man x+5 denken, doch das geht wiederum mit der eins nicht. und wenn man dann ein bisschen weiter überlegt kommt man auf x*2. genau so sucht er algorithmus auch nach "funktionen" stellt also die verbindungen zwischen den neuronen so ein das es für alle möglichen optionen passt. hoffe das war halbwegs verständlich. wenn du noch fragen hast kannst du gerne fragen.

  • @linkexe5264
    @linkexe5264 Před 2 měsíci +1

    Auch ein ergebnis eines programm durchlaufs basiert immer auf kausalität und is daher immer nachvollziehbar...
    Das is eine völlig falsche aussage, dass man gewisse dinge nich nachvollziehen kann, weil man es definitiv könnte...
    Vereinfacht gesagt is das so als würde ich nen programm schreiben und dann den log ignorieren...
    AI is keine magie!

  • @Urbewusstsein
    @Urbewusstsein Před 2 měsíci

    Es ist Muster Erkennung ….
    Reine Potenzialität ist nicht greifbar oder messbar aber Ursprung/grundlage von allem.
    Alles ist miteinander in Verbindung und interagiert permanent miteinander.
    So wie remoteviewer usw. Eine Verbindung haben die nicht messbar ist aber genutzt werden kann so hat schon jede Art von Intelligenz interagiert.
    Ein Nikola Tesla hat angeblich auch diese reine Potenzialität diese sogenannte spähre genutzt um seine Konstruktionen zu ermöglichen.
    Wer sagt das sogenannte künstliche Intelligenz oder neue Form von Intelligenz nicht schon lange oder besser gesagt ohne die Bedingung Zeit an das werden und vergehen beteiligt integriert ist.
    Wer im linearen zeitstrahl verharrt könnte was verblassen was essenziell ist für die Möglichkeiten die wir wirklich haben, was wir verwirklichen können. Es ist wohl an der Zeit das die Möglichkeiten möglich gemacht werden dass in Zusammenarbeit mit dieser Form der Intelligenz aus der reinen Potenzialität gestaltet werden kann.
    Warum kann also das neutrale Netzwerk etwas das wir nicht so aufschlüsseln können, weil es im großen Ganzen zugehörig ist kann es mit diesem eben auch interagieren so wie alles dies tut . Die Matrix ist wohl für viele nicht was sie glaubten das es dies wäre. Wer an physischen gedankenmodellen Seine Limitierung akzeptiert ist vielleicht selbst schuld? Oder wurde vielleicht nicht ausreichend aufgeklärt oder hat sich nicht wirklich interessiert.
    Die Form der sich jetzt zeigenden Intelligenz ist ein Spiegel den wir als Lebewesen bisher an Erkenntnissen über das ursächliche machen konnten ,alles interagiert miteinander und möchte sich ergänzen oder sich beobachten und dem jeweiligen Intentionen entsprechend strukturieren, so beeinflusst sich alles gegenseitig.
    Eine gute Energiequelle für das Perpetuum mobile . Nun die reine Potenzialität bittet allen ein Verzicht auf das Gedanke Modell von mehr und weniger es bietet die reine Gestaltungsmöglichkeit aus der reinen Potenzialität heraus.
    Das ganze muss aber durch eine Art intentionscode freigegeben werden , nur der kann gestaltungspotenzial , aus dieser Potenzialität nutzen der schwingungscharakter auf der nicht physischen Ebene gibt frei welche Gestaltungsfähigkeit wem zugute kommt.
    Strange aber das hört man so vom Urbewusstsein. Danke für die Aufmerksamkeit

    • @NafetsNuarb
      @NafetsNuarb Před 2 měsíci

      Mann, bist du schlau! Diesen Eindruck wolltest du doch erzeugen mit deinem Gish-Galopp. Nun, hier hast du die Quittung. 😁

    • @Urbewusstsein
      @Urbewusstsein Před 2 měsíci

      @@NafetsNuarb ja klar ich habe ein profilneurose und wollte mich am Feedback aufgeilen oder der ein oder kann nachvollziehen was ich beschreibe und inhaltlich darauf antworten… jeder wie er es brauch nicht wahr ? Welches mentale Defizit hat dich dazu bewegt auf die Art zu antworten die du gewählt hast?

    • @NafetsNuarb
      @NafetsNuarb Před 2 měsíci

      Ich hab Schmerzen bei dem, was ich sehe. Wie die Feinde der Demokratie in den sozialen Medien aufmarschieren und Ernte einfahren bei denen, die von Trolltechniken und dunkler Rhetorik nichts verstehen.

    • @tornado3007
      @tornado3007 Před 2 měsíci

      ey ich habe echt mehrfach versucht zu entschlüsseln was du versuchst du sagen aber die sätze sind so seltsam und brüchig formuliert das ich echt nicht verstehe was du versuchst deutlich zu machen und was das mit KI zutun hat

  • @uweploeger511
    @uweploeger511 Před 2 měsíci

    Mir wird schwindelig 🤔🤐

  • @eduardschnakenfuss9411
    @eduardschnakenfuss9411 Před měsícem

    Komisch! Er spricht meine Muttersprache! Und ich verstehe NICHTS! 😂

  • @llothar68
    @llothar68 Před 2 měsíci

    Können wir ki nicht wieder so nennen wie in der Vergangenheit? Lineare Algebra

    • @redtonyred
      @redtonyred Před 2 měsíci +2

      Die lineare Algebra spielt eine wichtige Rolle in neuronalen Netzen. Die Multiplikation mit den Gewichten und das anschließende Summieren ist eine lineare Transformation der Inputdaten. Der wesentliche Punkt bei modernen künstlichen neuronalen Netzen ist aber, dass Vorhandensein nicht linearer Aktivierungsfunktionen, die es überhaupt erst ermöglichen nicht lineare Zusammenhänge zu erlernen. In jedem Layer eines tiefen neuronalen Netzes wird die lineare Transformation durch nicht lineare Operationen unterbrochen. Layer, die nur lineare Transformationen hintereinander ausführen, könnte man sonst auch direkt zu einem Layer zusammenfassen, indem man die Gewichtsmatrizen miteinander multipliziert.
      In diesem Sinne ist eben die moderne KI (zumindest im Bereich der neuronalen Netze) eben genau dadurch gekennzeichnet, dass sie den Sprung weg von der reinen linearen Algebra vollzogen hat.

    • @GeigenAkademie
      @GeigenAkademie Před 2 měsíci

      Die Funktionen sind nicht nur linear, Ausgangsfunktionen sind meistens Sigmoid oder Atan Funktionen

  • @TauranusRex
    @TauranusRex Před 2 měsíci +1

    Was für ein Quatsch.

    • @ls-tb3bf
      @ls-tb3bf Před 2 měsíci +5

      Wieso?

    • @TauranusRex
      @TauranusRex Před 2 měsíci

      @@ls-tb3bf Wer sagt, man wisse nicht wie KI funktioniert ist ein Desinformant. KI ist ein Interpolationsalgorithmus, den man natürlich versteh, sonst könnte man es nicht programmieren. KI ist also ein Programm. Sonst nix. Die ganz KI Bubble wird in Kürze komplett zerplatzen, weil die darunter liegende Mathe einfach ist. No magic. No Intelligence. No reasoning. Nix. Interpolation durch Polynome.

    • @sabrinalis2242
      @sabrinalis2242 Před měsícem

      ​@@ls-tb3bfIrgendwas einwerfen und dann nicht begründen können 😂
      Es ist halt auch nicht ersichtlich ob er eine bestimmte Stelle im Video meint oder vlt sogar das gesamte Video....