Günther Haslbeck
Günther Haslbeck
  • 44
  • 20 645
Analysiere E-Mails für #Versicherungen / #Unternehmen mit #KI /#AI
Analysiere E-Mails für #Versicherungen / #Unternehmen mit #KI /#AI lokal mit Ollama /#Gemma2.
So kannst du #Email Inhalte automatisch lesen und zuordnen (Input-Management).
Stell dir vor, du bekommst den ganzen Tag Emails und du möchtest diese automatischer auswerten. Filterregeln sind aber sehr statisch, mit #KI kannst du da schon viel mehr machen, Inhalte analysieren, Daten aus Bildern extrahieren, Frau erkennen, ggf. Mitarbeiter zuweisen. Gucks dir an.
Kein #ChatGPT, keine #Cloud, alles lokal.
---
Künstliche Intelligenz in der Versicherungsbranche
Systeme der künstlichen Intelligenz bei den Versicherungen
AI in der Versicherungsbranche
Artificial Intelligence in der Versicherungsbranche
---
**Kapitelübersicht:**
0:00 Intro
0:30 Überblick
2:57 Testemails an Versicherung einlesen
4:16 Programm starten
6:48 Analyse fertig
7:16 Prüfen was die KI für Versicherungen generiert hat
11:30 Fazit
---
**Inhalt:**
In der heutigen digitalen Ära steigt die Anzahl der E-Mails, die Versicherungen täglich von Kunden erhalten, stetig an. Diese E-Mails enthalten oft wichtige Informationen, Anfragen und Beschwerden, die schnell und effizient bearbeitet werden müssen. Eine manuelle Bearbeitung kann jedoch zeitaufwendig und fehleranfällig sein, insbesondere wenn das Volumen hoch ist. Hier kommt die Künstliche Intelligenz (KI) ins Spiel. Der Einsatz von KI zur Verwaltung und Bearbeitung von eingehenden Kunden-E-Mails bietet eine Vielzahl von Vorteilen, die sowohl die Effizienz als auch die Kundenzufriedenheit erheblich steigern können.
1. Automatisierte Priorisierung und Kategorisierung
KI kann dazu verwendet werden, eingehende E-Mails automatisch zu priorisieren und zu kategorisieren. Dies bedeutet, dass dringende Anfragen oder Beschwerden sofort erkannt und an die zuständigen Mitarbeiter weitergeleitet werden können. Durch die Analyse des Inhalts und der Dringlichkeit der E-Mail kann KI sicherstellen, dass keine wichtigen Nachrichten übersehen werden und zeitnah bearbeitet werden.
2. Reduktion von Fehlern
Menschen machen Fehler - besonders wenn sie unter Druck stehen oder große Mengen an E-Mails bearbeiten müssen. KI hingegen arbeitet konsistent und präzise, was die Wahrscheinlichkeit von Fehlern reduziert. So können wichtige Informationen korrekt verarbeitet und weitergeleitet werden, ohne dass etwas übersehen wird.
3. Kontinuierliche Verfügbarkeit
Ein weiterer Vorteil der KI ist ihre ständige Verfügbarkeit. Während menschliche Mitarbeiter Pausen benötigen und nicht rund um die Uhr arbeiten können, kann KI rund um die Uhr E-Mails bearbeiten und so sicherstellen, dass keine Anfrage unbeachtet bleibt - unabhängig von der Uhrzeit.
4. Wertvolle Datenanalyse
Die von KI verarbeiteten E-Mails können wertvolle Daten enthalten, die für strategische Entscheidungen genutzt werden können. KI kann Trends und Muster in den Kundenanfragen erkennen, die auf Probleme oder Chancen hinweisen. So können Unternehmen proaktiv handeln, bevor größere Herausforderungen entstehen.
5. Skalierbarkeit
Wenn eine Versicherung wächst und das Volumen der Kunden-E-Mails steigt, kann KI problemlos mitwachsen. Sie passt sich flexibel an das steigende Aufkommen an, ohne dass zusätzliche personelle Ressourcen erforderlich sind. Dies ermöglicht es Unternehmen, ihre Kommunikationskapazitäten zu erweitern, ohne die Qualität des Kundenservice zu beeinträchtigen.
6. Sicherheitsvorteile
KI-Systeme können auch zur Verbesserung der Sicherheit beitragen, indem sie Phishing-Versuche oder schädliche Anhänge in E-Mails erkennen und blockieren. Dies schützt nicht nur das Unternehmen, sondern auch die Kunden vor potenziellen Sicherheitsbedrohungen.
7. Kosteneinsparungen
Durch den Einsatz von KI können Versicherungen die Kosten für die Verwaltung von Kunden-E-Mails erheblich senken. Weniger manuelle Arbeit bedeutet weniger Personalbedarf und damit niedrigere Betriebskosten. Gleichzeitig wird die Effizienz gesteigert, was zu einer besseren Ressourcennutzung führt.
zhlédnutí: 61

Video

Analysiere E-Mails für Versicherungen und andere Unternehmen mit #KI / #AI lokal mit KI ohne ChatGPT
zhlédnutí 52Před dnem
Analysiere E-Mails für #Versicherungen / #Unternehmen mit#KI /#AI lokal mit Ollama /#Gemma2. So kannst du#Email Inhalte automatisch lesen und zuordnen. Stell dir vor, du bekommst den ganzen Tag Emails und du möchtest diese automatischer auswerten. Filterregeln sind aber sehr statisch, mit #KI kannst du da schon viel mehr machen, Inhalte analysieren, Daten aus Bildern extrahieren, Fraud erkennen...
Vertrieb stärken durch #SEO mit lokaler #KI #
zhlédnutí 28Před měsícem
KI kann dir helfen, deine Suchtreffer in #Google zu optimieren. Alles #lokal mit #ollama mit #gemma
#SEO optimierung mit #ollama und #gemma2
zhlédnutí 79Před měsícem
#SEO optimierung mit #ollama und #gemma2
fakerechnungen und echte dokumente erkennen und klassifizieren mit #ki
zhlédnutí 92Před 2 měsíci
fakerechnungen und echte dokumente erkennen mit #ki #Dokumente erkennen und zu klassifizieren. Mit #lokaler #Ki mit #ollama und #gemma2 Sowas entlastet zum Beispiel Mitarbeiter im #Input-Management und Effizienz und Qualität des #Dokumentenmanagement zum Beispiel bei #Banken und #Versicherungen Alles #lokal, kein #Internet, kein #Datenschutz Thema. Fragen ? dann frag! oder frag die #metafinanz ...
ollama mit gemma2 ist richtig schnell, sehr gut und lokal - perfekt für Datenschutz
zhlédnutí 190Před 2 měsíci
ollama mit gemma2 ist echt schnell und sehr gut. Du brauchst kein #chatgpt für solche Aufgaben. So kannst du zB WordPress Artikel ganz einfach erstellen. File: github.com/ghaslbe/ollamasimplehtmlpage Bei fragen: www.linkedin.com/in/guentherhaslbeck/ Rechner: M1 Macbook ohne extra Hardware. M1 Pro mit 16 GB Ram. Prompt kannst du eine gliederung erstellen als zum thema "Vertrieb im IT Consulting....
Zeiterfassungsapp Teil 2 - Flutter apk aus Google idx auf Android Handy installieren
zhlédnutí 62Před 2 měsíci
Zeiterfassungsapp Teil 2 - Flutter apk aus Google idx auf Android Handy installieren
Android App mit Google IDX und ChatGPT in 8 Minuten - ZeiterfassungsAPP bauen
zhlédnutí 96Před 2 měsíci
Android App mit Google IDX und ChatGPT in 8 Minuten - ZeiterfassungsAPP bauen
Programme lokal starten mit #KI / #ChatGPT
zhlédnutí 42Před 3 měsíci
Daten ins lokale #Excel oder deine #Kundendaten in natürlicher Sprache abfragen.. so gehts: Dieses kleine #Video zeigt wie ein #GenAI #Chatbot Excel lokal auf meinem Rechner öffnet und wie er eine #Mysql in natürlicher Sprache abfragt. Alles relativ einfach gemacht. Meld dich einfach, wenn du fragen hast an die www.metafinanz.de oder an mich www.linkedin.com/in/guentherhaslbeck/ #ki #ai #chatgp...
Deine eigene lokale KI mit Ollama und Page Assist für Chrome. Vergiss #chatgpt
zhlédnutí 335Před 3 měsíci
Deine eigene lokale KI / künstliche Intelligenz mit #Ollama und #PageAssist für #Chrome auf deinem eigenen Rechner. Vergiss #ChatGPT . Funktioniert natürlich auch ohne Internet / offline. Nutze #Phi3, #Mistral / #Mixtral oder #Gemma auf deinem eigenen Rechner ohne Daten ins Internet zu senden. Da ist gut für den #Datenschutz und ist auch auf langsamen Rechnern nutzbar. Das ist deine kostenlose ...
#ollama lokal nutzen mit einer #Chrome Extension
zhlédnutí 50Před 3 měsíci
#ollama lokal nutzen mit einer #Chrome Extension und das #llama3 oder #phi3 Modell einfach mal was fragen... ollama findet ihr auf ollama.com und die Extension unter chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo
Open WebUI und Ollama mit LLama3 und du brauchst kein #ChatGPT mehr
zhlédnutí 2,4KPřed 3 měsíci
#OpenWebUI und #Ollama mit #LLama3 und du brauchst kein #ChatGPT mehr. Es läuft vollkommen ohne #Internet lokal auf meinem Rechner... Als wäre es das Original. Nur das ich nun unendlich viele Modelle verwenden kann. #chatgpt / #chatgpt4 Abo kannst du dir jetzt sparen. 00:33 Offline 01:22 Runterladen aus Github github.com/open-webui/open-webui 02:32 #OpenWebUI und #Ollama mit #LLama3 benutzen Ch...
Webseiten lokal abholen und auf deutsch übersetzen mit Ollama und LLama3 - schneller als ChatGPT4
zhlédnutí 126Před 3 měsíci
Webseiten lokal abholen und auf deutsch übersetzen mit Ollama und LLama3 - schneller als ChatGPT4 Ollama auf meinem MacBookM1 ist ca genau so schnell wie ChatGPT im Internet. Wieso noch Geld zahlen?
Eigene Daten in der KI lokal verwenden mit AnythingLLM und Ollama
zhlédnutí 1,2KPřed 4 měsíci
Eigene Daten in der KI lokal verwenden mit AnythingLLM und Ollama
Deine eigene KI lokal zuhause mit Ollama. Vergiss ChatGPT
zhlédnutí 1,1KPřed 4 měsíci
Deine eigene KI lokal zuhause mit Ollama. Vergiss ChatGPT
Programmieren mit lokaler KI / mit Ollama, VSCode und CodeGPT - kostenlos
zhlédnutí 1,3KPřed 4 měsíci
Programmieren mit lokaler KI / mit Ollama, VSCode und CodeGPT - kostenlos
#ChatGPT führt lokal Programme aus
zhlédnutí 699Před 4 měsíci
#ChatGPT führt lokal Programme aus
#stablediffusion im #A380 auf 40.000 Fuß zwischen #DXB und #MUC. #Ki / #AI ohne Internet usw.
zhlédnutí 14Před 5 měsíci
#stablediffusion im #A380 auf 40.000 Fuß zwischen #DXB und #MUC. #Ki / #AI ohne Internet usw.
Eigenes Gesicht auf AI / KI generiertes Bild legen ! - Verwandle dich in ein Manga / Comic !
zhlédnutí 768Před 9 měsíci
Eigenes Gesicht auf AI / KI generiertes Bild legen ! - Verwandle dich in ein Manga / Comic !
ChatGPT in Tabellenkalkulation wie Excel oder Google Spreadsheets / Tabellen
zhlédnutí 150Před 10 měsíci
ChatGPT in Tabellenkalkulation wie Excel oder Google Spreadsheets / Tabellen
ChatGPT und PowerPoint - Deine Präsentation in einer Minute
zhlédnutí 505Před 10 měsíci
ChatGPT und PowerPoint - Deine Präsentation in einer Minute
Chat-GPT basierendes Tool beantwortet E-Mails selbständig
zhlédnutí 374Před 11 měsíci
Chat-GPT basierendes Tool beantwortet E-Mails selbständig
ChatGPT API beantwortet Kundenanfragen selbständig. Dein automatischer Kundendienst
zhlédnutí 383Před 11 měsíci
ChatGPT API beantwortet Kundenanfragen selbständig. Dein automatischer Kundendienst
ChatGPT beantwortet E-Mails spezifisch und persönlich zB in Personalabteilung, Kundendienst usw
zhlédnutí 163Před 11 měsíci
ChatGPT beantwortet E-Mails spezifisch und persönlich zB in Personalabteilung, Kundendienst usw
Wordpress Beiträge direkt mit ChatGPT API erstellen
zhlédnutí 109Před 11 měsíci
Wordpress Beiträge direkt mit ChatGPT API erstellen
B2B Email einfach schreiben mit ChatGPT
zhlédnutí 82Před 11 měsíci
B2B Email einfach schreiben mit ChatGPT
Erstelle mit GTP4ALL lokal deine Werbetexte für deine Ads ohne ChatGPT
zhlédnutí 165Před rokem
Erstelle mit GTP4ALL lokal deine Werbetexte für deine Ads ohne ChatGPT
GPT4All mit Llama 2 von meta / Facebook und eigenen PDFs
zhlédnutí 1,6KPřed rokem
GPT4All mit Llama 2 von meta / Facebook und eigenen PDFs
Visual Studio, Copilot, ChatGPT , Java und eigener Code - ein kleiner Test
zhlédnutí 54Před rokem
Visual Studio, Copilot, ChatGPT , Java und eigener Code - ein kleiner Test
Wordpress Plugin von ChatGPT programmieren lassen
zhlédnutí 297Před rokem
Wordpress Plugin von ChatGPT programmieren lassen

Komentáře

  • @andreaskern2862
    @andreaskern2862 Před 17 hodinami

    Hast du das auch immer, dass die Ausgabe der KI als normale Antwort kommt und nicht als json? Dann bricht natürlich das Script ab.

  • @teenaobermeier8107
    @teenaobermeier8107 Před 7 dny

    Sehr interessantes Video um zu verstehen was man alles mi ki machen kann. Danke

  • @andreaskern2862
    @andreaskern2862 Před 8 dny

    Kann man sich den Code irgendwo anschauen damit man damit selber experimentieren kann?

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 8 dny

      Hi, klar: github.com/ghaslbe/sortEmails

    • @andreaskern2862
      @andreaskern2862 Před 8 dny

      @@GuentherHaslbeck Super. Vielen Dank

    • @andreaskern2862
      @andreaskern2862 Před 3 dny

      Hast du das auch immer, dass die Ausgabe der KI als normale Antwort kommt und nicht als json?

  • @ernymonroe3829
    @ernymonroe3829 Před 28 dny

    Erst einmal DANKE !!! VSCode mit Ollama und CodeGPT ist der beste Tip hier ! Aber irgend wie hast du alles doppelt gemoppelt, es geht VIEL einfacher: 1. VS Code runterladen, installieren und starten. 2. Ollama runterladen, installieren und starten. 3. CodeGPT in der Extensions Suchleiste von VS Code eingeben. 4. CodeGPT mittels blauem iINSTALL Feld installieren. 5. CodeGPT links in der Startleiste starten. 6. Im Fenster von CodeGPT, oben links, das Menü öffnen und als "PROVIDER" Ollama wählen. 7. Im Feld darunter das gewünschte Modell wählen, z.B. codestral. 8. Das Menü schließt sich und muss neu geöffnet werden um den Download mittels der "DOWNLOAD MODEL" Fläche zu starten. 9. Warten bis der Download abgeschlossen ist. Das wars, viel Spaß ! 🖥

  • @okanocal8982
    @okanocal8982 Před měsícem

    Hi erstmals vielen Dank für das Video! Ich frage mich, ob man die Modelle kombinieren und trainieren kann. Bei mir wär das perfekt wegen den ganzen Normen für die Baustelle. Lg danke

    • @GuentherHaslbeck
      @GuentherHaslbeck Před měsícem

      Da guckst du mal beim Bastian Strauss rein. Was du brauchst ist eine „zusätzliche DB“ , technisch RAG genannt czcams.com/video/Lbr5zjC968o/video.htmlsi=jPT-h3Y9VVWS1veO

  • @ChrisW1234
    @ChrisW1234 Před 2 měsíci

    Das mit Paperless-NGX :)

  • @silentwater79
    @silentwater79 Před 2 měsíci

    Bezüglich Geschwindigkeit... Auf was für einem Rechner mit welcher Grafikkarte läuft das? Ansonsten macht die Aussage das es ziemlich schnell ist, wenig Sinn und auch ohne einen Vergleich zu anderen Modellen ist die Aussage so relativ nochtssagend.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 2 měsíci

      Oh, stimmt, das hab ich diesmal vergessen. Das ist ein M1 Macbook ohne extra Hardware. M1 Pro mit 16 GB Ram.

    • @Silberschweifer
      @Silberschweifer Před měsícem

      siehe Videobeschreibung << An sich denke ich persönlich, muss es nicht so schnell sein. Weil du kannst es wie ein E-Mail schriftverkehr dir vorstellen/nutzen.

  • @bastianstrauss
    @bastianstrauss Před 2 měsíci

    Ziemlich cool!

  • @Toomonline
    @Toomonline Před 3 měsíci

    Video ist etwas chaotisch und bringt leider nicht viel. Sorry solche Videos nerven wenn man nicht gut vorbrietet ist. Ich weiß ist viel Arbeit aber warum macht man nicht was richtig cooles. ;)

  • @tratube1
    @tratube1 Před 3 měsíci

    Wie wichtig ist der Einsatz von guter HArdware bei den Offine KIs? Mit langsamen Office Rechnern im Job scheint mir #chatgpt noch alternativlos? Oder gibt es da auch Alternativen?

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 3 měsíci

      Also das ist ein 3 Jahre alter Intel Core i5 Prozessor in dem Video mit onboard Grafikkarte. Die meisten büropcs sind sicher ähnlich schwach auf der Brust. Die MacBooks mit M Prozessor und mind 16-32 GB RAM sind deutlich schneller. Auch gehen würde ollama auf einem schnellen Mac oder einem guten PC Laufen zu lassen und den dann als Quelle zu nutzen. Dann bleibts immer noch irgendwie im Office. Schneller als Ollama hab ich bisher nichts, ich bleib aber dran. Ich nutze beides übrigens als API jeh nach usecase.

  • @Arsat74
    @Arsat74 Před 3 měsíci

    Als Gamer wäre für mich ja auch wichtig wie ich weiß wann ollama läuft und wann nicht (wegen dem Speicherverbrauch) und was die Chunk Einstellungen bewirken. Edit : Klar könnte ich das alles nachschlagen. Es ist ja auch eine Anmerkung das sowas in genau solchen Videos als Info gleich nicht schlecht wären.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 3 měsíci

      Hi, ja das stimmt. Das wäre mal ein Video wert. Danke für die Idee. Die Chunk Size gibt an, wie groß ein Input sein kann: Beispiel 4: Das Auto ist rot. Es hat vier Räder. Wäre dann Chunk 1: Das Auto ist rot. Chunk 2: Es hat vier Räder. Problem: Wenn du nun fragst: Wie viele Räder hat ein Auto.. wirst du keine Antwort bekommen, weil in Chunk2 Auto nicht erwähnt ist. Deswegen gibt es das Overlap. Das wiederum würde bei 2 bedeuten Chunk 1: Das Auto ist rot. Chunk 2: ist rot. Es hat Chunk 3: Es hat vier Räder. Auch hier würde es mit der Frage nicht mehr klappen aber du verstehst den Sinn denken ich..

    • @Arsat74
      @Arsat74 Před 3 měsíci

      @@GuentherHaslbeck Klar versteh ich und das wäre wirklich ein Video wert. Die andere Frage wäre aber noch interessant und wieso sollte man ollama benutzen und nicht z.b. gpt4all oder jan oder Lm studio usw ? Bei der anderen Frage ist es so, daß ich bei GPT4all es ja als Programm nutze und da sieht man ja in Windows genau wann es offen ist und wann nicht. Ollama hab ich bis jetzt nicht versucht, aber als Windowsuser bin ich halt nicht so der Eingabeaufforderungsbenutzer und daher stellt sich mir eben die Frage wann das Framework und das LLM aktiv ist und wann nicht. Sorry typische Windowsuser dau frage.

  • @teenaobermeier8107
    @teenaobermeier8107 Před 3 měsíci

    Danke für die ausführliche Anleitung

  • @tratube1
    @tratube1 Před 3 měsíci

    Guten Tag, ich interessiere mich für ihr Programm und wieder es gerne ausprobieren. Danke.

  • @Hayastan80
    @Hayastan80 Před 3 měsíci

    Cool, Danke 😊

  • @MarkusPfeisinger
    @MarkusPfeisinger Před 3 měsíci

    LM Studio laufen auch alle Models offline. Das gibt es ja schon ein halbes Jahr. Kannst sogar auf die API lokal auf die LLMs zugreifen.

  • @Y.Cetinkaya2033
    @Y.Cetinkaya2033 Před 3 měsíci

    Wäre schön, wenn du den Ton bei den Videos ein bisschen höher einstellen würdest! Sonst 'Top!

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 3 měsíci

      Ja kein Witz, ich hab 3 Mikros aber am Ende klappt’s irgendwie nicht. Hauptsächlich bräuchte ich mal ne Halterung die das Mikro von oben ran führt, weils sonst immer im Weg ist. Danke fürn schubs, muss echt mal was machen.

    • @Y.Cetinkaya2033
      @Y.Cetinkaya2033 Před 3 měsíci

      @@GuentherHaslbeck Vielleicht hat es nichts mit dem Mikrofon zu tun, sondern nur eine Einstellungsfehler. Man kann bestimmt über die Software die Lautstärke erhöhen

  • @3pcgi959
    @3pcgi959 Před 3 měsíci

    Nicht so ausgereift wie ChatGPT. Kann auch Deutsch nicht so gut. Mit starker Hardware kann man LLama3 und viele andere Chatbots auch offline nutzen, aber zu sagen VERGISST CHATGPT ist völliger Blödsinn.

  • @DocKotoga
    @DocKotoga Před 4 měsíci

    Network Chuck hat zu dem Thema ein sehr ausführliches Video gemacht 😉

  • @SierraX369
    @SierraX369 Před 4 měsíci

    Halte ich trotzdem für eine gewagte Aussage. Im moment ist eine der nennenswerten Grössen, die Anzahl der Parameter. LLAMA3 gibt es in den Geschmacksrichtungen mit 8 Milliarden und 70 Milliarden Parametern. Wie auch in der Liste Ihrer heruntergeladenen Modelle zu sehen war. Chatgpt 4 soll 175 Milliarden Parameter haben. Die grossen Modelle sind so Resourcenhungrig, das man mis seinem Lokalen rechner nicht wirklich zurande kommt Als kleinen Benchmark hab ich mal die übliche Frage "Why is the Sky blue?" gegen beide laufen lassen auf 2 verschiedenen Maschinen laufen lassen. Einmal auf nem LXC mit 8 Cores und 40GB RAM und einmal auf nem M1 MacMini mit 8GB Ram. 8B hat das ganze 80 Sekunden beim LXC und 40 Sekunden beim M1 gedauert beim 70B etwa 10 Minuten beim LXC und 8 Stunden beim M1. Um das grosse Performant laufen zu lassen, so sagt man, sollten das 2-3 Fache an RAM oder GPU/RAM der LLM Grösse zur verfügung haben. Also wäre dafür beim MBP schon mal etwa 5-6 Tausend € fällig… Intel wird da wahrscheinlich auch mindestens die Hälfte kosten. Anyway für viele Aufgaben dürften die kleinen Modelle gut genug sein… allerdings ist es trotzdem nur ein müder Ersatz. Sowohl 8B als auch 70B

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Naja, die Videos sind in erster Linie ja mal gedacht zu zeigen, das es auch lokal geht. Dass man die gleiche "Qualität" wie OpenAI lokal nicht hin bekommt ist ja so denke ich klar. Sicher, die Aussage ist etwas gewagt aber ich höre momentan um mich rum immer nur: "Das geht nicht" und "Datenschutz". Beides sind aber Scheinargumente die man so schon mal (für viele Anwendungsfälle) entkräften kann. Auf der anderen Seite würde ich denken, dass die CPU (nicht GPU) Hersteller nun alle schaun werden, dass sowas auf einem normalen BüroLaptop soweit wie möglich klappt. Genau so wie die Hersteller von Handys. Da dürfte also eine Optimierung in dem Bereich stattfinden. Alles was dann nicht lokal geht, geht sicher weiter in die Cloud... Mal sehen, was in 1-2 Jahren möglich ist.

    • @justMeFromDe
      @justMeFromDe Před 3 měsíci

      @@GuentherHaslbeck dein Titel vom video mit "du brauchst kein chatgpt mehr" ist leider sehr weit hergeholt. Und ich glaube die Zukunft liegt auf keinen Fall darin KI Modelle lokal kaufen zu lassen, höchstens ganz kleine Modelle um die Bedienung zu vereinfachen. Der Hauptfokus wird deutlich stärker in Richtung cloud gehen da man dort die Infrastruktur deutlich besser skalieren kann und am Ende ist es ja auch ein Geschãftsmodell was sehr profitabel ist. Das Thema Datenschutz wird ja auch ständig ausgebaut und ist bereits über Azure Instanzen scheinbar geregelt, aber dem Frieden traue ich noch nicht so ganz bevor hier nichts klar von Regierungsseite reguliert wurde.

  • @teenaobermeier8107
    @teenaobermeier8107 Před 4 měsíci

    Beeindruckend, wie schnell das ist

  • @MadChristianX
    @MadChristianX Před 4 měsíci

    Die Qualität des Code den llama3 ausspuckt kommt nicht an die Qualität den Code von GPT4 ran. Aber vielleicht wird das noch.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Ja es gibt ja x Modelle auf huggingfaces - da müsste man sich mal genauer beschäftigen ob’s nicht eins für Sprache Xy gibt welches besser ist

    • @intarsienschrankzwetschgen4224
      @intarsienschrankzwetschgen4224 Před 3 měsíci

      Aber wenn Du schon ollama auf dem Rechner hast, dann lass mal "starcoder2:instruct" laufen. Das ist das Modell für Code.

  • @Silberschweifer
    @Silberschweifer Před 4 měsíci

    Wie war die Temperatur eingestellt beim API Call, zu hoch sorgt halt für gewisse ausartende Kreativität.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Oh, das kann ich nicht mehr sagen. Das ist schon lange her. Aber ja, stimmt, das macht viel aus.

  • @martoneifert1275
    @martoneifert1275 Před 4 měsíci

    Hi Günther! Man sieht leider bei YT den unteren Teil deines Displays nicht, also was du in den Chat eingibst usw. Trotzdem gelungenes Video! ✌️

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Die Videos waren gar nicht so unbedingt .. also klar war das für CZcams aber ich hätte nicht erwartet, dass es so oft angeguckt wird. Ich muss die alle nochmal machen und richtig. Auf der anderen Seiten kommt man ja kaum noch nach

  • @teenaobermeier8107
    @teenaobermeier8107 Před 4 měsíci

    Sehr cool

  • @simono.899
    @simono.899 Před 4 měsíci

    4:55 danke ich habe die gleiche Klingel und bin durchs Haus gelaufen xD

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Gerne … schlimm oder ? Man zuckt richtig zusammen ;)

  • @simono.899
    @simono.899 Před 4 měsíci

    "zu meiner Zeit. Also vor einer Woche" :D Das fasst AI aktuell ganz gut zusammen

  • @bastianstrauss
    @bastianstrauss Před 4 měsíci

    Und kleiner Tipp bei den Einstellungen von Chat auf Query ändern. Dann denkt das System nichts aus!

  • @bastianstrauss
    @bastianstrauss Před 4 měsíci

    😊 schön das du dich mit AnythingLLM auch beschäftigt hast. Das Chunking ist leider nicht so doll. Schau dir mal LamaParse für die Vorbereitung der Texte an. Ich bastel aktuell an ChromaDB und VectorAdmin

  • @mhoathome
    @mhoathome Před 4 měsíci

    Von KI kann ich nichts erkenne. Habe eine kleine Textdatei erstellt mit einigen meiner persönlichen Informationen (Familie). Viele Fragen zu den Familienmitgliedern wird falsch beantworter und erst, wenn ich 4x die Rückmeldung geben: "Die Antwort ist falsch." kommt häufig die korrekte Antwort. Von KI ist das weit entfernt. Habe schon mit den Einstellungswerten rumgespielt, aber keine Besserung feststellen können. Schade, mit solcher "KI" kann man nicht arbeiten, da man alle Anworten hinterfragen muss. Die Online KI-Assistenten, ich nutze zur Zeit noch "PI" habe ich einmal mit den Daten gefüttert (vor 2 Monate) und der kann jede frage zu den Familienmitgliedern korrekt beantworten. So muss es sein. Keine plötzlichen Fantasienamen, Meine Schwester ist plötzlich meine Tochter oder meine Pflegetochter ist plötzlich die Tochter meiner Schwester usw. Dass hat mit KI nichts zu tun. Augenwischerrei. Da fehlt wohl noch mindestens 1 Jahre Entwicklungsarbeit. Auch das Modell von GPT4All macht die gleichen Fehler mit lokalen Dokumenten. Wenn ich den Text in LLama3 Chat direkt einkippe, macht diese KI auch keine Fehler bei der Beantwortung von Fragen zu den Familenangehörigen, aber ich möcht gerne gespeicherte Bücher, Notizen etc. per KI abrufen/auswerten können. Schade dass es so offline noch nicht klappt.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Es klappt bei den Cloud Tools auch im teuren Businessbereich auch nicht besser. Ich sehe erst mal das Problem bei der Geschwindigkeit. Normale Rechner sind momentan dafür kaum geeignet. Handys auch nicht. Apple zeigt aber dass es geht und zwar mit einem deutlich weniger Strom verbrauchenden Prozessor. Da werden nun alle schnell nachziehen. Das sehe ich als Voraussetzungen für den Massenmarkt und dann auch für bessere Software. 1-2 Jahre noch, dann ist das alles erledigt. Klar könnte man auch in der teuren Cloud entwickeln aber wer will das schon. Also noch ein bissl Geduld. Tipp: Wenn du statt ollama LMStudio verwendest, dann kannst du besser sehen was dort ankommt als Suchtreffer.

  • @Arsat74
    @Arsat74 Před 4 měsíci

    Danke für das Video, weil es doch mehr Schritte braucht als bei GPT4all oder PInokio Edit: Ja das mit den PDFs ist ein problem. er soll ja nicht nur nachschlagen. Das LLM sollte wenn dann auch davon lernen. Das wäre besser.

  • @Arsat74
    @Arsat74 Před 4 měsíci

    Hast du evtl eine Idee wieso ich damit die LLM verschossen habe ? Ich hab mir auch GPT4all installiert. Das deutsche Mistral geholt. deutsche und englische Pen and Paper PDFs reingeladen und danach hat die LLM nur noch mit chinesischen Zeichen geantwortet. selbst wo ich sagte er soll deutsch mit mir reden hat er mir gesagt das er das gerne tun kann und ob ich etwas über die chinesische Kultur oder den Taoismus lernen will... in chinesischen Zeichen. Ich dann erstmal nach Viren gescannt, die PDFs wieder rausgenommen... nichts hat geholfen bzw er gab nur noch immer assistant als Antwort.. Da danach auch noch der Vireenscanner sein Update verhaun hat und alle exe weg waren von dem Scanner hab ich GPT4all deinstalliert und seitdem nicht mehr angefasst... Im offiziellen Discord gabs leider auch keine antwort darauf...

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Hi, mittlerweile würde ich dir empfehlen: Installiere dir Ollama oder LMStudio. Lade dort das Model welches du möchtest. Dann AnythingLLM useanything.com/ und dort lege deine Daten ab. Das verknüpfst du dann mit Ollama oder LMStudio. Dann kannst mit denen darüber deutlich besser chatten.

  • @Arsat74
    @Arsat74 Před 4 měsíci

    Bömisches Dorf, aber interessant.

  • @bastianstrauss
    @bastianstrauss Před 4 měsíci

    Ha ha… endlich mal ein Video wo nicht alles auf Anhieb klappt. So etwas hatte ich letztens auch. Hab das Video zweimal abgebrochen. Aber deinen Tipp werde ich ausprobieren!

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 4 měsíci

      Ja ich überleg , ob ich’s nochmal mache… die Kinder sind mir auch noch reingelaufen… auf der anderen Seite… ist auch mal nett ;)

  • @bastianstrauss
    @bastianstrauss Před 4 měsíci

    Oh das wollte ich auch schon immer mal ausprobieren. Für mich ist das nicht so interessant!

  • @WladBlank
    @WladBlank Před 4 měsíci

    Nutz für Locale LLMs am besten CodeQwen chat oder Mistral Hermes pro 2 7b Nur so als Tipp :)

  • @mhoathome
    @mhoathome Před 8 měsíci

    Ich kann die "KI" hier nicht erkennen. Habe eine Datei mit meinen persönlichen Daten (Geburtstag- und Ort, Geschwister und deren Kinder) erstellt und gpt4all als PDF zu Verfügung gestellt und einige Fragen, z. B. zu meinen Geburtstag oder Ort werden auch richtig benantworter. Andere Fragen, z. B. wer ist meine Nichte, werden falsch beantwortet (wird meine Schwester als meine Nichte genannt). Sehr enttäuschend. Die Frage ist, wie muss ich die Daten erfassen, so dass die "KI" diese richtig verarbeiten kann? Auch kann das Programm die Systemzeit und das aktuelle Datum nicht ausgeben. Daher kommt bei der Frage wie alt ich bin immer nur mein Geburtsjahr. Enttäuschend. Das Programm sollte doch in der Lage sein, solche Dinge vom aktiven System auslesen zu können.

  • @ck.wvonsint9177
    @ck.wvonsint9177 Před 9 měsíci

    Musstest du gerade Angela Merkel nehmen? 🤢 Nur schwer Anzuschauen dieses Video.

  • @teenaobermeier8107
    @teenaobermeier8107 Před 9 měsíci

    Muss ich nachher gleich mal testen

  • @gizehfine
    @gizehfine Před 11 měsíci

    Bin gespannt auf die Entwicklung in Sachen lokal laufende und lernfähige KI's :D

  • @jiggy671
    @jiggy671 Před 11 měsíci

    warum kann ich das video nicht in youtube speichern?

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 11 měsíci

      Weiß nicht, hab nichts spezielles ein oder ausgeschaltet. Kann ich inhaltlich was helfen ?

  • @MHEick-hx1ml
    @MHEick-hx1ml Před 11 měsíci

    Das Problem zu Beginn war, es heißt "life", nicht "live", das bedeutet dann etwas ganz anderes und das LLM war verwirrt ...

  • @MacInvisible
    @MacInvisible Před 11 měsíci

    🎯 Key Takeaways for quick navigation: 00:40 📥 Download the model in the settings, and set the language to "Human Assistant" for the new Facebook model. 01:08 💻 Adjust the CPU settings, and if you have a newer Mac, consider using the graphics card. 01:52 📂 Specify the path where the models are stored, and make sure the necessary model files are in the correct directory. 03:09 🤖 Experiment with settings to use the new Facebook model in different languages, and it can be customized for various tasks. 04:56 🖥️ The new model formats code more effectively, making it useful for coding tasks. 06:19 📄 The machine can process and understand text in various languages, including German, and can be used for PDF analysis. 09:59 🧠 The model can provide insights and information from text data, but some issues may need further exploration or tweaking. 11:29 📤 To download the Meta Llama 2 model, register on faces.co and enjoy using it offline for various tasks. Made with HARPA AI

  •  Před 11 měsíci

    Bin ich froh, dass ich dieses Video gefunden habe. Habe eben auch versucht Llama2 auf Deutsch zu beschränken, was i.W. unmöglich ist. Weiters erscheinen mir Antworten aus einer lokalen Wissensbasis nur maginal relevant. Eher Llama2-7 (4b) ist eher ernüchternd

  • @aketo8082
    @aketo8082 Před rokem

    Vielen Dank. Nutze GPT4ALL v2.4.14 und llama-2-13b-chat.ggmlv3.q5_K_M.bin. Steht halt noch ganz am Anfang, switcht oft von Deutsch auf Englisch, "Versteht" kaum zusammenhänge und lässt sich leider auch nicht per Dialog "trainieren". Der Zugriff auf eigene Dateien ist auch noch nicht praktikabel. Würde noch nicht sagen, das es funktioniert, da die Tests die Probleme zeigen. Mal sehen, wie es weiter geht.

  • @romeojenny
    @romeojenny Před rokem

    😊😊Warum sagen immer alle es sei fast wie chatgpt.? Nein das ist es eben nicht. Nicht mal gpt3. Ich freue mich auf die Zeit wo es tatsächlich ein vergleichbares offline Large Language Modell gibt.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před rokem

      Ich denke zumindest spezialisiere Modelle werden sicher eher lokal laufen. Mal abwarten. Die Zeit arbeitet für uns :)

  • @giovannisindaco3198

    Du bist der Beste, jetzt kann ich meine KI mit eigenen Daten füttern.

  • @KingTurkoEPVP
    @KingTurkoEPVP Před rokem

    Kann es sein, dass im System Prompt noch eine englische Anweisung steht, dass von daher noch englische Antworten kommen.

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 11 měsíci

      langsam wirds besser, damals war das tool wohl noch zu neu

  • @aketo8082
    @aketo8082 Před rokem

    Vielen Dank. Spannend. Wie kann man GPT4ALL beibringen, das z.B. die richtigen Quellen angegeben werden? Oder, wenn auf deutsch geschrieben wird, das z.B. richtig die Einzahl oder Mehrzahl genutzt wird. Auch wenn man die richtige Antwort gibt, wird sie nicht übernommen. Leider habe ich noch keine Videos oder Anleitung darüber gefunden, wie man mit GPT4ALL trainieren und korrigieren kann. Bin gespannt, ob es dazu mal was gibt. Viele Grüße!

    • @GuentherHaslbeck
      @GuentherHaslbeck Před rokem

      Gute Frage… muss ich mich mal wieder beschäftigen. Es geht ja auch mit Python. Da könnte man ggf besser steuern was das Teil macht. Muss ich mal gucken und das Video erweitern.

    • @Psycho-Duck
      @Psycho-Duck Před 2 měsíci

      Geht nicht weil es Maschinelles lernen ist und keine wirkliche Ki

    • @aketo8082
      @aketo8082 Před 2 měsíci

      @@Psycho-Duck Stimmt. Bin gespannt, wann es soweit sein wird.

  • @LukasLukas-is2lx
    @LukasLukas-is2lx Před rokem

    Matheo ich bin nizam 😂

  • @teenaobermeier8107
    @teenaobermeier8107 Před rokem

    Sehr geil. Wienist das denn, wird das immer verbessert ?

    • @GuentherHaslbeck
      @GuentherHaslbeck Před 11 měsíci

      ja aber schwer zu sagen wie die Fortschritte sind