Bastian Strauss
Bastian Strauss
  • 92
  • 55 483
Automatisierung von Webinhalten und Wissensspeicherung 🤖
In diesem Video präsentiere ich dir die Funktionsweise meines innovativen Content-Speichers, der Ideen und Anwendungen aus Webseiten oder CZcams-Videos extrahiert, bewertet und sicher speichert.
Mein System basiert auf einer Make-Automation, die verschiedene Stränge für CZcams, Webseiten, Bilder und Links nutzt. Mit Hilfe einer KI werden CZcams-Transkripte heruntergeladen und analysiert. Python-Skripte und Proxys kommen zum Einsatz, um die Transkripte zu sichern, wobei eine Sperrung der IP-Adresse möglich ist.
Die extrahierten Inhalte werden in einer Datenbank gespeichert, die verschiedene Felder wie Titel, Zusammenfassung, Bewertung und Quality-Score enthält. Um dir die Funktionalität meines Systems zu demonstrieren, führe ich dir anhand von Beispielen mit CZcams-Videos und Webseiten den Prozess des Extrahierens, Bewertens und Speicherns vor.
Ich überprüfe die Funktionalität des Systems anhand von abgeschlossenen Aktionen wie dem Herunterladen von Transkripten und der Bewertung von Inhalten.
#ContentSpeicher #MakeAutomation #WebContent #CZcamsTranskripte #KI
zhlédnutí: 137

Video

Tutorial Update: Flowise, Make und Airtable
zhlédnutí 110Před 14 dny
Tauche ein in die Welt der Datenbankabfragen und entdecke, wie du durch kreative Problembehandlung und den cleveren Einsatz von Technologie auch komplexe Anfragen vereinfachen kannst. In diesem packenden Video-Tutorial begleitest du mich bei der Bewältigung von Herausforderungen, die bei der Abfrage spezifischer Produktdetails, wie roten Fliesen unterschiedlicher Größe, auftreten. Erlebe, wie d...
Tutorial: A simple database query with Flowise, Make and Airtable.
zhlédnutí 200Před 14 dny
Entdecke in diesem Video, wie du die Macht von Flowise, Make und Airtable kombinierst, um Datenbankabfragen mühelos zu bewältigen! Ich zeige dir, wie du ohne SQL-Kenntnisse externe Datenquellen effektiv nutzen kannst. Erlebe, wie eine clevere Integration dieser Tools nicht nur Zeit spart, sondern auch die Art und Weise revolutioniert, wie wir mit Datenbanken interagieren. Mein Idee führt dich S...
Webhooks und Kurzbefehle: Einführung in die Welt der Automation. Vom Beginner zum Experten
zhlédnutí 224Před 28 dny
Tauche mit Bastian in die spannende Welt der Automationen ein und lerne, wie du mit Make, Webhooks und Kurzbefehlen im Apple-Ökosystem effiziente Workflows schaffst. Dieses praxisorientierte Tutorial bietet dir einen umfassenden Workshop, der sowohl Einsteiger als auch Fortgeschrittene anspricht. Erlebe, wie Bastian Schritt für Schritt die Erstellung eines Webhooks demonstriert, das Testen mit ...
Mixture of Agent wit Flowise: Tutorial
zhlédnutí 263Před měsícem
Tauche ein in die Welt der digitalen Agenten und entdecke, wie du mit dem NoCode Tool FloWise dein eigenes 'Mixture of Agents' Projekt erschaffst! In diesem Video zeige ich dir Schritt für Schritt, wie du ein komplexes System aus mehreren Agenten aufbaust und optimierst. Erfahre, wie ich mein initiales Setup verbessert habe, um den Workflow und das Reasoning entscheidend zu verbessern. Außerdem...
Mixture of Agents (MoA) with no-code: Flowise major update and the power of sequential agents
zhlédnutí 329Před měsícem
Entdecke die Zukunft des No-Code Sektors mit dem neuesten Major Update von Flowise! Dieser innovative Durchbruch ermöglicht die nahtlose Integration sequentieller Agents, was die Art und Weise, wie wir mit Large Language Models arbeiten, grundlegend verändern kann. Mit der benutzerfreundlichen Oberfläche von Flow Wise kannst du nun noch flexibler und effizienter arbeiten, ohne auch nur eine Zei...
Flowise with Agentic Workflows
zhlédnutí 579Před měsícem
In diesem Video tauchen wir ein in die Welt von Flowise 2.0.1, der führenden No-Code-Plattform für Large Language Models. Wir erkunden die neuesten Verbesserungen mit einem beeindruckenden Agentic Workflows. Diese ermöglichen es uns, komplexe Workflows mit mehreren Agenten und Schleifen zu erstellen, was zu einem einzigartigen Zusammenspiel zwischen einem Writer-Agenten und einem Teacher-Agente...
Innovative content storage and dynamic AI search
zhlédnutí 221Před měsícem
Entdecke in diesem Video das faszinierende Update zu meinem 'Straußlischen Wissen'! Ich präsentiere dir effiziente Methoden der Content-Speicherung, von CZcams-Videos über Webseiten bis hin zu Fotos und Audioaufnahmen. Erfahre, wie ich meinen Wissensspeicher mit einer KI verknüpft habe, um Inhalte wie einen Artikel zum Thema 'RAG' schnell wiederzufinden. Tauche ein in meine Datenbank, mein pers...
Revolutionizing content generation: The RAG fusion method
zhlédnutí 203Před 2 měsíci
In dieser Folge entführe ich dich erneut in die faszinierende Welt der RAG Retrieval Augment Generation! Nachdem wir verschiedene Möglichkeiten erkundet haben, Content in das Context Window der KI einzubinden, präsentiere ich dir heute ein aufregendes Update. Entdecke, wie ich einen Bot entwickelt habe, der die Qualität der Outputs verschiedener RAG-Systeme bewertet und die beste Antwort anhand...
The content management revolution through AI
zhlédnutí 596Před 2 měsíci
In diesem Video tauchen wir in die faszinierende Welt der Künstlichen Intelligenz (KI) ein und zeigen dir, wie sie unser tägliches Arbeiten revolutioniert. Du erfährst, wie ich mit Hilfe von KI meine gesammelten Inhalte aus verschiedenen Quellen wie CZcams-Videos, Fotos und Webseiten effizient organisiere und bewertet. Früher war das Wiederfinden spezieller Inhalte eine Herausforderung, doch da...
Teil 5/5: FINALE! Kann RAG kochen? Mit Flowise, Make und Perplexity KI-Ergebnisse testen!
zhlédnutí 236Před 3 měsíci
Teil 5 von 5: Finale, Finale! Nun habe ich 4 verschiedene RAG (Retrieval-Augmented Generation) Systeme ausprobiert. Aber wie kann ich jetzt die Qualität der Ergebnisse beurteilen? Wie ich mir mit Hilfe von Perplexity, Flowise und MAKE einen Bewertungsroboter gebaut habe, der nicht nur die Antwort auf Qualität überprüft, sondern auch begründet, warum die Antwort gut oder schlecht ist und sogar e...
Teil 4/5: Flowise, LangGraph und RAG: Kann mein ToolAgent das Rätsel lösen?
zhlédnutí 239Před 3 měsíci
In Teil 4 von 5 über RAG (Retrieval Augmented Generation) habe ich die Nase voll und baue mir meinen eigenen ToolAgent und einen QuestionGenerator in Flowise und verbinde diese dann mit meinem RAG-System. Warum ich das mache. Ich möchte herausfinden, welche Methode den Output für das RAG System verbessert. Dazu verwende ich die Idee von RAG Fusion, aber diesmal ohne RRF (Reciprocal Rank Fusion)...
Teil 3/5: Kann man RAG mit LangGraph auf Flowise bauen? Spoiler: Es ist kompliziert, aber spannend!
zhlédnutí 188Před 3 měsíci
Im 3. Teil meiner 5-teiligen Serie über RAG (Retrieval Augmented Generation) versuche ich ein RAG-System mit Hilfe von LangGraph aufzubauen. Dazu verwende ich einen KI-Agenten für das RAG-System, einen KI-Agenten für die Erweiterung der Frage (Questiongenerator), einen Support-Agenten für die Beantwortung der Frage und einen Qualitätsagenten, der die Ausgabe bewerten soll. Dies ist das erste Pr...
Teil 2/5: Wie kann ich mit Reciprocal Rank Fusion meine RAG Suche in Flowise verbessern
zhlédnutí 212Před 3 měsíci
Der zweite von fünf Teilen einer Videoreihe über die RAG-Technik (retrieval augmented generation) im Einsatz mit einer LLM-KI. Wie kann die Reciprocal Rank Fusion Technik verwendet werden, um die Ergebnisse der Vektorsuche zu verbessern? Im letzten Teil werten wir alles gemeinsam aus.
Teil 1/5: Was ist RAG? Kann man das essen? Was hat das mit KI zu tun? AddOn: Umsetzung mit Flowise
zhlédnutí 1,1KPřed 3 měsíci
Der erste von fünf Teilen einer Videoreihe über die RAG-Technik (Retrieval Augmented Generation) in der Anwendung mit einer LLM KI. Ich nehme euch mit auf eine Reise durch RAG. Was ist RAG? Wie funktioniert es? Wie kann ich den Output verbessern und wie kann ich den Output messen? Ich bin gespannt, ob ihr auch auf weitere Ideen kommt.
Ollama and anythingLLM: A practical guide
zhlédnutí 2,8KPřed 4 měsíci
Ollama and anythingLLM: A practical guide
Technologies in the paint shop: a field report with Symcon
zhlédnutí 99Před 4 měsíci
Technologies in the paint shop: a field report with Symcon
Innovation without code: Create your own apps with Make.com
zhlédnutí 277Před 5 měsíci
Innovation without code: Create your own apps with Make.com
The revolution in response times with LPU technology for large language models
zhlédnutí 160Před 6 měsíci
The revolution in response times with LPU technology for large language models
Mistral: The new language miracle of AI technology
zhlédnutí 866Před 6 měsíci
Mistral: The new language miracle of AI technology
Die Revolutionierung von Datenzugriff und Knowledge Sharing durch RAG-Technologie
zhlédnutí 295Před 6 měsíci
Die Revolutionierung von Datenzugriff und Knowledge Sharing durch RAG-Technologie
AI connection of local databases: a practical solution
zhlédnutí 282Před 6 měsíci
AI connection of local databases: a practical solution
How to build an API in MAKE: A tutorial for low-code development
zhlédnutí 535Před 7 měsíci
How to build an API in MAKE: A tutorial for low-code development
Developer adventure: Rebuilding the Google Gemini AI system
zhlédnutí 114Před 8 měsíci
Developer adventure: Rebuilding the Google Gemini AI system
Automation with WordPress and your CRM system: a practical guide
zhlédnutí 177Před 8 měsíci
Automation with WordPress and your CRM system: a practical guide
Automated service vehicle routing with the help of an AI-controlled assistant
zhlédnutí 98Před 8 měsíci
Automated service vehicle routing with the help of an AI-controlled assistant
Browser-based data extraction and automation with AI
zhlédnutí 256Před 8 měsíci
Browser-based data extraction and automation with AI
The latest progress with our career bot
zhlédnutí 67Před 9 měsíci
The latest progress with our career bot
New approaches to job placement: AI-based job placement
zhlédnutí 49Před 9 měsíci
New approaches to job placement: AI-based job placement
Discoveries and developments in the AI world: OpenAI's GPT Assistants
zhlédnutí 134Před 9 měsíci
Discoveries and developments in the AI world: OpenAI's GPT Assistants

Komentáře

  • @EinfachJens-16
    @EinfachJens-16 Před 3 dny

    coole idee!

  • @ashocatanouu9718
    @ashocatanouu9718 Před 5 dny

    nichts gegen Anythinkllm aber ich finde es unheimlich Lahm im gegensatz zu Openwebui. ich kann mir nicht helfen aber anythinkLLm scheint die GPU im Docker unter windows nicht zu nutzen was natürlich 90% perfomance kostet gegenüber Openwebui

    • @bastianstrauss
      @bastianstrauss Před 5 dny

      Cool, danke für deinen Bericht. Ich habe Anything LLM nativ auf dem MAC installiert. Aber kurz nachgefragt: AnythingLLM und auch OpenWebUI benötigen doch nicht die GPU, sondern Ollama, oder sehe ich das falsch! Beide Programme nutzen doch die API davon. Maximal beim Embedding!

  • @rolandschnurr6106
    @rolandschnurr6106 Před 17 dny

    Hallo Bastian, ich finde deine Videos klasse. Was mir gefällt ist dieser iterative Ansatz der sehr gut nachvollzogen werden kann. Mach weiter so.

  • @svenschmidchen9873
    @svenschmidchen9873 Před 18 dny

    Coole Sache, habe selbst Monate gebraucht, um die korrekten Kapitel zu finden, auf Basis der die KI fundierte Antworten geben kann. Sehr spannendes Thema. Pinecone Vektor Datenbanken über eine Knowledge Base und chunking. Mit Airtable, kann man das nicht direkt nutzen, muss dann erst über ein Embedding Model in Vektoren umgewandelt werden und die wiederum werden dann in der Vektordatenbank gespeichert. Durch den Abgleich der query, also der User Anfrage wird dann geprüft welche Inhalte ähnlich sind. Die Ähnlichkeit wird über einen score beurteilt. Ein hoher Score kann schließlich genutzt werden, um die Daten über ein LLM und den Prompt individuell zu verarbeiten.

    • @bastianstrauss
      @bastianstrauss Před 16 dny

      Macht schon laune oder. Mit Airtable habe ich auch etwas gebaut. Schau dir mal meine beiden letzten Videos an. Hybrid mit RAG, CRAG und Datenbank getrieben wäre eine mega Sache!

  • @KiWelten
    @KiWelten Před 18 dny

    Tolles Video, herzlichen Dank!

  • @krissihoffmann5155
    @krissihoffmann5155 Před 18 dny

    Könnte man das nicht einfacher und in einem in n8n bauen?

    • @bastianstrauss
      @bastianstrauss Před 18 dny

      Also n8n ist ja ein OpenSource Pendant zu Make. Würde also auch gehen. Du könntest ja auch eine KI direkt per SQL auf deine DB zugreifen lassen. Mir ging es aber darum mit Flowise UND Make (oder n8n) quais jeden REST Endpoint anzusprechen. OK: Flowise kan mit dem CustomTool direkt die EndPoints ansprechen. Aber hier wird es dann schon schwieriger die EndPoints gerade mit der Authentifizierung zu nutzen wie zum Beispiel Google Sheets etc. Da ist der "Umweg" über Make/Zapier/n8n einfach einfacher :-D

  • @MikevomMars
    @MikevomMars Před 20 dny

    Wieso bin ich eigentlich anscheinend der einzige Deutsche, der will, dass seine KI mit ihm SPRICHT? Sprache. Reden. Audio. Akustisch. Und das bitte in natürlichem Deutsch, nicht wie mein Navi von vor 20 Jahren. Das muss doch möglich sein 🤔

  • @steveb3813
    @steveb3813 Před měsícem

    Hallo Bastian, ich baue gerade Deinen Make-Workflow nach---- versuche es jedenfalls ;) um zu lernen wie so was geht. Bei 11:25 wird im Router gefiltert nach "3. content". Wo kommt diese Funktion her? Diese wird mir bei Make in der Funktionsauswahl nicht angezeigt, kann nicht ausgewählt werden. Mit was hast Du die Container-Übergabe (ContentSpeicher) gebaut? Du nutzt ja Mac. Was kann man dafür in Windows nutzen? Danke für eine Rückmeldung! Grüße Steve

    • @bastianstrauss
      @bastianstrauss Před měsícem

      Hallo @Steve 3.content kommt von meinem Webhook. Ich sende meinem Webhook die URL und den Inhalt. Damit ich eben entsprechend den richtigen Flow auswählen kann. Die Variable bzw. der Inhalt der Variable kommt aus der Shortcut App vom Mac/OSX/iOS und es ist leider so unter Windows nicht verfügbar. Das Prinzip funktioniert aber auch mit GET URLdesWebhooks/?url=hier_dein_youtube_link&content=youtube dann bekommst du in Make die beiden Variablen URL und Inhalt. Ich überlege mir eine kleine Oberfläche auf Basis von Mesop, Taipy oder Streamlit zu bauen und als Docker zur Verfügung zu stellen, dann hättest du die Möglichkeit die Kurzbefehle App nachzubauen. Aber das ist meiner Meinung nach eine der am meisten unterschätzten Apps im Apple-Kosmos. Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen? Gruß Bastian

    • @steveb3813
      @steveb3813 Před měsícem

      @@bastianstrauss Danke fürs schnelle Antworten! *Soll ich mal ein Video zum Thema WebHook / Kurzbefehl / Streamlit / Absicherung Token machen?* Ja, das wäre hilfreich, gerade für deine Abonnenten, die neu im Thema Automatisierung sind. Die Workflows hier beginnen j aalle mit Webhook, d.h. wenn da falsche Werte auf den Weg gehen, kommt kein sinnvolles Ergebnis raus. Ich bin jedenfalls mega dankbar für Deine Videos. Besser wie jede KI-Anwenderschulung an der ich bisher teilgenommen hab.

  • @user-uv3nv2bc6v
    @user-uv3nv2bc6v Před měsícem

    Danke 👍

  • @bastianstrauss
    @bastianstrauss Před měsícem

    Question: A marble is put in a glass. The glass is then turned upside down and put on a table. Then the glass is picked up and put in a microwave. Where's the marble? Explain your reasoning step by step. Answer: Let's break down the situation step by step: Step 1: Glass with Marble on the Table The marble is initially inside the glass. The glass is placed on the table, which doesn't affect the marble's location. Step 2: Glass Inversion The glass is turned upside down, but the marble remains inside the glass. Since the glass is inverted, the marble is now at the bottom of the glass, but it's still inside the glass. Step 3: Glass Pickup and Microwave The glass is picked up, and the marble is still inside the glass, at the bottom. When the glass is placed in the microwave, the marble is now inside the microwave, still at the bottom of the glass. Conclusion: The marble is inside the microwave, at the bottom of the glass. The key point to note is that the marble remains inside the glass throughout the entire process. The glass is simply moved from one location to another, but the marble stays inside it. Therefore, the marble ends up inside the microwave, still trapped inside the glass. FAIL

    • @bastianstrauss
      @bastianstrauss Před měsícem

      Nach ein paar Promptkorrekturen: Let's break down the scenario step by step to determine the marble's location: Step 1: Marble in the glass The marble is initially placed inside the glass. Step 2: Glass turned upside down and put on the table When the glass is turned upside down, the marble will fall out of the glass and onto the table due to gravity. The glass is then placed on the table, but the marble is now on the table, not inside the glass. Step 3: Glass picked up and put in the microwave The glass, now empty, is picked up and placed in the microwave. However, the marble is already on the table, not in the glass. Therefore, the marble is not affected by the glass being placed in the microwave. Conclusion The marble is on the table, not in the microwave or the glass. The glass being placed in the microwave does not affect the marble's location, as it was already on the table when the glass was picked up. Passed!

  • @bastianstrauss
    @bastianstrauss Před měsícem

    Question: Write me 10 sentences that end with the word ‘apple’ Answer: The farmer carefully picked a juicy red apple. She took a big bite of the crunchy green apple. The teacher asked the student to bring an apple. The sweet aroma of a ripe apple filled the air apple. The child's favorite snack was a fresh apple. The orchard was famous for its delicious sweet apple. The nutritionist recommended eating an apple a day apple. The teacher used a picture of an apple to teach vocabulary apple. The store sold a variety of fresh organic apple. The autumn season is associated with the harvest of an apple.

  • @bastianstrauss
    @bastianstrauss Před měsícem

    Falls jemand eine Testidee hat, wie der Strawberry Test. Gerne in die Kommentare. Ich teste das gerne mal!

  • @KevinGeller
    @KevinGeller Před měsícem

    Mich würde mal interessieren, ob der Aufbau den Strawberry-Test besteht, er sich selbst korrigiert oder sogar komplett selbst verwirrt

    • @bastianstrauss
      @bastianstrauss Před měsícem

      Hi @KevinGeller guter Test: Question: How many "r"s are in the word "strawberry" Antwort: After synthesizing the responses from various open-source models, I can confidently conclude that: The word "strawberry" contains 3 "r" letters. This answer has been carefully evaluated and verified through a precise analysis of the word "strawberry", ensuring the highest level of accuracy and reliability. Im ersten durchlauf kam er auf 2 bei allen Modellen!! Zweiter Durchlauf: 2/3 kamen auf 3 Dritter Durchlauf 2/3 kamen auf 3 (gemini hat verloren)

    • @KevinGeller
      @KevinGeller Před měsícem

      @@bastianstrauss llama3 hab ich heute aus Spaß schon soweit bekommen, dass es der Meinung war dass strawberry 6 beinhaltet.

    • @bastianstrauss
      @bastianstrauss Před měsícem

      😂

  • @LeonidXR
    @LeonidXR Před měsícem

    Hallo Bastian, vielen Dank für das Video.

  • @steveb3813
    @steveb3813 Před měsícem

    Hi Bastian, erstmal ein großes Dankeschön für Deine RAG-Videoreihe! Mega gut erklärt! Du scheinst Dich viel damit zu beschäftigen ;) Was mir noch fehlt ist die Info, wie ich nun das RAG auf eine ganze Reihe von Dokumenten, besser ganze Ordner oder idealerweise alle lokalen Daten, anwenden kann. Und zwar so, dass einerseits gute Abfragen möglich sind (die vom LLM auch richtig verstanden werden) und gleichzeitig die Berechnungszeit nicht zu lang ist. Kann ich also anstatt des Rabbit-docs einfach einen ganzen Ordner (mit mehreren Dateien) zum Retrieval Manager hinzufügen - oder gar alle Dateien auf C:? Das RAG macht doch erst richtig Sinn, wenn ich mit dem Modell in vielen Dateien gleichzeitig durchsuchen kann... - habe ich schon mal etwas zu Thema X geschrieben? welche Dokumente beschäftigen sich mit Thema Y usw. LG Steve

    • @bastianstrauss
      @bastianstrauss Před měsícem

      Hi Steve, ja du kannst theoretisch ganze Ordner einlesen lassen. Wichtig ist nur das deine Chunks angepasst auf das Dokument sind. Also ein Mischmasch aus Word, Excel oder PDF ist nicht so förderlich.

    • @steveb3813
      @steveb3813 Před měsícem

      @@bastianstrauss Wäre es dann nicht möglich über Flowise meine ganzen lokalen Dateien einzulesen, dann einen Worker zu erstellen, der die eingelesenen Dateien nach Dateiformaten clustert, diese dann in neuen Sub-Ordnern des Retrieval Agenten ablegt und dann dort der Chat mit diesen Dokumentenarten stattfinden kann? Denn sind wir mal ehrlich... eigentlich wollen ja bei RAG die meisten genau das erreichen - Chats mit den gesamten eigenen Dateien - sozusagen KI-gestütztes Wissensmanagement.

    • @bastianstrauss
      @bastianstrauss Před měsícem

      @Steve nicht das wir uns falsch verstehen. Du vektorisierst EINMAL deine Dateien. Danach liegen diese in einer Vectordatenbank. Die Originaldateien brauchts du dafür nicht mehr. Du bräuchtest ein Automatisierungsscript, was erkennt wenn deine Dateiablage sich verändert. Dann wird der Prozess erneut angestossen. Ich glaube ich habe deinen UseCase noch ncht verstanden. Wenn du deine lokalen Daten alle cachen willst, brauchst du neben dem Automatisiertungsscript was den Ordner überwacht, auch ein Script, was die Dateiart erkennt und den richtigen Splitter wählt. Das geht über die Funktion von Flowise hinaus!. Hast du ein Typ Dokumente z.B. PDF, kannst du soetwas mit Flowise automatisieren. Lokal kommst du aber um Python oder was anderem aber nicht herum. In der Cloud kannst du soetwas mit OneDrive/GoogleDrive MAKE.com und Flowise mit ein wenig Arbeit sicher lösen! Gemacht habe ich das so aber nicht. Aber die API Endpunkte sind verfügbar. Also ich würde sagen es kommt auf einen versuch an!

    • @bastianstrauss
      @bastianstrauss Před měsícem

      Google Drive hat einen Watch Folder Endpunkt. Dieser wird in MAKE angestoßen und veranlasst Flowise alle Dokumente neu zu vektorisieren. Vorhandene werden vorher geskippt und neues oder geändertes aufgenonmmen. Das GEHT! Check mal mein Video: czcams.com/video/pl5cg_s5oGg/video.html Dort mache ich so einen neuvektoring mit meiner Airtable DB. Das ist das gleiche Prinzip!

    • @steveb3813
      @steveb3813 Před měsícem

      @@bastianstrauss Danke für Deine schnelle Rückmeldung Bastian! Ich hab mir übrigens mal Deine Vita (Deine Webseite) angeschaut. Es ist wirklich krass wie fit Du in diesen Themen hier bist und wie Du Dir das offenbar selbst antrainiert hast. Wow! Mein Usecase ist ein Chat mit meinen eigenen lokal abgelegten Daten (in meinem Fall ca. 20GB aus 20 Jahren im Job). Vieles muss man neu erarbeiten, weil man sich nicht erinnert, wo man eine Datei zu einem spezifischen Thema abgelegt hat. Klar, es gibt Ordner- und Dateibezeichnungen, trotzdem muss man i.d.R. in die jeweilige Datei reinschauen um etwas spezifisches darin zu finden und wiederverwenden zu können. Weniger wichtig ist also, ob oder wie sich der Datenbestand verändert hat, sondern was in diesem Alt-Datenbestand an Informationen enthalten ist. Ich habe verstanden, dass meine Dokumente vektorisiert werden müssen, damit das LLM damit arbeiten kann. Ich muss also schauen, mit welchem Tool ich 20GB automatisiert vektorisieren kann. Dachte, das geht vielleicht am besten mit einem passenden hugging face embedding model - oder ich lade alle Dateien in Google Drive hoch und mache das über den von Dir gezeigten Prozess mit MAKE. Du berätst ja auch das Handwerk... das müsste doch auch für die Handwerksbetriebe ein extrem wertvoller Usecase sein, oder nicht?

  • @bjornm2273
    @bjornm2273 Před měsícem

    Super erklärt! Vielen Dank

  • @stahlpedia
    @stahlpedia Před měsícem

    Ich bin über mein Abschlussprojekt mit dem Thema Datenauswertung durch generative KIs in Kontakt gekommen. Das war ein leicht frustrierender Lernprozess. 😅 Ergebnis: Selbst ChatGPT macht immer wieder Fehler dabei (fehlende Datensätze oder -items, falsche Berechnungen, logische Fehler wie größer/kleiner etc). Am Ende bin ich zu dem Schluss gekommen, Berechnungen mit Python hardzucoden und daraus ein sprachliches Prompt inkl. grundlegender Dateninterpretation zu erstellen, welcher dann zur weiteren Verarbeitung an das LLM gegeben wird. Dort kann man dann Tipps einholen (zb. "wie steigere ich die Produktivität") oder Mail auf Datengrundlage verfassen zu lassen. Kurzum: LLM heißen nicht ohne Grund SPRACHmodelle 😁

    • @bastianstrauss
      @bastianstrauss Před měsícem

      @stahlworte ja selbst in meinem Video siehst du, dass er nicht alle Datensätze einliest. Obwohl alles verfügbar ist. Ich gebe dir zu 100% recht, dass eine REINE Datenauswertung mit LLM nicht das gelbe vom EI ist. Mein Beispiel sollte aber zeigen, dass es grundsätzlich möglich ist, auf "lokale" SQL Daten per KI zuzugreifen ohne gleich das THEMA DSGVO an der Backe zu haben. Verstehe das Video als eine von vielen Möglichkeiten/Ideen Daten an die KI zu bekommen. Die Auswertung solcher Daten ist leider eine ganz andere Geschichte. KI ist nicht gleich Programmcode, sondern Interpretationsspielraum. Und wie du es sehr treffend gesagt hast ein SPRACHmodell!!! 100% Ollama+ PandaAI könnte spannend sein. Hab ich mir aber noch nicht angeschaut.

    • @stahlpedia
      @stahlpedia Před měsícem

      @@bastianstrauss Das war keine Kritik an deinem Video! Eher eine Ergänzung bzw meine Perspektive auf das grundsätzliche Thema 🙂 Ich habe übrigens ebenfalls eine solche DB-Suche mit (seit gestern) Llama3.1 umgesetzt. Das funktioniert ganz gut und umgeht die Nachteile eines Vektor basierten RAG. Allerdings sind die Daten in meinem Fall auch speziell für das GPT formuliert und es ist ein spezifischer Anwendungsfall. Bei unstrukturierten Daten dürfte man schnell an Limits kommen (zb. zu viele Suchergebnisse für das Kontextfenster, Verwirrung des GPT usw.)

    • @bastianstrauss
      @bastianstrauss Před měsícem

      @stahlworte ich habe das überhaupt nicht als Kritik empfunden. Ich finde es toll, wenn wir in den Austausch kommen. Und vielleicht ist meine Lösung auch totaler Quatsch. So kann jetzt jeder für sich entscheiden oder erkennen, was möglich ist und was eben schwierig ist. Also vielen Dank für deinen Beitrag, der das Ganze sehr bereichert!

  • @axelwehmeyer9599
    @axelwehmeyer9599 Před měsícem

    ? flowise? prompts? Tokenizer? Hast du mal Google-NotebookLM gesehen? Das ist RAG pur, man kann dort ohne jegliche airtables&Co seiner eigene Wissensbasis aufbauen und erweitern (bisher keine Videos) - das ist OHNE jegliches Zusammenstöpseln irgendwelcher Software sofort für jedermann benutzbar, inkl. automatisch generierter FAQ u.ä.

    • @bastianstrauss
      @bastianstrauss Před měsícem

      Ja, aber nicht automatisierbar! Ich will einfach ein Foto machen oder einen Link kopieren und der Rest soll automatisch laufen. Das macht das NotebookLM nicht! Das ist eher ein Notion auf steroide!

  • @Pillendreher
    @Pillendreher Před měsícem

    Sehr sehr nice!

  • @sonjastrahler
    @sonjastrahler Před 2 měsíci

    Du bist irgendwie verrückt! Da brauche ich Wochen für um das nachzubauen!!! Aber Mega geil!

  • @i-love-2-code
    @i-love-2-code Před 2 měsíci

    Hallo Bastian, Ich bin zufällig auf deinen Kanal gestoßen und bin begeistert von deinen Inhalten! Deine Videos sind sehr informativ und ich freue mich darauf, noch mehr davon anzuschauen. Als jemand, der sich mit dem Thema gut auskennt, möchte ich einen kleinen Vorschlag machen: Bei komplexen Grafiken (wie Workflows) wäre es hilfreich, wenn du das Tempo etwas drosselst. Deine Sprechgeschwindigkeit finde ich persönlich sehr angenehm, aber in Kombination mit schnellen Bildwechseln kann es manchmal herausfordernd sein, allem zu folgen. Vielen Dank für deine tollen Videos und weiter so!

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Danke für dein Feedback. In der Tat bin ich sehr schnell, was aber auch daran liegt das ich alles in einem Take und ohne Script spontan aufnehmen. Dann ist es schwierig abzuschätzen wie schnell oder langsam ich meinen Screen zeigen soll! Für mich Fachidioten ist es natürlich total easy. Für einen Außenstehenden vielleicht eben nicht, wie ich an deinem Kommentar entnehmen konnte. Ich Versuch beim nächsten Video daran zu denken.

  • @nightquarz
    @nightquarz Před 2 měsíci

    Wow finde das mega tool, wäre es auch möglich damit lokale Daten, und videos zu klassifizieren, fände es auch toll wen man das irgenwie nachbauen könnte um damit selbst rumzuspielen.

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Also für meine eigenen Videos habe ich das mit mp3 gelöst. Das Audio kann ich von Whisper transkribieren lassen. Dann kommt der normale Workflow ins Spiel. Im Prinzip musst du bei jeder Art von Inhalt auf den eigentlichen Text kommen. Das wird die Herausforderung sein. Zum Beispiel wäre ein PDF im Prinzip schon durchsuchbar, wenn der Text darin nicht in ein Bild umgewandelt worden wäre. Ein Bild geht mit GPTVision. Es ist natürlich eine Kostenfrage, wie weit man gehen kann. Lokale Modelle wie Gemini2 sind leider noch nicht in der Lage, lange Texte zusammenzufassen, geschweige denn auszuwerten.

  • @lollihonk
    @lollihonk Před 2 měsíci

    Sehr geil. Wäre cool wenn du sowas auch zur Verfügung stellst zumindest in rudimentärer Form, damit man selbst mal etwas rumspielen kann. LG

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Hi @lollihonk, was und wie soll ich dir das zu Verfügung stellen? Soll ich mehr auf die Automation, Airtable, Webhook oder Python eingehen?

    • @carapaxcarapaxol8766
      @carapaxcarapaxol8766 Před 2 měsíci

      @@bastianstrauss wie wäre mit der Funktion "Export Blueprint"? Dann kann jeder das mal bei sich importieren. Wäre cool.

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Leider geht das wegen dem Airtable nicht! Dir fliegt der Blueprint um die Ohren. Ich bau das mal als Blogbeitrag!

  • @cnn2ncc
    @cnn2ncc Před 2 měsíci

    Kann ich über den chatGPT API Key dann auch Funktionen wie den Data Analyst oder DALL-E 3 verwenfen?

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Nein, dafür musst du weiterhin 20$ bezahlen!

    • @cnn2ncc
      @cnn2ncc Před 2 měsíci

      @@bastianstrauss Danke für den Hinweis und die schnelle Antwort! Ist weniger eine Frage des Geldes, sondern mehr der Praktischen Nutzung (z.B. Data Analyst für lokale LLMs, Verwendung von einem eigenen (Chatbot) UI und Verwendung von Data Analyst im eigenen UI) - gibt es eigentlich Alternativen zu chatGPT die es ermöglichen, Excel Files etc. zu erstellen?

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Interessante Fragestellung. Ich beschäftige mich zurzeit eher mit RAG und Co. Aber das werde ich auch einfach mal weiter verfolgen. Insbesondere der Idee mit lokalen LLM's

    • @bastianstrauss
      @bastianstrauss Před 2 měsíci

      Antwort: Ja -> Ollama+ PandaAI als openSource... werde ich mal testen!

  • @user-uv3nv2bc6v
    @user-uv3nv2bc6v Před 3 měsíci

    Sehr gutes Video

  • @atasahin9110
    @atasahin9110 Před 3 měsíci

    Wirklich cooles Video

  • @VisuMach
    @VisuMach Před 3 měsíci

    Voll gut! Kann man das als Vorlage von dir bekommen?

  • @user-pp5yl8ti9k
    @user-pp5yl8ti9k Před 3 měsíci

    super video

  • @andycgn1991
    @andycgn1991 Před 3 měsíci

    Hast Du Erfahrungen, wie weit man das mit einer lokalen Chroma DB treiben kann?

    • @bastianstrauss
      @bastianstrauss Před 3 měsíci

      Tatsächlich nicht. Hab nur ne kleine virtuelle Maschine bei DigitalOcean. Aber erste Grenze ist der Speicher! Das große Embeddingmodel von OpenAI erzeugt für 400 Seiten 80MB! Bei etwa 600 Vectoren! Beim kleinen reden wir von ca. 18MB! Dann denke ich ist der nächste Faktor die CPU für das suchen in der DB. Aber der Punkt wird erst sehr spät ein Problem. Aber das ist alles Glaskugel! Vielleicht hat hier noch jemand Erfahrung damit?

  • @MobilerStreber
    @MobilerStreber Před 3 měsíci

    Danke für die praktische Herangehensweise. Abläufe und Abhängigkeiten haben Sie verständlich erklärt. Ich versuche Ihre Umgebung nachzubauen. Arbeiten Sie mit einzelnen docker-compose-Dateien oder haben Sie alle Abhängigkeiten in eine gepackt? Können Sie diese auf github veröffentlichen? Zur Zeit habe ich es geschafft alle Container zum Laufen zu bringen, auch wenn die Konfiguration von Ports und Netzwerken Zeit gekostet hat.

  • @GuentherHaslbeck
    @GuentherHaslbeck Před 3 měsíci

    Ziemlich coole Idee mehrfach abgewandelt zu fragen

  • @geeksy2278
    @geeksy2278 Před 3 měsíci

    Wenn ich eine Kontextgröße von 2048 Token habe und meine Texte in 1024 (oder 512) Token Blöcke schneide brauche ich doch kein Inhaltliches schneiden. Wenn jetzt ein inhaltlicher Absatz in 2 Teile geschnitten wurde, habe ich doch bei der Vektor-Suche genau die beiden Teile als return Wert der Suche und kann auch beide mit ins Kontextfenster packen, da 2 x 1024 = 2048. Ich muss dann bei der Vektor-Suche nur beachten, dass ich die nächsten 2 Vektoren bekomme (statt nur den nächsten). Oder hab ich da was falsch verstanden?

    • @bastianstrauss
      @bastianstrauss Před 3 měsíci

      Klar. Das ist korrekt! Wie in meinem Beispiel macht das keinen Sinn. Spannend wird es aber wenn der Text 500.000 Tokens hat!

  • @GuentherHaslbeck
    @GuentherHaslbeck Před 3 měsíci

    Das mit der sql Datenbank zum updaten ist ja schon mal ziemlich cool!

    • @bastianstrauss
      @bastianstrauss Před 3 měsíci

      Ja… erleichtert vieles. Das geile: via Flowise geht das updaten des RAGs via API!!!

  • @kenob
    @kenob Před 3 měsíci

    Hallo, ich setze gerade ein Projekt um, in dem auch Flowise genutzt wird. Nun sehe ich im Video Jever (meine Heimat) und da fragte ich mich, ob und wie man in Kontakt treten kann. Ich versuche es gleich über Linkedin. Lieben Gruß

  • @GuentherHaslbeck
    @GuentherHaslbeck Před 4 měsíci

    Spannend - ist das eigentlich ein selbstgebautes Programm oder was ist das ?

  • @GuentherHaslbeck
    @GuentherHaslbeck Před 4 měsíci

    Sehr cooles Video.

  • @manfredbogner9799
    @manfredbogner9799 Před 4 měsíci

    Sehr gut

  • @sonjastrahler
    @sonjastrahler Před 4 měsíci

    Das hätte ich sein können 😀

  • @jayrock5638
    @jayrock5638 Před 5 měsíci

    hii can u provide the git hub link for this code ? it would be great if u do that

  • @Phantomacs
    @Phantomacs Před 5 měsíci

    Das beste ist Claude Opus 3, leider in Deutschland nicht verfügbar

    • @bastianstrauss
      @bastianstrauss Před 5 měsíci

      Klar. Aber Mistral hat ein bisher unschlagbaren Vorteil: DSGVO Konform, was im beruflichen Kontext zurzeit einen erheblichen Mehrwert darstellt!

  • @StephanRengstorf
    @StephanRengstorf Před 5 měsíci

    Du machst wirklich tolle Videos! Ich habe zu diesem Video zwei Fragen: 1) Hat ein Teltonika Tracker im Auto die BLE-Becon Daten deines Laptops empfangen, oder habt ihr einen anderen Empfänger dafür im Fahrzeug installieren müssen. 2) Hast Du einen Beacon auf den Laptop bzw. Laptoptache geklebt, ober hat Der Laptop selber immer die Bluetooth Daten versandt?

    • @bastianstrauss
      @bastianstrauss Před 5 měsíci

      Ja, die Teltonika Box empfängt iBeacon und Eddystone. Im Backend extrahieren wir diese Informationen. Am Laptop klebt ein externer Beacon. Wir bauen mittlerweile eigene energiesparende Lösungen, weil die am Markt befindlichen Lösungen zu groß oder zu kurze Batterielaufzeiten haben. Ziel ist es mit einer CR2032 Größe auf 10a zu kommen!

    • @StephanRengstorf
      @StephanRengstorf Před 5 měsíci

      @@bastianstrauss Das ist cool. Meine Apple Airtags mit CR2023 halten nur 9 Monate durch, bevor die Batteriewarnung kommt. Habt ihr auch eine iOs oder Android App, die als Empfänger dient und dann zusammen mit seiner GPS Position die Daten an die Datenbank sendet? Ich kann mir vorstellen, das die Empfänger in den Fahrzeugen nicht alle Ecken einer Baustelle erreichen, und dadurch Becons nicht mehr gefunden werden!?!

  • @jaxtheripper3436
    @jaxtheripper3436 Před 6 měsíci

    starkes video, weiter so

  • @mircoreinhardtnsi
    @mircoreinhardtnsi Před 6 měsíci

    Hey Bastian, cooler Case! Genial, wie einfach und fokussiert du das erklärst 🙏👍

  • @sirkato7751
    @sirkato7751 Před 7 měsíci

    Ich finde, dass das visuell deutlich besser aussieht als bspw. Power Automate Flow, habe aber auch hier etwas die Angst, dass es auch schnell unübersichtlich wird wenn es größer wird. Ein großer Kritikpunkt bei der API die du hier gebaut hast: Für die Menge an Daten ist sie extrem langsam. über 1.000 ms bei 450 Byte ist unglaublich schlecht. Das erste beibspiel war mit etwas über 500ms und 3 KB schon etwas besser, aber alles über 500ms ist langsam, alles unter 100ms kann man als schnell ansehen und alles dazwischen als moderat.

    • @bastianstrauss
      @bastianstrauss Před 7 měsíci

      Vollkommen richtig! Dadurch das ich Make als Schnittstelle UND Airtable nutze bekommst du ein mega Delay! Natürlich geht nichts über ein natives Script direkt auf die API von Airtable. In diesem Demo geht es eher darum, ob eine No-Code Automationsebene auch eine "API" nachbauen kann. Die Antwort von mir: ja geht. Ich bin gedanklich dabei einen GPT Assistant anzubinden und dann ist das Delay der Schnittstelle im ersten Moment ein Witz. Ich würde Make auch nicht in einer produktiven Umgebung mit über > 2 Request pro Sekunde einsetzen. Das ist too much. Make ist eher etwas für den kleinen Dienstweg, wo der Aufwand des Programmierens größer ist als der Nutzen der Schnittstelle. Und Power Automate Flow, Zapier oder N8N sind da sehr sehr ähnlich. Aber was da einfach cool ist, in diese API könntest du noch eine KI integrieren, die Daten zusammen fasst oder was auch immer. Oder mein Ziel ist es Handwerker soweit zu befähigen ihre Daten aus ihren System irgendwie abzufragen. Das wäre ein erster Schritt!

    • @sirkato7751
      @sirkato7751 Před 7 měsíci

      @@bastianstrauss Ich komme aus dem Bereich wo man viel Power Automate Flow einsetzt, was wie du sagst, sehr ähnlich ist. Aus meiner persönlichen Erfahrung ist es wichtig, dass man no-code/low-code automatisierungen nur da einsetzt wo sie 1. auf gar keinen Fall scalen müssen 2. auf gar keinen Fall häufigen Änderungen ausgesetzt sind 3. auf gar keinen Fall Businesskritisch sind Ich hatte selbst auch mal einen Power Automate Flow als Schnittstelle zu einem Drittsystem eingesetzt was Daten syncrhonisiert hat. Das Ergebnis war, dass sobald die Menge der Daten 1 mal ein klein wenig mehr wird, bspw. bei einem kleinen Datenimport, die No-Code Implementierung nicht mitkommt und die Ausführung bei den Flows zumindest immer länger wurde. Teils so absurd lang, dass aus Sekunden Stunden wurden.

    • @bastianstrauss
      @bastianstrauss Před 7 měsíci

      Oh ja. Ich hatte das Problem bei einer remigration! Ich musste 4500 Datensätze durch die LowCode Automation jagen! Mein Script wäre damit in ca. 2min fertig. Bei Make ging das gar nicht. Ich musste zum ersten Mal ein sleep (500ms) in mein Script einbauen, damit sich die Automation nicht verschluckt! 4500 x 500ms! Super!!! „Ironie aus“! Ich gebe dir vollkommen Recht @sirkato7751 LowCode ist eher was für kleine Projekte, PoC oder MVP‘s. Sobald es ernst wird, macht eine native Schnittstelle mehr Sinn! Aber gerade am Anfang spart so ein System viel Zeit und damit letztendlich Geld für genannte Konzepte. Sobald der Proof da ist lohnt sich die aufwendigere Entwicklung. Mein Beispiel habe ich in 5min gebaut! So schnell kannst du sonst niemals eine API aufbauen!

  • @dradux2079
    @dradux2079 Před 7 měsíci

    Da ich zufällig über das Video gestolpert bin, habe ich nur begrenzt die Rahmenbedingungen mitbekommen, aber fand es zumindest erstmal interessant. Da kamen ein paar Tools zum Einsatz, die ich bisher noch nicht kannte und bisschen was kannte ich bereits. Kurze Anmerkung: Es gibt den HTTP Status Code 401 (Unauthorized), der ist evtl besser geeignet als der allgemeine 400er (Bad Request), falls der Client sich nicht korrekt authentifizieren konnte.

    • @bastianstrauss
      @bastianstrauss Před 7 měsíci

      Gute Anmerkung! 401 wäre hier natürlich deutlich besser. Das Beispiel war auch sehr schnell zusammen geklickt. Damit das als NowCode API wirklich gut funktioniert fehlen noch einige Sachen. Aber MAKE dafür grundsätzlich zu nutzen war der spannende Case. Welche Tools kanntest du nicht?

  • @David-tc7fy
    @David-tc7fy Před 7 měsíci

    Wow. Das ist sehr interessant. Werde mal umsetzen

  • @andreaskoop
    @andreaskoop Před 8 měsíci

    Mega!

  • @andreaskoop
    @andreaskoop Před 8 měsíci

    Richtig cool! 😎 vor allem weil du immer mit so tollen Praxisusecases experimentierst!

  • @wimwendehalz8313
    @wimwendehalz8313 Před 8 měsíci

    erstes Kommentar bei dem besten Content. 👍