La Hora Maker
La Hora Maker
  • 344
  • 731 926
Descubre Llama 3.1 y más de 20 modelos de IA nuevos lanzados en los últimos meses - Especial Verano
En este especial de verano de La Hora Maker te voy a acercar los últimos modelos de LLM disponibles, incluyendo el reciente lanzamiento de Llama 3.1, uno de los modelos con licencias abiertas con mayor tamaño y mejor rendimiento.
Pero este lanzamiento no llega sólo, sino que forma parte de unos meses frenéticos antes de verano en el que se han lanzado modelos que mejoran el rendimiento de GPT-4, como Claude Sonnet 3.5 o que reducen los precios de forma notable, como Deepseek o GPT-4o mini. Modelos de texto y modelos multimodales, con características de visión.
Si te llama la atención algún modelo o quieres que hagamos pruebas de alguno en particular, puedes compartirlo en los comentarios.
zhlédnutí: 1 032

Video

Analiza los datos de tus facturas - Excel e interfaz web - Video 3 de 3
zhlédnutí 760Před 14 hodinami
En este video te comparto una interfaz web creada con Streamlit que permite analizar los ficheros JSONL o CSV que hemos creado con videos anteriores. Esta interfaz te permite convertir de manera sencilla tus datos entre ambos formatos, por si quieres analizarlas también usando Excel, LibreOfifce u otra hoja de cálculo, utilizando el formato CSV. Para obtener esta interfaz web, tan sólo tienes q...
Extrae los datos de tus facturas a JSON usando IA - Video 2 de 2 - Código ya disponible!
zhlédnutí 2,9KPřed 14 dny
En este video, te explico cómo funciona facturas2json, un sistema de que permite la extracción de facturas utilizando modelos de Inteligencia Artificial. En un primer paso emplearemos Marker para interpretar el PDF de entrada y en un segundo paso emplearemos nuExtract para estructurar dichos datos. Todo ello empleando una interfaz web basada en Streamlit, que nos ofrecerá la flexibilidad para p...
Extrae los datos de tus facturas usando IA - Video 1 de 2
zhlédnutí 6KPřed 14 dny
En este video describo la arquitectura de una solución que nos permitirá extraer los datos de distintas facturas utilizando modelos de IA para obtener los datos a partir de PDFs y estructurar la información para su procesado posterior. Lo haremos utilizando modelos con licencias permisivas y 100% en local. Esta semana compartiremos un segundo video más centrado en el código y el desarrollo de l...
Limpia y prepara webs y PDF para tus LLM - Dos formas sencillas de convertirlos en Markdown
zhlédnutí 3,7KPřed 21 dnem
En este video os mostraré cómo poder limpiar el contenido de una web o un pdf, convirtiendolo a formato markdown para que pueda ser ingestado de forma más sencilla en vuestros sistemas LLM, RAG, etc. Estaremos mostrando el servicio/API Reader de Jina.ai y Marker. Repositorios: - Reader Jina: github.com/jina-ai/reader - Marker: github.com/VikParuchuri/marker
Consulta tu servidor IA 100% local desde tu móvil iOS usando la app Enchanted LLM
zhlédnutí 1,6KPřed 2 měsíci
En este video continuamos sacando partido a nuestro servidor LLM 100% local. Hoy conectaremos a nuestro servidor Ollama desde nuestro móvil iPhone (iPad o Mac) utilizando la app Enchanted LLM. Esta aplicación disponible en la Apple App Store permite conectar a Ollama con una experiencia nativa muy pulida. Esta aplicación puede localizarse en la app store con el nombre Enchanted LLM. En la últim...
Prueba ya Llama 3 - Tres formas de correrlo en tu equipo y tres formas gratis via web
zhlédnutí 6KPřed 3 měsíci
En este video te explico tres formas en las que puedes ejecutar Llama 3 ¡ya mismo! Probaremos con nuestros programas favoritos Ollama y LM Studio pero también con LlamaFile, una variante portatil creada por Mozilla. También exploraremos tres servicios con los que puedes probar sin coste este modelo, incluso en su version de 70B de parámetros, sin tener una GPU local potente. Llama 3 es un model...
Buscador con IA local - Combinando resultados con modelos LLM usando LLocalSearch
zhlédnutí 4,2KPřed 3 měsíci
En este video os presento LLocalsearch, una herramienta que combina distintas fuentes en internet a la velocidad del rayo, utilizando una LLM local para responder a las consultas que le enviemos. Es un metabuscador que utiliza Ollama para cargar las LLMs y organizar la información recogida de una forma espectacular. El repositorio del proyecto LlocalSearch: github.com/nilsherzig/LLocalSearch Ta...
Flujos de trabajo utilizando Agentes - Andrew Ng explica cómo funcionan y sus ventajas
zhlédnutí 3,5KPřed 3 měsíci
Andrew Ng estuvo ofreciendo una presentación esta semana en la que explicó cómo funcionan los agentes. Entre los aspectos más importantes destaca porqué debemos esperar mejores rendimientos de estos sistemas que de modelos fundacionales masivos a corto/media plazo. En este video revisamos la presentación, añadiendo cierto contexto y comentario, pensando sobre todo en aquellas personas que no va...
Evaluando LLMs que evaluan LLMs para RAG - El ejemplo de Justicio
zhlédnutí 1,4KPřed 4 měsíci
En este vídeo damos un paso más en nuestra labor de evaluación de los resultados de un RAG. Hoy en concreto nos vamos a centrar en responder la siguiente pregunta. ¿Cuál es el mejor modelo abierto que puede evaluar la calidad de pares, preguntas y respuestas de forma correcta? Para ello analizaremos distintos papers y distintas publicaciones en los que se han utilizado algunas métricas para med...
Evaluando un RAG usando datos sintéticos - Introducción usando Justicio
zhlédnutí 1,6KPřed 4 měsíci
En este vídeo vamos a dar los primeros pasos para ver qué métricas se pueden utilizar para evaluar un sistema RAG (Retrieval Augmented Generation) para obtener información a partir de tus propios documentos. Para ello nos vamos a centrar en el ejemplo de Justicio, un archivero digital que te permite consultar la legislación actual en España de distintas formas. Durante el vídeo vamos a ver cuál...
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
zhlédnutí 27KPřed 5 měsíci
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!
zhlédnutí 10KPřed 5 měsíci
¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!
¿Peligra el futuro de eTopia Centro de arte y tecnología de Zaragoza?
zhlédnutí 558Před 5 měsíci
¿Peligra el futuro de eTopia Centro de arte y tecnología de Zaragoza?
Transcribe tu voz a texto en más de 100 idiomas - 100% local usando Whisper Writer
zhlédnutí 2,6KPřed 5 měsíci
Transcribe tu voz a texto en más de 100 idiomas - 100% local usando Whisper Writer
Primeras pruebas con LLM en Orange PI 5 Plus - Tiny llama, Phi, Zephyr, Nous Hermes
zhlédnutí 2,4KPřed 5 měsíci
Primeras pruebas con LLM en Orange PI 5 Plus - Tiny llama, Phi, Zephyr, Nous Hermes
Orange Pi 5 Plus - Instalación Ubuntu 22.04 y primeros pasos
zhlédnutí 2,5KPřed 5 měsíci
Orange Pi 5 Plus - Instalación Ubuntu 22.04 y primeros pasos
Nueva serie: AI Lab - Explorando la convergencia de la IA y la Fabricación Digital
zhlédnutí 1,1KPřed 5 měsíci
Nueva serie: AI Lab - Explorando la convergencia de la IA y la Fabricación Digital
Crea un endpoint API de vision 100% local usando LM Studio
zhlédnutí 2,3KPřed 6 měsíci
Crea un endpoint API de vision 100% local usando LM Studio
Crea un endpoint API 100% local para tu LLM usando LM Studio
zhlédnutí 4,3KPřed 6 měsíci
Crea un endpoint API 100% local para tu LLM usando LM Studio
Apple libera el kit de aprendizaje automático MLX y otras muchas novedades ¡con código abierto!
zhlédnutí 968Před 6 měsíci
Apple libera el kit de aprendizaje automático MLX y otras muchas novedades ¡con código abierto!
Entrevista a Neil Gershefeld: Convergencia entre la fabricación digital y la inteligencia artificial
zhlédnutí 760Před 6 měsíci
Entrevista a Neil Gershefeld: Convergencia entre la fabricación digital y la inteligencia artificial
Flor, un modelo LLM trilingüe (catalán, español, inglés) acompañado de decenas de datasets NLP
zhlédnutí 1,2KPřed 6 měsíci
Flor, un modelo LLM trilingüe (catalán, español, inglés) acompañado de decenas de datasets NLP
¡Ya es posible crear vídeos con ÍA 100% si que apenas se note!
zhlédnutí 726Před 6 měsíci
¡Ya es posible crear vídeos con ÍA 100% si que apenas se note!
Novedades LM Studio - Chatea con tus imágenes y modelos mucho más potentes (Llava y Mixtral)
zhlédnutí 7KPřed 7 měsíci
Novedades LM Studio - Chatea con tus imágenes y modelos mucho más potentes (Llava y Mixtral)
Mixtral LLM tiene soporte para español y muchas sorpresas más!
zhlédnutí 2KPřed 7 měsíci
Mixtral LLM tiene soporte para español y muchas sorpresas más!
Manos a la obra - Chatea con tus documentos de forma 100% local y privada usando GPT4ALL
zhlédnutí 14KPřed 7 měsíci
Manos a la obra - Chatea con tus documentos de forma 100% local y privada usando GPT4ALL
Cómo utilizar tus propios documentos con LLMs - Conceptos fundamentales de sistemas RAG
zhlédnutí 6KPřed 7 měsíci
Cómo utilizar tus propios documentos con LLMs - Conceptos fundamentales de sistemas RAG
Instala DeepSeek Coder para generar código localmente en tu propio equipo
zhlédnutí 3,7KPřed 8 měsíci
Instala DeepSeek Coder para generar código localmente en tu propio equipo
Crea tus propios GPTs personalizados (nueva funcionalidad OpenAI GPT-4)
zhlédnutí 1,2KPřed 8 měsíci
Crea tus propios GPTs personalizados (nueva funcionalidad OpenAI GPT-4)

Komentáře

  • @xavierquerol9087
    @xavierquerol9087 Před 10 hodinami

    Gracias, muy buena información

  • @adanpalma4026
    @adanpalma4026 Před 13 hodinami

    He visto cientos de videos que prometen eso he probado todo y el porcentaje de éxito de la recuperación 60% si acaso Y eso estoy hablando de documentos sencillos cuando hablamos de documentos complejos ni te cuento Termina uno pagando servicios como la llamaparsw de llamaindex y usando modelos de pago porque si el proceso de Chungking y en Bing es malo pues el modelo te va a responder mal

  • @javaboy6581
    @javaboy6581 Před 20 hodinami

    Por fin vuelves maestro!

  • @Yoko-0x0
    @Yoko-0x0 Před 23 hodinami

    Hi bro, esto se puede hacer en LM studio?

  • @akhathos1618
    @akhathos1618 Před dnem

    Eres mi canal de referencia en IA. Gracias por todo tu gran trabajo.

  • @Edu2pc
    @Edu2pc Před dnem

    Suelo usar ollama para correr en local modelos pequeños. Me interesa mucho poder correr Florence o Chamaleon peor no llegan a ollama ¿sería posible que nos digas como tenerlo en un servidor parecido a ollama que lo pueda usar con una Rest api

  • @a0z9
    @a0z9 Před dnem

    El mini o es rápido y barato

  • @Pablo-Ramirez
    @Pablo-Ramirez Před dnem

    Hola muchas gracias por tus videos. Sabes que probé Llama3.1 con Ollama cambiando una aplicación de RAG qué tengo y no me responde ninguna pregunta, sin embargo, cambio al modelo anterior y responde muy bien. Incluso subí todos los archivo PDF 😢 y tampoco funcionó. A que se podrá deber esta situación? Saludos.

  • @jackgaleras
    @jackgaleras Před dnem

    Gracias

  • @carlosrav1979
    @carlosrav1979 Před 2 dny

    excelente explicación!

  • @Javier_Espinoza
    @Javier_Espinoza Před 3 dny

    Muy buen video, y se puede hacer con phi 3?

    • @LaHoraMaker
      @LaHoraMaker Před 3 dny

      Hola Javier, Muchas gracias por tu comentario. En principio se podría hacer con cualquiera de los modelos que soporta Ollama, incluido Phi3. Ya nos contarás qué tal los resultados!

  • @code_1988
    @code_1988 Před 3 dny

    Que bien se escucha el audio , felicitaciones por mejorar el equipo , saludos

  • @luistaboada9379
    @luistaboada9379 Před 4 dny

    Muchas gracias por compartir y por tu tiempo!!! tengo la posibilidad de formatear una PC y obtar por windows o Linux. En tu experiencia, en cual S.O. ha corrido mejor? saludos y buena semana.

  • @zonadock
    @zonadock Před 4 dny

    Genial, César. Muchas gracias ;)

  • @a0z9
    @a0z9 Před 5 dny

    El ejemplo es muy sencillo , pero poco realista. El Disney plus suele comprarse anual y el netflix se paga cada mes. El Spotify con anuncios es gratis por lo que no creo que mucha gente pague por algo que es gratis

    • @LaHoraMaker
      @LaHoraMaker Před 5 dny

      Bueno, llevo siendo usuario de pago de Spotify desde hace 9-10 años así que… En cuanto al realísimo de las facturas, coincido en que es un ejemplo simplificado, con datos sintéticos, con un periodo de tiempo reducido. En cualquier caso, cualquier persona interesada puede crear otros ficheros de prueba, anonimizando los datos personales y enviar su pull request al repositorio para ampliar los casos de usos disponibles para todos.

  • @d.d.z.
    @d.d.z. Před 6 dny

    Muchas gracias!

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Gracias por comentar! Espero que te resulte muy útil esta solución

  • @dubal2675
    @dubal2675 Před 6 dny

    Hola Cesar, que ta si en vez de pdf vienen en imagen?

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      La opción más sencilla para probar si el sistema te funcionaría es abrir la imagen con el editor de tu sistema operativo y mandarla a imprimir con una impresora virtual que te convierta la salida a PDF. Con esto ya podrías probar el código del siguiente vídeo y ver si te da buen resultado. Si este es el caso, podrías automatizar el proceso con todas las imágenes que guardes en una carpeta, por ejemplo.

  • @HelberthCampos-j5q
    @HelberthCampos-j5q Před 6 dny

    en una steam deck con windows

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Gracias por compartir tu configuración! Seguro que a otra gente que la tenga, le resulta muy útil saber que funciona

  • @piezoelectric627
    @piezoelectric627 Před 7 dny

    Hola Maestro, veo su video y me doy cuenta de que hice algo muy similar en paralelo. Yo uso un sistema multiple para ir obteniendo con python diferentes datos y diferentes métodos. En total por factura con una 3070, usando llama, lava y un poco de python puro, tarda como 2 minutos por factura y logra sacar un 80% de los datos de cualquier factura. Me gusta el método que propone, lo voy a integrar en mi sistema para ver si logra subir la cantidad de datos. Saludos

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Gracias por compartir tu experiencia con otras soluciones! Espero que podamos probar más variantes para extraer información y procesarla de forma eficiente.

  • @MMAMMA-ds6ln
    @MMAMMA-ds6ln Před 7 dny

    Hola. Recién conozco tu canal. Me gusta mucho tu estilo (que eres tranquilo, que no gritas, que no haces bromas estúpidas, etc.). Muchas cosas no entiendo porque recién ahora me está interesando esto de las IA. Me dan ganas de ver un video tras de otro. Abrazo grande y mil gracias por el contenido. Saludos desde Buenos Aires.

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Muchas gracias por tu comentario! Me alegra mucho que te resulte interesante y útil. Espero que disfrutes con otros videos en el canal.

  • @revandarth2680
    @revandarth2680 Před 8 dny

    Explicas muy bien, ¡muchas gracias!

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Gracias a ti! Me alegra mucho cuando la gente se toma un momento para comentar y compartir su impresiones

  • @milovanmarrder668
    @milovanmarrder668 Před 8 dny

    Este es exactamente la idea de mi actual proyecto personal. Trabajo en el área de contabilidad y el proceso de registro de facturas es uno de los más tediosos. Pues que inicie el 15 de junio a crear un "Procesador de facturas" donde tengo las facturas escaneadas en pdf y las leo con OCR. luego utilizo spacy para etiquetar el texto extraido muchos salen simplemente con regex. Bueno, actualmente estoy en esa fase, intentando mejorar la precisión. Pero viendo tu proyecto definitivamente contribuyes mucho!. Que buena idea la de generar una vidualizacion de la factura junto a un formulario que nos ayude a complementar la informacion. Eso es un UX que definitivamente lo incluiré. También quiero probar marker para saber si tiene mejor precisión que spacy. En mi caso, el resultado lo trabajo con pandas ya que con el dataframe generaré una plantilla para cargarla en el ERP. No soy muy conocedor de este mundo, de hecho estudié administración de empresas, por lo que si tienes algún consejo sobre que me ayudaría conocer para mejorarlo, pues te lo agradecería infinitamente. Muchas gracias por compartir, me has brindado un empujón.

    • @vitaminservice_
      @vitaminservice_ Před 8 dny

      Un pdf escaneado? Eso es una imagen por lo que no es lo mismo no? Edito: he leido que luego le pasas el ocr. Y digo yo, no tienes los pdf de “verdad”?

    • @vitaminservice_
      @vitaminservice_ Před 8 dny

      Yo justamente estoy pensando en lo mismo para los contables de la empresa. Un flujo que guarde las facturas en pdf recibidas por email en las carpetas correspondientes clasificadas por proveedor, trimestre…, después convertirlas a json y finalmente crear un asiento predefinido para importar a en este caso contabilidad A3.

    • @milovanmarrder668
      @milovanmarrder668 Před 8 dny

      @@vitaminservice_ No. En nuestro país no es común. Bueno, no sé si en los demás si lo será. Vivo en Honduras (Centroamérica). El flujo actual es recibir la factura en físico y luego se escanea. Pero siempre entregan las facturas en físico, nunca digital.

    • @vitaminservice_
      @vitaminservice_ Před 6 dny

      @@milovanmarrder668ahh. En España es raro lo del papel ahora. Un abrazo

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Suena muy interesante! Ahora mismo hay muchas soluciones para extraer información visualmente como Florence-2. Espero poder probarlo pronto en el canal y ver si puede simplificar el proceso y/o mejorar los resultados!

  • @vitaminservice_
    @vitaminservice_ Před 9 dny

    Magnífico!!!Justamenente estaba comenzando a idear un sistema para meter albaranes de material recibido de forma automatizada. He usado en el pasado la IA de microsoft de powerautomate pero quiero un sistema más autónomo. Me mantengo con los ojos abiertos para el siguiente vídeo.

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Ya está disponible el nuevo video con la demo y el repositorio con el código para probarlo. Espero que te resulte muy útil.

  • @pablodaff
    @pablodaff Před 10 dny

    Buenas, yo quiero que solo me responda lo que hay en los documentos y que si no lo hay me diga que no tiene la respuesta, es posible esto? porque le subi todos documentos tecnicos y cuando le pregunte como hacer un sandwich me respondio... estoy perdido la verdad.

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Gran pregunta. Según los modelos, pueden funcionar mejor o peor detectando cuando el contexto y la pregunta no tienen mucho que ver. Supongo que para este caso de uso, tendrías que indicarle en el prompt qué parte es la pregunta y cuál la información de contexto.

  • @GeekendZone
    @GeekendZone Před 10 dny

    Excelente contenido, tengo un servidor Proxmox, y estoy usando una instancia de Linux para AI, hasta ahora Ollama corre perfecto, descargo los modelos y corre bien desde la consola, tengo instalado OpenWebui en docker en la misma isntancia y tambien puedo acceder desde cualquier maquina sin problemas, ahora bie el problema esta en que no puedo hacer que mi OpenWebui tome los modelos que tengo descargados en Ollama, tienes Patreon u otra plataforma donde asesores? haces este tipo de servicios?

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Hola @geekendzone, se me ocurren varias cosas que pueden estar pasando. La más probable es que no tengas configurado al Ollama que escuche en 0.0.0.0 sino en localhost. Con esto te funcionaría en la terminal local, pero no te respondería en remoto. Para configurar esto hay que configurar la variable de entorno OLLAMA_HOST y asignarle la IP 0.0.0.0. Luego reinicias Ollama y listo (tienes todos los detalles en la FAQ de Ollama) La mejor forma de verificarlo es irte por a la máquina del openwebui y tratar de contactar a la ip del Ollama usando HTTP y conectando al puerto 11434. Si no te sale Ollama is running, eso es que el Ollama no está escuchando en la IP publica. Pruébalo a ver si con esto te funciona!

    • @GeekendZone
      @GeekendZone Před 5 dny

      @@LaHoraMaker oh wow gracias por la respuesta tiene que ser esto, porque he intentado lo que dices, la ip:11434 y no me abre nada voy a probar eato, mil gracias.

    • @GeekendZone
      @GeekendZone Před 5 dny

      @@LaHoraMaker Hermano mil gracias, segui tu consejo y me fui a Ollama faq, solo tuve editar `systemctl edit ollama.service` incluyendo en la primera linea: [Service] Environment="OLLAMA_HOST=0.0.0.0" Ahora tengo ollama corriendo en una instancia de Ubuntu en mi servidor Proxmox, y OpenWEBUI corriendo en otra instancia en Docker, puedo acceder desde cualquier parte de el mundo ya que tengo un Tunnel de Cloudfare y accedo con mi dominio personalizado, es una maravilla. Gracias por responder, estoy en deuda contigo. Un abrazo.

  • @katafrakto
    @katafrakto Před 11 dny

    Muchas gracias por compartir, lo acabo instalar y correr sin problemas (linux), me ha parseado las facturas y las tengo en jsonl, mi duda es qué hacer a continuación, ¿como uso el .jsonl y para que me sirve? Creo que me estoy perdiendo algo... Por cierto, la librería uv funciona genial, acelera la instalación una barbaridad, me ha encantado.

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Justo acabo de subir una actualización (con su video correspondiente) para analizar el fichero JSONL, convertirlo en CSV, etc. Dale un vistazo a ver qué tal te funciona!

  • @gb6362
    @gb6362 Před 12 dny

    Cesar, que me recomiendas para armar un equipo dedicado a hacer fine-tuning e inferencias de modelos LLM? Opcion 1: 2x RTX 3090 con NVLINK Opcion 2: 1x RTX 4090 Slds

    • @LaHoraMaker
      @LaHoraMaker Před 6 dny

      Pregunta compleja! Para hacer finetuning moderado, tener más memoria te puede venir bien, pero si vas a finetuning grandes es posible que necesiten todavía más memoria VRAM. Así que aquí ganarían las 3090. Pero para inferencia, de modelos que entren, la 4090 te va a dar mejor rendimiento, menos problemas de configuración, etc. Si solo vas a hacer finetuning en momentos puntuales tiraría por usar servidores cloud con tarjetas grandotas y usaría una configuración mono tarjeta con una 4090 (o una 3090). Alternativamente, si no te quema ahora, creo que NVidia tenía pensado sacar la serie 50x0 para finales de años

  • @ialuber
    @ialuber Před 12 dny

    Muy buenas días. Mi pregunta es : Cuando programo en arduino, tengo la necesidad de enviar datos a un dominio por que en mi hosting tengo un sistema de almacenamiento programado en php, y mysql. cuando pregunte dijeron que tenían hosting compartido y por lo tanto no podían pasarme el usuario y password para realizar mi conexión con arduino. ¿Que hosting me recomiendas?.

  • @nyambe
    @nyambe Před 13 dny

    Interesante, le echaré un vistazo

  • @colommbiano
    @colommbiano Před 14 dny

    Maestro se puede hacer esto mismo usando JavaScript?

  • @josemanuelgalvan1893
    @josemanuelgalvan1893 Před 14 dny

    muchas gracias por los videos

  • @walterrodriguez2696
    @walterrodriguez2696 Před 14 dny

    Muchas gracias por el video muy interesante!. Una consulta sobre Claude, asumo que tienes la versión pro de Claude,y mi duda es si en algún momento te dice que has superado la cantidad de mensajes? Por lo que había leído en la documentación de Anthropic, con cada pregunta que le hacemos toma todo el chat como contexto y eso cuenta para las interacciones totales. Saludos y felicitaciones por el canal, todo es de gran utilidad

  • @franciscobojorquez6415

    Copie el repo en mi local pero al ejecutar el proyecto me esta tirando este error: ImportError: cannot import name 'segformer' from 'surya.model.detection' (unknown location), alguna idea? en el repositorio de surya veo que el archivo segormer.py ya no existe :(

  • @JuanjoSanchez
    @JuanjoSanchez Před 14 dny

    Genial! Fantástico!!! justo lo que estaba buscando ahora en el cierre de trimestre, pero tengo un pequeño problema, después de seguir todos los pasos sin ningún error al ejecutarlo me sale esto: ImportError: cannot import name 'segformer' from 'surya.model.detection' (unknown location) Traceback: File "E:\facturas2json\.venv\Lib\site-packages\streamlit untime\scriptrunner\script_runner.py", line 589, in _run_script exec(code, module.__dict__) File "E:\facturas2json\src\facturas2json.py", line 5, in <module> from marker.convert import convert_single_pdf File "E:\facturas2json\.venv\Lib\site-packages\marker\convert.py", line 18, in <module> from marker.ocr.recognition import run_ocr File "E:\facturas2json\.venv\Lib\site-packages\marker\ocr ecognition.py", line 11, in <module> from marker.models import setup_recognition_model File "E:\facturas2json\.venv\Lib\site-packages\marker\models.py", line 6, in <module> from surya.model.detection import segformer Y llevo un buen rato intentándolo arreglar y ya no doy para más. ¿Alguna sugerencia?

  • @franciscobojorquez6415

    Buen material maquina, gracias por compartir

  • @sergioponcedeleon3078

    Éste tipo de videos son excelentes para captar tendencias y enfocar esfuerzos

  • @marcobravov
    @marcobravov Před 15 dny

    Este video tiene una gran calidad , se agradece un montón los contenidos. ¿Has notado que hay una frecuencia muy molesta en gran parte del video? sobre todo al final.....me tenía desesperado. Saludos,

  • @oriolblas
    @oriolblas Před 15 dny

    Osties quina meravella !!! (parlo català pq vegis q la comunitat d'aqui tb som super fans!!) si això funciona realment per fer les caixes d'espais makers com el nostre anirà molt bé!!! esperant el proper vídeo amb impaciència!!

  • @ivanngv
    @ivanngv Před 15 dny

    Muchas gracias!! apenas estaba llegando a los pdf.. ahorita estaba trabajando con archivos de excel. Estoy desarrollando un evaluado de trabajos para mis clases.. Normalmente mis alumnos me mandan muchos archivos que no cumplen con los requisitos o esta vacíos...asi que estoy usando api para que chequen los trabajos y les de un auto evaluación y me pueda yo concentrar en revisar y dar retroalimentación

  • @hispano77e
    @hispano77e Před 16 dny

    Acabo de descubrir tu canal Oro puro, muchas gracias

  • @javaboy6581
    @javaboy6581 Před 16 dny

    Muy muy bueno hacer proyectos de uso de llms es lo que mola porque usarlos para hablar es lo tipico. No me pierdo nada de lo que publicas, maestro!

  • @Jesulex82
    @Jesulex82 Před 16 dny

    HEY PERO NO TENGO PLACA DEDICADA, ¿SE PUEDE HABLAR CON LA IA?

  • @rodrigoloya4163
    @rodrigoloya4163 Před 16 dny

    Estare pendiente gracias por hacer esto para la comunidad 🎉

  • @a0z9
    @a0z9 Před 16 dny

    A día de hoy si eres un autónomo te renta usar las herramientas de Microsoft .Sí, Microsoft Dynamics 365 Business Central tiene versiones y planes que pueden ser adecuados para autónomos y pequeñas empresas. Suelen ofrecer planes de suscripción mensual que permiten escalar según las necesidades del negocio. Además, la plataforma es bastante flexible y puede adaptarse a diferentes tamaños de empresa. esa herramienta tiene toda la IA para trabajar con todo tipo de documentos. Hace 22 años Microsoft compró navision y esa herramienta le vale tanto a un autónomo como a una multinacional de miles de trabajadores.

  •  Před 16 dny

    Muchas Gracias, son nuevo en tu canal pero me ponde al dia en los proyectos. Gracias.

  • @jose.andonaire
    @jose.andonaire Před 16 dny

    Que execelente video, justo hace un par de días compartí en mi canal una solución de extracción de facturación de PDF o imagen con nocode con todos los recursos

  • @nyambe
    @nyambe Před 16 dny

    Interesante contenido

  • @nelsonsiatoya5419
    @nelsonsiatoya5419 Před 16 dny

    Genial tu contenido 🧔‍♀. Pregunta: qué usarías para extraer datos de gran cantidad de documentos escaneados (como hipotecas, escrituras, etc)?

    • @hispano77e
      @hispano77e Před 16 dny

      Tengo la misma duda Para volúmenes muy grandes, es fiable? Que ratio error tiene? .

  • @gerardopacheco9521
    @gerardopacheco9521 Před 17 dny

    super!!! excelente video ojala haya parte 2

  • @FredyGonzales
    @FredyGonzales Před 17 dny

    Yo tengo extraido los dados con marker y use survay para los pdf con datos matematicos, pero nuextract, me parece que promete. Gracias por la informacion.