Gemma 2 Revisión en Español. Modelos de IA de código abierto más potentes y eficientes.

Sdílet
Vložit
  • čas přidán 30. 06. 2024
  • 🎓 Aprende IA Gen Conmigo:
    🚀 www.skool.com/llm-master-3225...
    ✅ Unete y aprende RAG, con modelos locales y los de OpenAI y también generar un front para tu RAG.
    ¡Buenas noticias para desarrolladores e investigadores de IA! Google lanza oficialmente Gemma 2, la próxima generación de su familia de modelos de código abierto. Disponible en versiones de 9 mil millones y 27 mil millones de parámetros, Gemma 2 ofrece un rendimiento superior y una inferencia más eficiente que la generación anterior, con importantes mejoras de seguridad integradas.
    Lo que destaca a Gemma 2:
    Rendimiento descomunal: Logra resultados que antes solo eran posibles con modelos propietarios, ¡ahora en un solo GPU!
    Eficiencia y ahorro de costos inigualables: Funciona con un solo TPU o GPU, reduciendo significativamente los costes de implementación.
    Inferencia ultrarrápida: Optimizado para funcionar a gran velocidad en diversos hardwares, desde portátiles hasta la nube.

Komentáře • 6

  • @jackcloudman
    @jackcloudman Před 22 dny

    Gemma 27B tampoco es tan bueno, al menos en español, Qwen-2 sigue siendo mi favorito, por cierto hay metodos de ortogonalizacion muy interesantes para poder romper la seguridad de los modelos, sigue siendo exploratorio, pero sería interesante si haces un video de ello :D

  • @creed4788
    @creed4788 Před 22 dny

    De cuanto es la ventana de contexto de gemma 2 9b?

  • @enriquebruzual1702
    @enriquebruzual1702 Před 22 dny

    I asked Gemma 2 who invented the Arepa and it answered like a politician, when I asked it if it knew what a "Reina peptide" was, it got excited and gave me the recipe. It knows who invented the Arepa.

  • @jossejosse952
    @jossejosse952 Před 22 dny +2

    Hola buenas en modelos más pequeños, según mi experiencia y en español, el modelo llama 3 8b, es bastante superior al modelo gemma 2 9b, en razonamiento lógico y deducción, repito que todo esto en español, y en matemáticas financieras los modelos pequeños siempre me han dado error (sé que no espero más de ellos, pero quiero ver por curiosidad hasta donde llegan.)

    • @llmmaster_
      @llmmaster_  Před 22 dny

      gracias por comentar Jose, si los modelos pequeños tienen el objetivo de poder correr en telefonos moviles y ordenadores, pero no tan buenos como los grandes. Al final es encontrar el modelo que se pueda ejecutar en nuestra maquina y que nos resuelva la tarea que queremos ;)

    • @jossejosse952
      @jossejosse952 Před 22 dny +1

      @@llmmaster_ si, claro, aunque tengo un buen portátil gamer (lo tengo por tema de fotografía) aun siendo bueno, lo máximo que puedo tener son modelos pequeños que me vayan medianamente bien, a partir de modelos más grandes me es imposible correrlo, creo que dentro de unos años si se sigue invirtiendo los grandes modelos serán locales hasta en los móviles (suposicion)