El copiloto definitivo: más potente que GitHub Copilot (Claude 3.5 Sonnet + Starcoder 2 + Continue)

Sdílet
Vložit
  • čas přidán 13. 09. 2024
  • En este video, te mostramos cómo configurar tu propio asistente de programación utilizando el increíble modelo Claude 3.5 Sonnet de Anthropic.
    Si estás cansado de pagar por servicios como GitHub Copilot y buscas una solución más personalizada y poderosa, ¡este video es para ti!
    🚀 ¿Por Qué Claude 3.5 Sonnet?
    Claude 3.5 Sonnet supera a todos los modelos de OpenAI, incluyendo a GPT-4o, ofreciendo una comprensión del contexto y generación de código más precisa y eficiente. Descubre cómo configurar este modelo en Visual Studio Code y maximizar su potencial.
    ✅ Lo Que Aprenderás:
    1- Obtener tu API Key de Claude: ¡Consigue 5 dólares gratis para probarlo!
    2- Configurar Claude en Visual Studio Code: Usa Continue Dev para una integración perfecta.
    3- Ejecutar Pruebas Rápidas: Creación de aplicaciones completas.
    4- Optimizar el Autocompletado de Código: Utiliza modelos locales como Star Coder 2 o Qwen 2 para ahorrar créditos y mejorar el rendimiento.
    🔥 Beneficios:
    - Ventana de contexto de 200 mil tokens: Más capacidad para solicitudes complejas.
    - Configuración de autocompletado rápida y eficiente: Menos tiempo de espera, más productividad.
    - Ahorro de costos: Utiliza modelos locales para tareas específicas.
    🔗 Recursos Mencionados:
    - Anthropic Console: console.anthro...
    - Ollama: ollama.com/
    - Star Coder 2: ollama.com/lib...
    - Codestral Video: • Codestral (22B): ¡Ya e...
    Si te gustó el video, no olvides darle like, compartirlo y suscribirte a Conciencia Artificial para más contenido sobre lo último en tecnología e inteligencia artificial.
    ¡Nos vemos en el próximo video!
    #programacion #copilot #github #code #developer #claude #anthropic #vscode #tech #tecnología #inteligenciaartificial #ai #ias #tutorial #ia

Komentáře • 40

  • @nestora.a.n.995
    @nestora.a.n.995 Před 2 měsíci +5

    Muy bien, buena explicacion. En lo personal asi se repita respecto algunas cosas de anteriores videos creo que es muy ultil, ya que en un solo video sin ir a otro ya se tiene la informacion necesaria. Excelente, sigue asi hombre.

  • @carlosterrazas8913
    @carlosterrazas8913 Před 2 dny

    donde puedo pagar? voy a migrar de copilot a sonnet. cuanto es mensual

  • @flkask
    @flkask Před 2 měsíci

    Excelente video como siempre!
    Sabes si Continue tiene las mismas opciones de personalización de CodeGPT para los modelos, como por ejemplo la temperatura, la memoria y longitud de respuesta?

  • @mineroargento8950
    @mineroargento8950 Před 14 dny

    me baje mxbai-embed-large:335m este embed para agregarlo pero me salta un error siempre, como lo arreglo

  • @DonVapo
    @DonVapo Před 2 měsíci

    Muy buen contenido, gracias por el aporte

  • @RonaldSánchezGodoy
    @RonaldSánchezGodoy Před měsícem

    Hola, gracias por el tiempo en dedicar estos videos. estoy teniendo problemas en dónde indicas el minuto 00:03:14 no me aparece la casilla (+) cuando estoy en la extensión "continue" y tampoco escoger otros proveedores. Sabes ud. como corregir esto ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před měsícem +1

      Hola, la interfaz de la extensión de "Continue" recibió algunos cambios visuales, ahora aparece dentro y debajo de la caja de chat, de lado izquierdo y con un texto muy tenue o difuminado y dice "select a model".

  • @JSL180
    @JSL180 Před 2 měsíci

    Excelente vídeo, venía usando la extensión y para autocompletado últimamente tengo el codegemma:2b-code, trabaja un poco más rápido que el starcoder2:3b. Esto cambia muy rápido, si alguien sugiere otro liviano, quedo atento

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci

      Ambas son buenas opciones, mientras utilices un modelo que se especialice en la codificación para el auto completado cualquier puede ser bueno. La ventaja es que sigan apareciendo más y podemos probarlos todos 👌

  • @edummorenolp
    @edummorenolp Před 2 měsíci +5

    Si estas cansado de pagar por copilot tienes esta otra opcion tambien PAGA XD ajajjjjjaj lindo bait del principio.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci +2

      Jaja disculpa, no lo quise hacer como bait, solo que considero que siempre es bueno mostrar distintas alternativas, además esta opción aparte de que es más potente el modelo, podría resultar mucho más barata que pagar Copilot. Todo dependerá del uso que le demos. Solo es otra alternativa más 👍

    • @edummorenolp
      @edummorenolp Před 2 měsíci

      @@Conciencia_Artificial Disculpas aceptadas. Concuerdo completamene con todos lo de mas. Y muchas Gracias por hacer el contenido y compartirlo.

    • @estebanv8
      @estebanv8 Před měsícem

      funciona mejor y pagas menos.

    • @edummorenolp
      @edummorenolp Před měsícem

      @@estebanv8 amazon q, gratis y similar.

  • @dan_seb
    @dan_seb Před měsícem

    Conoces algún modelo que funcione para javascript? Porque he instalado el modelo starcoder2 como vos pero no funciona en js, cuando lo pruebo en un archivo .py si..
    De todas formas gracias por el aporte!

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před měsícem

      Hola, puedes probar con modelos como CodeQwen, DeepSeek Coder 2, Codestral, CodeGemma, CodeLlama, pero ten en cuenta que estos modelos son más grandes y necesitas un mejor hardware para que respondan de forma rápida y eficiente. Saludos! 👋

  • @inteligenciafutura
    @inteligenciafutura Před 2 měsíci +1

    Y tiene límites de tokens?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci +1

      Los mismos que tiene por default el modelo, con su ventana de contexto tiene 200 mil tokens disponibles y como tokens máximos de salida tiene 4096 tokens.

    • @inteligenciafutura
      @inteligenciafutura Před 2 měsíci

      @@Conciencia_Artificial es muy poco para una aplicación grande

  • @flkask
    @flkask Před 2 měsíci

    Otra pregunta: CodeGPT guarda un historial de chats, igual que Continue? No logro encontrarlo.
    Además, cada vez que quiero usar el modelo que tengo conectado (llama con groq) tengo que elegir proveedor y modelo de nuevo, no hay algún 'shortcut' o forma más práctica de usarlo?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci

      Sobre el historial, su creador acaba de anunciar que en las próxima versión del plugin van a implementar el historial de conversaciones 👏

  • @caresvlbdjz
    @caresvlbdjz Před 3 dny

    Copilot usa GPT-4 , si le preguntas te lo dice

  • @_Enigma__
    @_Enigma__ Před měsícem

    Como haces la voz?

  • @jennderramos322
    @jennderramos322 Před 2 měsíci

    No entiendo como gente que viene por información sobre Inteligencia Artificial le cuestan tanto procesar que se esta usando una para generar la voz y entender que eso conlleva algunas limitaciones.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci +1

      Si, aunque intento hacerlo lo mejor posible hay ocasiones que tiene ligeros errores. Muchas gracias por comentar! 👋

  • @nicolasherrera7291
    @nicolasherrera7291 Před 2 měsíci +1

    No lo hagan banda, puse mi número y me habló mi tío.

  • @vitaminservice_
    @vitaminservice_ Před 2 měsíci

    vidéo? en castellano es Vídeo? 🙂

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci +1

      Utilizo una IA para generar la voz, por lo cual todavía comete errores en pronunciar ciertas palabras. A pesar de que es considerada de las mejores (ElevenLabs) pues no es perfecta, poco a poco han ido mejorando pero en idiomas diferentes al inglés aún les falta.

    • @vitaminservice_
      @vitaminservice_ Před 2 měsíci

      @@Conciencia_Artificial estará entrenada con voces latinas y por eso se lía ☺️. Buen vídeo en cualquier caso, un abrazo!

  • @alessandromarotta6969
    @alessandromarotta6969 Před 2 měsíci

    GitHub Copiloto usa GPT4

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci +1

      Es lo que yo también pensaba, pero han estado comentando que parece ser que no, ya que las sugerencias de código necesitan ser de un modelo mucho más pequeño/rápido, y gpt-4 es lento en ese aspecto es lento.
      Y a pesar de que fuera un modelo especializado de gpt-4 en codificación, ahora Claude 3.5 Sonnet, logra vencer a cualquier modelo de OpenAI.
      Muchas gracias por comentar! 👋

    • @estebanv8
      @estebanv8 Před měsícem

      @@Conciencia_Artificial confirmo, SOnnet 3.5 es mucho mejor en la calidad de resultados y mas rápido. Además cuesta menos $

  • @rocketbox9
    @rocketbox9 Před 2 měsíci

    copiloto? jajajaj esos españoles xd

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci +1

      Pues realmente puede decirse de ambas formas, lo importante es que se entienda no? Jaja. Y la voz que utilizo tiene acento español pero yo no soy de España. Gracias por comentar y espero te haya gustado el video. Saludos 👋

    • @vitaminservice_
      @vitaminservice_ Před 2 měsíci

      @@Conciencia_Artificial pero no pronuncia bien español del todo. Dice Ícono, Vidéo...

    • @Conciencia_Artificial
      @Conciencia_Artificial  Před 2 měsíci

      @@vitaminservice_lamentablemente no, es una IA, y a pesar de ser de las mejores actualmente (ElevenLabs) todavía tiene algunos errores en pronunciación de palabras. O a veces genera sonidos extraños también que tengo que recortar jaja.
      Con el paso del tiempo esperemos que vayan mejorando mucho más 👌