![The Machine Learning Engineer](/img/default-banner.jpg)
- 550
- 42 893
The Machine Learning Engineer
United Kingdom
Registrace 9. 10. 2011
www.youtube.com/@themachinelearningengineer?sub_confirmation=1
Github repo:
github.com/olonok69
Who I am:
www.linkedin.com/in/juan-h-a797802/
In this channel I want to share with the rest of the world and community how create and productize machine learning models based in my years of experience on this matter. I will go through different example and explain how I solved real business cases . There is no guarantee that this solutions will solve your specific case, but I hope it helps
Github repo:
github.com/olonok69
Who I am:
www.linkedin.com/in/juan-h-a797802/
In this channel I want to share with the rest of the world and community how create and productize machine learning models based in my years of experience on this matter. I will go through different example and explain how I solved real business cases . There is no guarantee that this solutions will solve your specific case, but I hope it helps
NVIDIA AI: Nvidia NIM Integration with Langchain #datascience #machinelearning
In this video will review the integration of NVIDIA NIM with Langchain,creating a RAG Q&A together with Faiss
Código:
github.com/olonok69/LLM_Notebooks/tree/main/ml_Solutions/nvidia/langchain
Código:
github.com/olonok69/LLM_Notebooks/tree/main/ml_Solutions/nvidia/langchain
zhlédnutí: 8
Video
NVIDIA AI: Nvidia NIM Integración con Langchain #datascience #machinelearning
zhlédnutí 12Před 21 hodinou
En este vídeo vamos a ver la integracion de NVIDIA NIM con Langchain y crearemos un componente RAG Q&A en conjunto con Faiss Código: github.com/olonok69/LLM_Notebooks/tree/main/ml_Solutions/nvidia/langchain
NVIDIA AI: Introduction to Nvidia NIM inference & LLama 3.1 405b Inst #datascience #machinelearning
zhlédnutí 19Před 2 hodinami
In this video I will introduce you the NVIDIA AI platform and NVIDIA NIM, a set of optimized cloud-native microservices designed to shorten time-to-market and simplify deployment of generative AI models anywhere, across cloud, data center, and GPU-accelerated workstations. Additionally we will get the first look to the new Meta model LLama 3.1 405b Instruct Code: github.com/olonok69/LLM_Noteboo...
NVIDIA AI: Introducción a Nvidia NIM inference y LLama 3.1 405b Inst #datascience #machinelearning
zhlédnutí 20Před 2 hodinami
En este vídeo vamos veremos como usar la Plataforma NVIDIA AI, los microservicios de Inferencia NVIDIA NIM y el SDK proporcionado por Nvidia. También veremos como usar el nuevo modelo de Meta LLama 3.1 405b Instruct Código: github.com/olonok69/LLM_Notebooks/tree/main/ml_Solutions/nvidia/introduction
Microsoft Ai: Semantic Kernel, RAG Dynamic prompts #datascience #machinelearning
zhlédnutí 33Před 4 hodinami
In this video I will show you how to create a RAG component using Dynamic Prompts with Microsoft Semantic Kernel. Will use Ollama Framework with a Phi3 Mini model as LLM. Code in C# code: github.com/olonok69/LLM_Notebooks/tree/main/microsoft/semantic-kernel/c#/dynamic_prompts
Microsoft Ai: Semantic Kernel, RAG Dynamic prompts Español #datascience #machinelearning
zhlédnutí 30Před 4 hodinami
En este video os voy a mostrar como hacer un Componente RAG usando Prompts Dinamicos con en Semantic Kernel. Usaremos tambien Ollama y cualquier modelo que tengas disponible en la libreria de Ollama y el semantic kernel de microsoft . Codigo en C# code: github.com/olonok69/LLM_Notebooks/tree/main/microsoft/semantic-kernel/c#/dynamic_prompts
Microsoft Ai: Semantic Kernel C# SDK Integration with Ollama #machinelearning #datascience
zhlédnutí 73Před 9 hodinami
In this video I will show you how to work with Ollama and the Microsoft Semantic Kernel and eny model you have available in ollama library. In the video we will work with Microsoft Phi3, Codein C# code: github.com/olonok69/LLM_Notebooks/tree/main/microsoft/semantic-kernel/c#/ollamasharp
Microsoft Ai: Semantic Kernel C# SDK Integracion con Ollama #machinelearning #datascience
zhlédnutí 28Před 9 hodinami
En este video os voy a mostrar como trabajar con Ollama y cualquier modelo que tengas disponible en la libreria de Ollama y el semantic kernel de microsoft . Codigo en C# code: github.com/olonok69/LLM_Notebooks/tree/main/microsoft/semantic-kernel/c#/ollamasharp
MLops: C# Image recognition with ResNet50v2 model #machinelearning #datascience
zhlédnutí 44Před 12 hodinami
In this video we will do Inference wiith a RestNet50 V2 model using , ONNX Microsoft ML , SixLabors.ImageSharp in C# Code: github.com/olonok69/LLM_Notebooks/tree/main/onnx/bert_transformers
MLops: C# Image recognition con modelo ResNet50v2 #machinelearning #datascience
zhlédnutí 11Před 12 hodinami
En este video vamos a hacer Inferencia con un Modelo RestNet50 usando Microsoft ML e SixLabors.ImageSharp en C# Code: github.com/olonok69/LLM_Notebooks/tree/main/onnx/bert_transformers
Microsoft Ai: C# SDK Semantic Kernel , How to use and create plugins #machinelearning #datascience
zhlédnutí 67Před 16 hodinami
In this video I will show you how to create plugins for the Semantic Kernel using the C#En SDK. Also I will show you the Core plugins and how to do some prompt Engineering Code: github.com/olonok69/LLM_Notebooks/tree/main/microsoft/semantic-kernel/c#/plugins
Microsoft Ai: Semantic Kernel C# SDK Usar y crear plugins y prompts #machinelearning #datascience
zhlédnutí 25Před 16 hodinami
Microsoft Ai: Semantic Kernel C# SDK Usar y crear plugins y prompts #machinelearning #datascience
MLOPS: How to work with Hugginface Hub CLI #machinelearning
zhlédnutí 15Před 19 hodinami
MLOPS: How to work with Hugginface Hub CLI #machinelearning
MLOPS: Como trabajar con el CLI de Hugginface Hub Español #machinelearning
zhlédnutí 25Před 19 hodinami
MLOPS: Como trabajar con el CLI de Hugginface Hub Español #machinelearning
Microsoft Ai: Semantic Kernel SDK integration with Huggingface models #machinelearning #datascience
zhlédnutí 38Před 21 hodinou
Microsoft Ai: Semantic Kernel SDK integration with Huggingface models #machinelearning #datascience
Microsoft Ai: Semantic Kernel SDK integracion con modelos Huggingface #machinelearning #datascience
zhlédnutí 19Před 21 hodinou
Microsoft Ai: Semantic Kernel SDK integracion con modelos Huggingface #machinelearning #datascience
Gemini API Use Function Calling with python SDK #machinelearning #datascience
zhlédnutí 32Před dnem
Gemini API Use Function Calling with python SDK #machinelearning #datascience
Gemini API Usar Function Calling python SDK #machinelearning #datascience
zhlédnutí 14Před dnem
Gemini API Usar Function Calling python SDK #machinelearning #datascience
LLMops: Convert Bert to ONNX, Inference with BERTTokenizer for C# #machinelearning #datascience
zhlédnutí 32Před dnem
LLMops: Convert Bert to ONNX, Inference with BERTTokenizer for C# #machinelearning #datascience
LLMops: Convertir Bert a ONNX, Inferencia con BERTTokenizer for C# #machinelearning #datascience
zhlédnutí 23Před dnem
LLMops: Convertir Bert a ONNX, Inferencia con BERTTokenizer for C# #machinelearning #datascience
Gemini: Multimodal Q&A RAG tool with Gemini #datascience #machinelearning
zhlédnutí 71Před dnem
Gemini: Multimodal Q&A RAG tool with Gemini #datascience #machinelearning
Gemini: Multimodal Q&A RAG tool con Gemini Español #datascience #machinelearning
zhlédnutí 30Před dnem
Gemini: Multimodal Q&A RAG tool con Gemini Español #datascience #machinelearning
Microsoft Ai: Introduction to the Semantic Kernel SDK in C# #machinelearning #datascience
zhlédnutí 77Před 14 dny
Microsoft Ai: Introduction to the Semantic Kernel SDK in C# #machinelearning #datascience
Microsoft Ai: Introduccion al Semantic Kernel SDK en C# #machinelearning #datascience
zhlédnutí 18Před 14 dny
Microsoft Ai: Introduccion al Semantic Kernel SDK en C# #machinelearning #datascience
Microsoft Ai: Introduction to the Semantic Kernel SDK #machinelearning #datascience
zhlédnutí 38Před 14 dny
Microsoft Ai: Introduction to the Semantic Kernel SDK #machinelearning #datascience
Microsoft Ai: Introduccion al Semantic Kernel SDK #machinelearning #datascience
zhlédnutí 25Před 14 dny
Microsoft Ai: Introduccion al Semantic Kernel SDK #machinelearning #datascience
Azure ML: Azure Ai Studio & OpenAi Studio Python SDK #machinelearning #datascience
zhlédnutí 66Před 14 dny
Azure ML: Azure Ai Studio & OpenAi Studio Python SDK #machinelearning #datascience
Azure ML: Azure Ai Studio & OpenAi Studio Python SDK Español #machinelearning #datascience
zhlédnutí 19Před 14 dny
Azure ML: Azure Ai Studio & OpenAi Studio Python SDK Español #machinelearning #datascience
Langchain: Conversational QA tool Gemini Langchain y Faiss Part 2 #datascience #machinelearning
zhlédnutí 59Před 14 dny
Langchain: Conversational QA tool Gemini Langchain y Faiss Part 2 #datascience #machinelearning
Langchain: Conversational QA tool Gemini Langchain y Faiss Parte 2 Español
zhlédnutí 32Před 14 dny
Langchain: Conversational QA tool Gemini Langchain y Faiss Parte 2 Español
really nice series on semantic kernel with c#
Thanks, please share and like
muy bueno este video, gracias por publicar este contenido en Español
gracias, hay muchos mas en el canal. please comparte
gracias por estos videos magnificos
de nada Un saludo.
Fantastic work thanks to upload these videos
thanks. more in the channel
very good video, thanks for posting this. can you prepare this video in python?
yes, my plan is translate all the ones I have in C# . As soon as I finish with c# i will continue with python
how we can use another model, rather than use microsoft Phi3
yes , simply pull the new model into Ollama and change the label in the code. Potentially we can use a parameter to choose the model name
@@themachinelearningengineer thanks a lot
Super trabajo Gracias. Por favor continúa con tu labor.
Gracias , un saludo
great
thanks
Fantastic Video. thanks a lot to share. Are you working as well with LLamaindex?
Not much , I have been working with Langchain and Semantic Kernel, but at some point soon I will start with that topic. regards
can you share a link with the documentation of the Semantic Kernel? Thanks
here you have averything you may need github.com/microsoft/semantic-kernel
great video. do you have other examples with other CV architectures and also python?
yes you have ViT fine tunning, OCR stuff and soon some stable diffusion, This is about ViT fine Tune czcams.com/video/cxJLzggmyYE/video.html
Hi thanks for videos. Can you make a little bit longer video about .net and ai integration? Also Im wondering how it we can use ollama and .net locally. Thanks again. Take care.
Hi, yes that it is my intention . I am working daily with python and while I have some knowledge in C# , this take me a lot more time than python. IN anycase mt goal it is moving part of my coding to c# with onnx and Semantic kernel .
I was looking at this library some time ago github.com/awaescher/OllamaSharp. we have a couple of videos using Ollama in python with Langchain, and I use it at work, also I have this in my Roadmap of work, but easily I can prepare soemthing with what I research so far
check this czcams.com/video/IkeXb-LCSP8/video.html related to Ollama
Excelente video! muchas gracias.
de nada. un saludo
El volumen se escucha algo bajo.
Gracias por avisar, creo que tengo el micrófono con la supresión de sonido ambiente demasiado estricta.
This is the first of its kind, never seen Graph Data science tutorial before.. and I'm glad I found ur channel..Thanks for uploading such informative videos. One feedback , try to record on high volume as your voice is not loud and it takes some time to understand.
thanks. you have the full list in English here czcams.com/play/PLw-i55H2Io6iaqVkzFMR2H_sO-ZhiPl-A.html. Neo4j is one of my favourite technologies , i have use it in several projects. if you like the content, please give like , regards
its hard to listen. The audio is very low
check your setup, as the audio it is normal
@@themachinelearningengineer its low sir
of what competition are you referencing to in the video, if can I know
HI @josephroman2690 this is the competition ai.google.dev/competition?
and here for your info the solution to the detected problems in that video about chat history management and the bot being unable to follow with a new topic czcams.com/video/BAXHVgk9PLo/video.html
@@themachinelearningengineer thanks man for the info
parte 2 please
estoy trabajando con ello. Un saludo
buen video, puedes hacer uno pero extracción de temas con gemini y Knowledge Graph por favor
y pues puede ser con la API con la de google AI studio y no con la de vertex
Hola , esto me va a llevar un tiempo ya que estoy con una aplicacion que tengo presentar, pero lo hare. El tema de hacerlo con Phi3 es porque no cuesta dinero, y hacer 100K llamadas al api de gemini tiene un coste.
por cierto si estas interesado en el tema de Gemini, echale un vistazo a este curso de udacity que es gratuito, www.udacity.com/course/gemini-API-by-google--cd13416?bsft_aaid=affd8710-61ff-4001-baca-1d4a7303381d&bsft_eid=82f6e23f-577a-dfce-871a-22a57603974c&bsft_clkid=8d9458c1-2e9a-4e8d-89e2-60a308e8eecc&bsft_uid=1119f82e-2d8f-44ad-a1ea-3fedfb8d0d37&bsft_mid=26240a04-6519-4345-86fe-e2d6d4632087&bsft_txnid=025b7d03-b038-415f-a363-24f22e7d7bba&bsft_mime_type=html&bsft_ek=2024-07-10T22%3A25%3A44Z&bsft_lx=3&bsft_tv=26
un saludo
Great video!
Thanks!
Thanks for putting out these videos;
you welcome
good
thanks.
thank you.
You're welcome
Tienes algun video de como usar pipelines en Vertex AI?
Creo que tengo algo a medio hacer , le echo un vistazo y cuando lo acabe aviso , Un saludo
Si a mi este en concreto me ha venido genial tambien , ya que hay pocos que hablan de Langchain en Español y con tanta claridad. Gracias y un saludo
bueno que the haya servido @jose-hw7fl
Gracias por darnos de su tiempo para enseñar estos temas, me ah gustado mucho este canal
De nada. Algunas son cosas en las que trabajo y otras de mi interés. Con todas también me ayudo a mi mismo para la luego acordarme de como he hecho algo. Compártelo , los vídeos o el canal si crees que le puede venir bien a algún conocido así me ayudas también a promocionar el canal. Un saludo
hi can we made the same with another vectorstore like faiss or pinecone?
yes, we can . I am thinking in doing the same with Pinecone. I will let you know
Fantastic video. Thanks for sharing, its helping me a lot
Glad it helped!
Hello im getting “externally managed environment” errors while trying to import the libraries why is that so?
Can you send me the logs of that error?
la documentacion automatica que dices la hace swagger
ok thanks
Hi great content, thanks for this excellent content. It is possible to create something similar but using LLamaIndex or Langchain?
Hi , Mlflow only has for the moment integration with Langchain and it is still in experimental status, but I am preparing something regards
Hi, take a look to this czcams.com/video/2sabb8XR9WA/video.html
Hi really great content, it is possible to you do something similar with langchain or LlamaIndex?
great stuff, I like it
thanks
Make mlops course in english
Do I know you @kashifsadiq4145 ?
Hola: 1) como se usa OLLAMA_NUM_PARALLEL para configurar ollama serve? 2) Veo que se usa langchain y se crea un vector store pero no veo un proceso de Finetuning. Mejor dicho como se hace para hacer un fine tuning cuando tengo un modelo que quiero usar para classificar y quiero mejorar su resultado?
1 ) Esto es algo de lo que no hay mucha documentacion . Puedes buscar en el github de OLLama , pero ese parametro controla el numero de modelos que puedes tener cargados en Ollama y se configura en el servidor puedes encontrar mas informacion en github.com/ollama/ollama/issues/358 There are 2 layers of concurrency. There's OLLAMA_NUM_PARALLEL which controls how many requests can be answered against a single loaded model, and there's OLLAMA_MAX_LOADED_MODELS which controls how many models can be loaded at the same time, up to the limits of VRAM. (note: we do not support loading two or more copies of the same model)
2) ese Video No habla de Finetuning. En la lista czcams.com/play/PLw-i55H2Io6iIJWAJcL9L6OHliT0omoyR.html hay multiples ejemplos con Mistral, Llama, Microsoft Phi y otros
Hola. Muy claro el video de como utilizar Azure Machine Learning. Gracias por subirlo. Tengo una pregunta para ver si me puedes orientar. ... tengo que armar un modelo que optimice la logistica de los transporte de equipos petroleros en el yacimiento. Estos movimientos dependen de muchas variables y, dado que se necesitan optimizar los costos, entiendo que la solucion optima seria utilizar machine learning. Lo que no se es si la solucion de Azure ML me sirve para este tipo de modelos que quiero construir (es decir si ya tiene metodos que permitan este tipo de optimizaciones de logistica) o, hay que desarrollar componentes para la herramienta para este fin. Espero haberme explicado claramente. Gracias de antemano por la respuesta.
Hola, Azure ML es agnostico en cuanto a los modelos , es us servicio de Machine Learning. Lo que hagan los componentes que desarrolles , siempre y cuando se respete los lenguages que usan, el resto es bastante abierto y flexible. Azure ML te ofrece infraestructura , integracion con otros servicios y acceso rapido a modelos pretrained, el resto queda de tu parte. La foto final de una aplicacion ML corriendo en Azure la puedes ver como un conjunto de cajas (que este caso son docker containers) en las cuales tu decides que corre en cada una de ellas, (data preprocessing, NLP, CV , supervise learning), o cualquier otro paradigma de la IA, tu decides como las conectas , y lo que hace Azure ML es proporcionarte como te digo, es el soporte a todo lo que vayas a hacer, en termino de infraestructura que escala dependiendo de tun necesiadades, acceso a otros servicios en Azure, como Data warehousing, base de datos de vectores, u otros servicios IA o not IA como una base de datos. Te ofrece tambien seguridad y control de acceso de tu aplicacion y soporte en todo el ciclo de vida de la aplicacion desde el modelado hasta el gobierno y monitoreo en produccion. Este es el mismo concepto usado por Vertex ai in Google o Sagemaker en AWS. Espero que te ayude
Cual es la forma de contactarte al privado?
en la descripcion del canal tienes mi email un saludo
You could have the same idea with a model7b with vram 1 giga
I dont understand this
Is it possible to have the same idea with gguf
I suppose yes. What AirLLM is doing is loading a layer of your LLM in the GPU and doing inference, then load the next, take the output of the previous and use as input. Remember that in inference we dont have backpropagation only feedforward. gguf it is only a file format and to my knowledge when you load the model, you load it full not layer by layer
Que buena información, yo recien estoy empezando con un curso de penstesting basico y es super interesante
buena decisión, yo he trabajado 15 años en cyber-seguridad antes de moverme a la IA hace unos años. A lo mejor monto otro canal con temas de seguridad, aunque de momento con este y el trabajo , ya tengo suficiente. Echale un vistazo a este czcams.com/video/SWM25iJH7l8/video.html, es la tercera parte de esa serie para ver el tema de reglas de fw . Un saludo
Sir, could you guide me through a project using Langchain and OpenAI to retrieve company information by inputting the company name? I'd like to see how to fetch details such as email, phone number, website, address, city, and postal code. Your assistance would be greatly appreciated! Will you help me sir 🥺
Hi , watch this video please czcams.com/video/JwXnu0rUBhA/video.html and follow the instructions of this Jupyter notebook in my repository github.com/olonok69/LLM_Notebooks/blob/main/langchain/use_cases/Langchain_OpenAI_Use_cases_Extraction.ipynb . Here you have 2 examples of using Langchain and OpenAi to extract information from documents regards
Y como interpretas este comando..ssh-keygen -t rsa -f ~/.ssh/ggogleAcess -C privateGoogle -b 2048 es el.mismo? Pero no veo.en tu descripción
con ese comando creas la clave publica y privada, a lo mejor se me ha olvidado ahi . Tienes tambien en la seccion de shorts cada uno de los pasos . aqui te paso el video de ese czcams.com/users/shortsqfItZBYSLOg , y en el detalle tienes todos los pasos
@@themachinelearningengineer tienes alguna forma de contacto de whatsapp? Quiero resolver mi problema, aun estoy en eso. No cuento con computadora y eh tratado de hacerlo sin putyyn en celular y no me funciona. Me ayudas al privado?
donde estas tratando de configurar el ssh , en un celular?
@@themachinelearningengineer así es para usarlo en aplicación termius
Entonces creo que este procedimiento no te va a funcionar. Acorde a la documentacion de Google solo soportan Windows, Mac y Linux /Unix cloud.google.com/compute/docs/connect/create-ssh-keys
Gran información..🎉😮😮me salvaste
subscribiste al canal, para recibir updates, si no lo estas ya. Un saludo
Thank you for the valuable videos sir! Could you please create a video using Langchain and OpenAI to demonstrate how to retrieve company information by simply providing the company name? It would be incredibly helpful to see how these technologies can be used to fetch details like email, phone number, website, address, city, and postal code effortlessly. Looking forward to seeing the process in action!
Hi do you plan to extract this information from pdf or which kind of source?
@@themachinelearningengineer through internet sir is it possible sir if possible create video sir it will be helpful 🙏
@@Education_for_all124 you have what you need already in the channel. Take a look to the playlist czcams.com/play/PLw-i55H2Io6gbrGi2oS7roT3DCztJXEfL.html I have there how to search in internet and all the use cases you can solve with Langchain
@@themachinelearningengineer thanks a lot sir
Un tesoro este tutorial...Gracias
gracias, hay bastante de ese tema que has visto. Si estas interesado en algún tema en concreto te puedo decir que vídeo mirar. Un saludo
@@themachinelearningengineer Hola: Tengo una GPU con 32 cpu . Sin ermbargo cuando quiero hacer una classificacion sobre varios textos que hay en csv encuentro que se demora varias horas. Como hacerlo en paralelo o asincronico. Hay algun tutoria en python?
@@gonzaloandresmorenogomez7226 cuanta memoria tiene tu GPU?
Thank you so much man! I was literally working on the synthetic data generation few hours ago and I just saw this. Could you do a follow up video of implementing faker and presidio in a rag application? Cuz from what I know, we want to anonymize the user input but logically speaking, dont we also have to implement that in our files that we embed in the vector database?
I am not really sure what you want to achive. Can you explain me in a process what do you want and this way i will able to help. this is the flow of the data end to end and then i will be able to do something regards
@@themachinelearningengineer So the way I thought about it is the following: If we are using a closed source model or vector database, they save our embeddings. The idea is to implement presidio + faker for the docs to in case if we had any sensitive information in the document. For instance, employee badge number, ID, etc.... 2nd part is we cannot control the user input as well so if a user typed his sensitive information, we would also want to implement presidio and faker on it so that his info doesn't get leaked.
Can you do a video of how can we connect presidio and faker library (to generate fake data) for our RAG application? For example, the PII data could be order number of some restaurant or ecommerce or employee ID of a company etc....
Hi do you know this library? api.python.langchain.com/en/latest/experimental_api_reference.html#module-langchain_experimental.data_anonymizer . We have already an integration of Langchain with Presidio , using faker. it is generation the PII entities that Presidio recognize (Universal and Language specific) , but can be extended. If your goal it is generate synthetic Data only, this one can be adapted . take a look to this logic github.com/langchain-ai/langchain/blob/master/libs/experimental/langchain_experimental/data_anonymizer/faker_presidio_mapping.py
Hi @yazanrisheh5127 I made a veideo with Faker just replacing the PII entities generation with faker czcams.com/video/WtnOCdhbzfs/video.html
Can we use the fine tune model for inference locally??
yes, but it will depens of the memory of your GPU. keep in mind that a model it is a file , that you need to load in memory of your GPU. If this file it is fine tune modelwith LOra or Qlora, it comes with some additional matrixs that are the ones that you fine tune , it is not , means that you fine tune the orinal model, which usually means to have a huge GPU or multiple GPU(nothing that you can have in local). what I want to say . 1 million of parameters , in inference means approximatelly 1 GB of GPU memory. so if you one to run just for inference a, lest say, mistral 7B, you just need 7Gb of GPU if you dont use quantization. Runing models in local, some times it is not possible , because of hard and also because of time if you mind to do inference locally, call a model that you have register in the model repository of vertex ai o azureml in the cloud, the question it is yes, as you dont run the inference locally hope it is helps
@@themachinelearningengineer Thanks for your quick reply and explanation! I'm still a bit confused about loading my fine-tuned model from the repository for local use. Let's say I fine-tuned a model for sentiment analysis, so it can classify text as positive, negative, or neutral. I want to load this model locally to perform inference on new data.
Hi @aminahrashid3349, you alway can load a model on local, but again, depends on your hardware. We are in a videoof Gemini pro 1.0. If you are thinking of load this locally, just forget it. You just need to call the vertexai API and either to use , gemini pro or your fine tune version of gemini pro
Sexy voice😮
❤❤
thanks