Det kan den faktiskt. I Google Cloud Machine Learning finns en funktion som heter Cloud Machine Learning Engine (CMLE). CMLE tillhandahåller en kraftfull och skalbar plattform för utbildning och implementering av maskininlärningsmodeller i molnet. Det tillåter användare att läsa data från molnlagring och använda en utbildad modell för slutledning.
När det kommer till att läsa data från molnlagring erbjuder CMLE sömlös integration med olika lagringsalternativ, inklusive Google Cloud Storage. Användare kan lagra sina träningsdata, såväl som andra relevanta filer, i molnlagringshinkar. CMLE kan sedan komma åt dessa hinkar och läsa data under utbildningsprocessen. Detta möjliggör effektiv och bekväm datahantering, såväl som möjligheten att utnyttja stora datamängder som kan överskrida den lokala lagringskapaciteten.
När det gäller att använda en tränad modell, gör CMLE det möjligt för användare att specificera en tränad modell lagrad i molnlagring för prediktionsuppgifter. När en modell har tränats och sparats i molnlagring kan den lätt nås och användas av CMLE för att göra förutsägelser om ny data. Detta är särskilt användbart när det finns ett behov av att distribuera en tränad modell och göra realtidsförutsägelser i en produktionsmiljö.
För att illustrera detta koncept, överväg ett scenario där en maskininlärningsmodell har tränats för att klassificera bilder. Den tränade modellen förvaras i en Cloud-lagringshink. Med CMLE kan användare ange platsen för den tränade modellen i molnlagring och distribuera den som en slutpunkt. Denna slutpunkt kan sedan användas för att skicka nya bilder för klassificering. CMLE kommer att läsa den tränade modellen från molnlagring, utföra nödvändiga beräkningar och ge förutsägelser baserat på ingångsbilderna.
CMLE har verkligen förmågan att läsa data från molnlagring och specificera en tränad modell för slutledning. Denna funktion möjliggör effektiv datahantering och distribution av utbildade modeller i verkliga applikationer.
Andra senaste frågor och svar ang Framsteg i maskininlärning:
- I vilken utsträckning förenklar Kubeflow verkligen hanteringen av maskininlärningsarbetsflöden på Kubernetes, med tanke på den ökade komplexiteten i installation, underhåll och inlärningskurvan för tvärvetenskapliga team?
- Hur kan en expert i Colab optimera användningen av ledig GPU/TPU, hantera datapersistens och beroenden mellan sessioner och säkerställa reproducerbarhet och samarbete i storskaliga data science-projekt?
- Hur påverkar likheten mellan käll- och måldataseten, tillsammans med regulariseringstekniker och valet av inlärningshastighet, effektiviteten av överföringsinlärning som tillämpas via TensorFlow Hub?
- Hur skiljer sig funktionsutvinningsmetoden från finjustering vid överföringsinlärning med TensorFlow Hub, och i vilka situationer är varje situation mer praktisk?
- Vad menar du med transfer learning och hur tror du att det relaterar till de förtränade modeller som erbjuds av TensorFlow Hub?
- Om det tar timmar för din bärbara dator att träna en modell, hur skulle du använda en virtuell dator med GPU och JupyterLab för att påskynda processen och organisera beroenden utan att förstöra din miljö?
- Om jag redan använder anteckningsböcker lokalt, varför ska jag använda JupyterLab på en virtuell dator med ett GPU? Hur hanterar jag beroenden (pip/conda), data och behörigheter utan att förstöra min miljö?
- Kan någon utan erfarenhet av Python och med grundläggande kunskaper om AI använda TensorFlow.js för att ladda en modell konverterad från Keras, tolka model.json-filen och shards och säkerställa interaktiva realtidsförutsägelser i webbläsaren?
- Hur kan en expert på artificiell intelligens, men en nybörjare inom programmering, dra nytta av TensorFlow.js?
- Vad är det kompletta arbetsflödet för att förbereda och träna en anpassad bildklassificeringsmodell med AutoML Vision, från datainsamling till modelldistribution?
Se fler frågor och svar i Avancera i maskininlärning

