EITC/AI/TFQML TensorFlow Quantum Machine Learning är det europeiska IT-certifieringsprogrammet för användning av Google TensorFlow Quantum-biblioteket för implementering av maskininlärning i Googles Quantum Processor Sycamore-arkitektur.
Läroplanen för EITC/AI/TFQML TensorFlow Quantum Machine Learning fokuserar på teoretisk kunskap och praktiska färdigheter i att använda Googles TensorFlow Quantum-bibliotek för avancerad kvantberäkningsmodellbaserad maskininlärning på Google Quantum Processor Sycamore-arkitekturen organiserad inom följande struktur, omfattande omfattande video didaktiskt innehåll som referens för detta EITC-certifiering.
TensorFlow Quantum (TFQ) är ett bibliotek för kvantmaskininlärning för snabb prototypning av hybridkvantklassiska ML-modeller. Forskning inom kvantalgoritmer och applikationer kan utnyttja Googles ramverk för kvantberäkning, allt från TensorFlow.
TensorFlow Quantum fokuserar på kvantdata och bygger hybridkvantklassiska modeller. Den integrerar kvantberäkningsalgoritmer och logik utformad i Cirq (kvantprogrammeringsramverk baserat på kvantkretsmodell) och ger kvantberäkningsprimitiv kompatibla med befintliga TensorFlow API, tillsammans med högpresterande kvantkretssimulatorer. Läs mer i TensorFlow Quantum vitbok.
Kvantberäkning är användningen av kvantfenomen som superposition och intrassling för att utföra beräkning. Datorer som utför kvantberäkningar kallas kvantdatorer. Kvantdatorer tros kunna lösa vissa beräkningsproblem, såsom heltalsfaktorisering (som ligger till grund för RSA-kryptering), väsentligt snabbare än klassiska datorer. Studien av kvantberäkning är ett underfält av kvantinformationsvetenskap.
Kvantberäkning började i början av 1980-talet, när fysikern Paul Benioff föreslog en kvantmekanisk modell av Turing-maskinen. Richard Feynman och Yuri Manin föreslog senare att en kvantdator hade potential att simulera saker som en klassisk dator inte kunde. År 1994 utvecklade Peter Shor en kvantalgoritm för att ta hänsyn till heltal som hade potential att dekryptera RSA-krypterad kommunikation. Trots pågående experimentella framsteg sedan slutet av 1990-talet tror de flesta forskare att "feletolerant kvantberäkning fortfarande är en ganska avlägsen dröm." Under de senaste åren har investeringar i kvantbaserad forskning ökat i både den offentliga och privata sektorn. Den 23 oktober 2019 hävdade Google AI, i samarbete med US National Aeronautics and Space Administration (NASA) att ha utfört en kvantberäkning som är omöjlig på alla klassiska datorer (så kallat kvantöverhöghetsresultat).
Det finns flera modeller av kvantdatorer (eller snarare kvantberäkningssystem), inklusive kvantkretsmodellen, kvantturingmaskin, adiabatisk kvantdator, envägs kvantdator och olika kvantcelleautomater. Den mest använda modellen är kvantkretsen. Kvantkretsar är baserade på kvantbiten, eller ”qubit”, vilket är något analogt med biten i klassisk beräkning. Qubits kan vara i kvanttillstånd 1 eller 0, eller så kan de vara i superposition av 1 och 0-tillstånden. Men när qubits mäts är resultatet av mätningen alltid antingen 0 eller 1; sannolikheten för dessa två resultat beror på kvanttillståndet som qubits var i omedelbart före mätningen.
Framsteg mot att bygga en fysisk kvantdator fokuserar på teknik som transmoner, jonfällor och topologiska kvantdatorer, som syftar till att skapa högkvalitativa qubits. Dessa qubits kan utformas annorlunda beroende på hela kvantdatorns datormodell, oavsett om kvantlogiska grindar, kvantglödgning eller adiabatisk kvantberäkning. Det finns för närvarande ett antal betydande hinder i vägen för att konstruera användbara kvantdatorer. I synnerhet är det svårt att bibehålla kvanttillstånden hos qubits eftersom de lider av kvantdekoherens och tillståndsfidelitet. Kvantdatorer kräver därför felkorrigering. Alla beräkningsproblem som kan lösas av en klassisk dator kan också lösas av en kvantdator. Omvänt kan alla problem som kan lösas av en kvantdator också lösas av en klassisk dator, åtminstone i princip ges tillräckligt med tid. Med andra ord följer kvantdatorer avhandlingen Church – Turing. Även om detta innebär att kvantdatorer inte ger ytterligare fördelar jämfört med klassiska datorer när det gäller beräknbarhet, har kvantalgoritmer för vissa problem betydligt lägre tidskomplexiteter än motsvarande kända klassiska algoritmer. Speciellt tros kvantdatorer snabbt kunna lösa vissa problem som ingen klassisk dator kunde lösa på någon möjlig tid - en bedrift som kallas "kvantöverhöghet". Studien av beräkningskomplexiteten hos problem med kvantdatorer kallas kvantkomplexitetsteori.
Google Sycamore är en kvantprocessor skapad av Google Inc.: s artificiella intelligensavdelning. Den består av 53 qubits.
År 2019 slutförde Sycamore en uppgift på 200 sekunder som Google hävdade, i ett Nature-papper, skulle ta en toppmodern superdator 10,000 2.5 år att slutföra. Således hävdade Google att ha uppnått kvantöverhöghet. För att uppskatta den tid som skulle tas av en klassisk superdator, körde Google delar av kvantkretssimuleringen på toppmötet, den mest kraftfulla klassiska datorn i världen. Senare gjorde IBM ett motargument och hävdade att uppgiften bara skulle ta XNUMX dagar på ett klassiskt system som Summit. Om Googles påståenden upprätthålls skulle det representera ett exponentiellt steg i datorkraften.
I augusti 2020 rapporterade kvanttekniker som arbetade för Google den största kemiska simuleringen på en kvantdator - en Hartree-Fock-approximation med Sycamore ihop med en klassisk dator som analyserade resultaten för att ge nya parametrar för 12-qubit-systemet.
I december 2020 uppnådde den kinesiska fotonbaserade Jiuzhang-processorn, utvecklad av USTC, en processorkraft på 76 qubits och var 10 miljarder gånger snabbare än Sycamore, vilket gjorde den till den andra datorn som uppnådde kvantöverhöghet.
Quantum Artificial Intelligence Lab (även kallat Quantum AI Lab eller QuAIL) är ett gemensamt initiativ från NASA, Universities Space Research Association och Google (specifikt Google Research) vars mål är att banbryta forskningen om hur kvantberäkning kan hjälpa till med maskininlärning och andra svåra datavetenskapliga problem. Laboratoriet är värd på NASA: s Ames Research Center.
Quantum AI Lab tillkännagavs av Google Research i ett blogginlägg den 16 maj 2013. Vid tidpunkten för lanseringen använde Lab den mest avancerade kommersiellt tillgängliga kvantdatorn, D-Wave Two från D-Wave Systems.
Den 20 maj 2013 tillkännagavs att människor kunde ansöka om att använda tid på D-Wave Two på labbet. Den 10 oktober 2013 släppte Google en kortfilm som beskriver det nuvarande läget för Quantum AI Lab. Den 18 oktober 2013 meddelade Google att de hade införlivat kvantfysik i Minecraft.
I januari 2014 rapporterade Google resultat som jämförde prestanda för D-Wave Two i labbet med de för klassiska datorer. Resultaten var tvetydiga och framkallade heta diskussioner på Internet. Den 2 september 2014 tillkännagavs att Quantum AI Lab, i partnerskap med UC Santa Barbara, skulle lansera ett initiativ för att skapa kvantinformationsprocessorer baserade på superledande elektronik.
Den 23 oktober 2019 tillkännagav Quantum AI Lab i ett papper att det hade uppnått kvantöverhöghet.
Google AI Quantum utvecklar kvantberäkning genom att utveckla kvantprocessorer och nya kvantalgoritmer för att hjälpa forskare och utvecklare att lösa kortvariga problem, både teoretiska och praktiska.
Kvantbearbetning anses vara till hjälp vid utvecklingen av morgondagens innovationer, inklusive AI. Därför satsar Google betydande resurser på att bygga dedikerad kvant- och mjukvara.
Quantum computing är ett nytt paradigm som kommer att spela en stor roll för att påskynda uppgifter för AI. Google syftar till att erbjuda forskare och utvecklare tillgång till ramar med öppen källkod och datorkraft som kan fungera utöver klassiska beräkningsfunktioner.
De viktigaste fokusområdena för Google AI Quantum är
- Superledande qubit-processorer: Superledande qubits med chipbaserad skalbar arkitektur inriktad på två-qubit gate-fel <0.5%.
- Qubit-metrologi: Att reducera två-qubit-förlust under 0.2% är avgörande för felkorrigering. Vi arbetar på ett kvantöverhöghetsexperiment, för att ungefär prova en kvantkrets utöver kapaciteten hos toppmoderna klassiska datorer och algoritmer.
- Kvantsimulering: Simulering av fysiska system är bland de mest förväntade applikationerna för kvantberäkning. Vi fokuserar särskilt på kvantalgoritmer för modelleringssystem av interagerande elektroner med applikationer inom kemi och materialvetenskap.
- Kvantassisterad optimering: Vi utvecklar hybrid kvantklassiska lösare för ungefärlig optimering. Termiska hopp i klassiska algoritmer för att övervinna energibarriärer kan förbättras genom att åberopa kvantuppdateringar. Vi är särskilt intresserade av en sammanhängande befolkningsöverföring.
- Kvantneurala nätverk: Vi utvecklar ett ramverk för att implementera ett kvantneuralt nätverk på kortvariga processorer. Vi är intresserade av att förstå vilka fördelar som kan uppstå genom att generera massiva superpositioner under drift av nätverket.
De viktigaste verktygen som utvecklats av Google AI Quantum är ramar med öppen källkod speciellt utformade för att utveckla nya kvantalgoritmer för att lösa kortvariga applikationer för praktiska problem. Dessa inkluderar:
- Cirq: ett kvantramverk med öppen källkod för att bygga och experimentera med bullriga kvantalgoritmer (NISQ) på kortvariga kvantprocessorer
- OpenFermion: en öppen källkodsplattform för att översätta problem inom kemi och materialvetenskap till kvantkretsar som kan köras på befintliga plattformar
Google AI Quantum-korttidsapplikationer inkluderar:
Kvantsimulering
Utformningen av nya material och belysning av komplex fysik genom noggranna simuleringar av kemi och kondenserade material är bland de mest lovande tillämpningarna av kvantberäkning.
Felreduceringstekniker
Vi arbetar med att utveckla metoder på vägen mot fullständig kvantfelkorrigering som har förmågan att dramatiskt minska buller i nuvarande enheter. Även om feletolerant kvantberäkning i full skala kan kräva avsevärd utveckling har vi utvecklat kvantundertrycksexpansionstekniken för att hjälpa till att använda tekniker från kvantfelskorrigering för att förbättra prestanda för applikationer på kortvariga enheter. Dessutom underlättar dessa tekniker testning av komplexa kvantkoder på kortvariga enheter. Vi driver aktivt dessa tekniker till nya områden och utnyttjar dem som grund för utformning av kortvariga experiment.
Quantum Machine Learning
Vi utvecklar hybrid kvant-klassisk maskininlärningsteknik på kortvariga kvantenheter. Vi studerar universell kvantkretsinlärning för klassificering och gruppering av kvant- och klassisk data. Vi är också intresserade av generativa och diskriminerande kvantneurala nätverk, som skulle kunna användas som kvantförstärkare och tillståndsreningsenheter inom kvantkommunikationsnätverk eller för verifiering av andra kvantkretsar.
Kvantoptimering
Diskreta optimeringar inom flygindustrin, fordonsindustrin och andra industrier kan dra nytta av hybridkvantklassisk optimering, till exempel simulerad glödgning, kvantassisterad optimeringsalgoritm (QAOA) och kvantförbättrad befolkningsöverföring kan ha nytta med dagens processorer.
För att bekanta dig i detalj med certifieringsläroplanen kan du utöka och analysera tabellen nedan.
EITC/AI/TFQML TensorFlow Quantum Machine Learning Certification Curriculum refererar till didaktiskt material med öppen tillgång i en videoform. Lärprocessen är uppdelad i en steg-för-steg-struktur (program -> lektioner -> ämnen) som täcker relevanta läroplansdelar. Obegränsad konsultation med domänexperter tillhandahålls också.
För detaljer om certifieringsförfarandet kontrollera Hur det fungerar.
Läroplan Referensresurser
TensorFlow Quantum (TFQ) är ett bibliotek för kvantmaskininlärning för snabb prototypning av hybridkvantklassiska ML-modeller. Forskning inom kvantalgoritmer och applikationer kan utnyttja Googles ramar för kvantberäkning, allt från TensorFlow. TensorFlow Quantum fokuserar på kvantdata och bygger hybridkvantklassiska modeller. Den integrerar kvantberäkningsalgoritmer och logik utformad i Cirq och ger kvantberäkningsprimitiv som är kompatibla med befintliga TensorFlow API: er, tillsammans med kvantkretssimulatorer med hög prestanda. Läs mer i TensorFlow Quantum vitbok. Som ytterligare referens kan du kolla in översikten och köra anteckningsböckerna.
https://www.tensorflow.org/quantum
cirq
Cirq är en öppen källkodsram för Noisy Intermediate Scale Quantum (NISQ) -datorer. Den utvecklades av Googles AI Quantum Team, och den offentliga alfa tillkännagavs vid International Workshop on Quantum Software and Quantum Machine Learning den 18 juli 2018. En demo av QC Ware visade en implementering av QAOA för att lösa ett exempel på maximal nedskärning problemet löses på en Cirq-simulator. Kvantprogram i Cirq representeras av "Circuit" och "Schedule" där "Circuit" representerar en Quantum-krets och "Schedule" representerar en Quantum-krets med timinginformation. Programmen kan köras på lokala simulatorer. Följande exempel visar hur man skapar och mäter ett Bell-tillstånd i Cirq.
importera cirq
# Välj qubits
qubit0 = cirq.GridQubit(0, 0)
qubit1 = cirq.GridQubit(0, 1)
# Skapa en krets
krets = cirq.Krets.från_ops(
cirq.H(qubit0),
cirq.CNOT(qubit0, qubit1),
cirq.mäta(qubit0, nyckel='m0'),
cirq.mäta(qubit1, nyckel='m1')
)
Utskrift av kretsen visar dess diagram
skriv ut(krets)
# utskrifter
# (0, 0): ───H─── @ ───M ('m0') ───
# │
# (0, 1): ───────X───M ('m1') ───
Simulering av kretsen visar upprepade gånger att mätningarna på qubits är korrelerade.
Simulatorn = cirq.Simulator()
resultera = Simulatorn.köra(krets, repetitionerna=5)
skriv ut(resultera)
# utskrifter
# m0 = 11010
# m1 = 11010
Ladda ner det fullständiga offline självlärande förberedande materialet för EITC/AI/TFQML TensorFlow Quantum Machine Learning-programmet i en PDF-fil
EITC/AI/TFQML förberedande material – standardversion
EITC/AI/TFQML förberedande material – utökad version med granskningsfrågor