Ghidul final pentru rețelele neuronale recurente din Python

Tranzacționare recurentă de acțiuni în rețeaua neuronală. Inteligență artificială

tranzacționare recurentă de acțiuni în rețeaua neuronală profit bitcoin aftonbladet

Tablourile noastre au forma dorită, astfel încât să putem continua construirea rețelei noastre neuronale recurente.

Importul bibliotecilor noastre TensorFlow Înainte de a putea începe construirea rețelei noastre neuronale recurente, va trebui să importăm o serie de clase de la TensorFlow.

Inteligență artificială

Iată declarațiile pe care ar trebui să le executați înainte de a continua: from tensorflow. Primul lucru care trebuie făcut este inițializarea unui obiect din Sequentialclasa TensorFlow.

  • Software de tranzacționare în ziua acțiunilor pentru începători
  • Rețele neuronale - inteligența artificială modernă, utilizarea sa în economie UDC
  • Ghidul final pentru rețelele neuronale recurente din Python
  • Inteligență artificială - Wikipedia
  • Tranzacționare forex minări de criptomonede
  • Cripto de tranzacționare în rețea neuronală
  • Investind in valuta

După cum sugerează și numele său, Tranzacționare automată pentru criptomonede este concepută pentru a construi rețele neuronale prin adăugarea de secvențe de straturi în timp. Pentru a face acest lucru, treceți o invocație a LSTMclasei pe care tocmai am importat-o în addmetodă.

LSTMClasa acceptă mai mulți parametri. Mai precis, vom specifica trei argumente: Numărul de neuroni LSTM pe care doriți să îl includeți în acest strat.

Creșterea numărului de neuroni este o metodă pentru creșterea dimensionalității rețelei dvs. În cazul nostru, folosim 40pași de timp și numai 1predictor prețul acțiunilorașa că vom adăuga Iată addmetoda completă : rnn.

Adăugarea unor reguli de abandon Regularizarea abandonului este o tehnică utilizată pentru a evita supraadaptarea atunci tranzacționare recurentă de acțiuni în rețeaua neuronală se antrenează rețelele neuronale.

Meniu de navigare

DropoutClasa acceptă un singur parametru: rata de abandon școlar. Rata abandonului indică numărul de neuroni care trebuie aruncați într-un strat specific al rețelei neuronale. Vom urma această convenție în rețeaua noastră neuronală recurentă. Veți vedea că după specificarea primului strat LSTM, adăugarea mai mult este banală.

Pentru a adăuga mai multe straturi, tot ce trebuie făcut este să copiați primele două addmetode cu o mică modificare. Vom menține același tranzacționare recurentă de acțiuni în rețeaua neuronală de neuroni sau units și rata abandonului în fiecare LSTMinvocație de clasă.

Iată codul complet pentru a adăuga următoarele trei straturi LSTM: rnn.

tranzacționare recurentă de acțiuni în rețeaua neuronală Bitcoin trader Joes

Să-l cuibărim în buclă în schimb: for i in [True, True, False]: rnn. Stratul de ieșire va fi o instanță a Denseclasei, care tranzacționare recurentă de acțiuni în rețeaua neuronală aceeași clasă pe care am folosit-o pentru a crea stratul complet de conexiune a rețelei noastre neuronale convoluționale mai devreme în acest curs.

tranzacționare recurentă de acțiuni în rețeaua neuronală unde să tranzacționați criptomonede în SUA

Singurul parametru pe care trebuie să îl specificăm este unitscare este numărul dorit de dimensiuni pe care ar trebui să îl genereze stratul de ieșire. Iată codul pentru a crea stratul nostru de ieșire: rnn.

TensorFlow ne permite să compilăm o rețea neuronală folosind compilemetoda numită corespunzător. Acceptă două argumente: optimizerși loss.

Să începem prin a crea o compilefuncție goală : rnn. Să începem discutând optimizerparametrul. Rețelele neuronale recurente utilizează de obicei optimizatorul RMSProp în stadiul de compilare.

Acestea fiind spuse, vom folosi optimizatorul Adam ca înainte. Optimizatorul Adam este un optimizator de cai de lucru care este util într-o mare varietate de arhitecturi de rețea neuronală. Întrucât prezicem o variabilă continuă, putem folosi o eroare pătrată medie - la fel cum ați face atunci când măsurați performanța unui model de învățare automată cu regresie liniară. Iată compilemetoda finală : Montarea rețelei neuronale recurente pe setul de antrenament Acum este timpul să ne instruim rețeaua recurentă cu privire la datele noastre de instruire.

Pentru a face acest lucru, folosim fitmetoda.

tranzacționare recurentă de acțiuni în rețeaua neuronală training forex online gratuit

Dimensiunea lotului : dimensiunea loturilor în care va fi instruită rețeaua prin fiecare epocă. Iată codul pentru a antrena această rețea neuronală recurentă conform specificațiilor noastre: rnn.

Rezumat - Intuiția rețelelor neuronale recurente

Jupyter va genera acum un număr de ieșiri tipărite pentru fiecare epocă din algoritmul de antrenament. Arată așa: După cum puteți vedea, fiecare ieșire arată cât a durat epoca de calcul, precum și funcția de pierdere calculată la acea epocă. Ar trebui să vedeți că valoarea funcției de pierdere scade încet, pe măsură ce rețeaua neuronală recurentă este adaptată datelor de antrenament în timp.

În cazul meu, valoarea funcției de pierdere a scăzut de 0. Realizarea de predicții cu rețeaua noastră neuronală recurentă Ne-am construit rețeaua neuronală recurentă și am instruit-o pe datele despre prețul acțiunilor Facebook în ultimii 5 ani. Este timpul să facem niște predicții! Importul datelor noastre de testare Pentru început, să importăm datele reale despre prețul acțiunilor pentru prima lună a anului Acest lucru ne va oferi ceva cu care să comparăm valorile noastre prognozate.

Iată codul pentru a face acest lucru. Aceasta arată că datele noastre de testare sunt o matrice NumPy unidimensională cu 21 de intrări - ceea ce înseamnă că au fost 21 de zile de tranzacționare pe piața bursieră în ianuarie De asemenea, puteți genera un grafic rapid al datelor folosind plt.

Aceasta ar trebui să genereze următoarea vizualizare Python: Cu puțin noroc, valorile noastre prezise ar trebui să urmeze aceeași distribuție. Construirea setului de date de testare trebuie să facem predicții Înainte de a putea efectua predicții pentru prețul acțiunilor Facebook în ianuarietrebuie mai întâi să facem unele modificări setului nostru de date. Motivul este că pentru a prezice fiecare dintre 21observații în ianuarie, vom avea nevoie de 40zilele de tranzacționare anterioare.

Mesaj de navigare

Unele dintre aceste zile de tranzacționare vor proveni din setul de testare, în timp ce restul vor proveni din setul de antrenament. Din acest motiv, este necesară o anumită concatenare.

Din păcate, puteți concata imediat matricile NumPy imediat. Acest lucru se datorează faptului că am aplicat deja scalarea caracteristicilor la datele de antrenament, dar nu am aplicat nici o scalare a caracteristicilor la datele de testare.

Aceste patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; [63] adesea, cea mai bună abordare diferă în funcție de problemă.

Acum trebuie să creăm o serie de prețuri ale acțiunilor din ianuarie și din cele 40 de zile de tranzacționare anterioare lunii ianuarie. Aceasta reprezintă limita superioară a primului element din matrice. Pentru a obține limita inferioară, scade doar 40din acest număr. Acest lucru are sens - ar trebui să conțină 21valorile pentru ianuarieprecum și 40valorile anterioare.

Scalarea datelor noastre de testare Rețeaua noastră neuronală recurentă a fost instruită pe date la scară. Acest lucru se datorează faptului că dorim să transformăm datele de testare în funcție de potrivirea generată din întregul set de date de antrenament. Aceasta înseamnă că transformarea care se aplică datelor de testare va fi aceeași cu cea aplicată datelor de antrenament - ceea ce este necesar pentru rețeaua noastră neuronală recurentă pentru a face predicții exacte.

Gruparea datelor noastre de testare Ultimul lucru pe care trebuie să-l facem este să grupăm datele de testare în 21tablouri de dimensiuni Spus diferit, vom crea acum o matrice în care fiecare intrare corespunde unei date din ianuarie și conține prețurile acțiunilor din 40zilele de tranzacționare anterioare.

Acest pas este simplu. Acest lucru se datorează faptului că setul nostru de date este încă scalat! Trebuie să o scărim tranzacționare recurentă de acțiuni în rețeaua neuronală ca predicțiile să aibă orice semnificație practică. Oricine a urmat prețul acțiunilor Facebook pentru orice perioadă de timp poate vedea că acest lucru pare destul de aproape de locul în care a tranzacționat Facebook. Să generăm un grafic care compară prețurile noastre anticipate ale acțiunilor cu prețul real al acțiunilor Facebook: plt.

Ghidul final pentru rețelele neuronale recurente din Python

De asemenea, este lipit mai jos pentru referință: Import the necessary data science libraries import numpy as np import pandas as pd import matplotlib. Pragmatic Machine Learning Învățarea automată schimbă lumea. Dar întotdeauna a fost greu să înveți învățarea automată Învățarea automată a mașinilor este un ghid pas cu pas care te va învăța fundamentele învățării automate prin construirea a 9 proiecte din lumea reală. Veți învăța: Regresie liniară Regresiune logistică Nick McCullum Gumroad Mesaj de navigare.