Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2581 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  11  12  13  ..  96  97  98  99  100  101
Auteur Sujet :

[Topik Unik] Le Forex

n°21816940
Profil sup​primé
Posté le 09-03-2010 à 09:50:31  answer
 

Reprise du message précédent :

damtoul a écrit :


 
Tu dois t'inscrire Tachyon.   ;)
 
Sinon c'est bien rigolo comme truc!
 
RDV demain!    :hello:


 
 :hello:  
je vais le faire, mais je bosse toute la journée entre deux posts sur HFR, de plus j'ai pas un radis à placer pour le moment, si tu continus sur Twiter je viendrais forcement un jour prochain.
en attendant bon trad et encore merci de nous faire partager cela  :jap:

mood
Publicité
Posté le 09-03-2010 à 09:50:31  profilanswer
 

n°21820457
AirbaT
Connection timed out
Posté le 09-03-2010 à 14:58:26  profilanswer
 

Je bataille un peu avec le Awesome Oscillator de Bill Williams, quelqu'un a vu passer un bout de code pour interpréter ? C'est pas évident, et j'ai 2 versions différentes de lecture du "twin peaks" sur le web.

n°21821133
damtoul
Un boulot!
Posté le 09-03-2010 à 15:45:28  profilanswer
 

Formule et code :
http://ta.mql4.com/indicators/bills/awesome
 
L'AO s'utilise en général avec l'AC du même Bill Williams.
 
Ca forme ce qu'on appelle l'AOAC.
 
Pour la lecture il y en a plusieurs. Tu prends celle que tu préfères parmi le choix proposé sur mon lien ci-dessus.


---------------
Pronouns: Les/Vals/Euses
n°21821347
AirbaT
Connection timed out
Posté le 09-03-2010 à 15:59:03  profilanswer
 

damtoul a écrit :

Formule et code :
http://ta.mql4.com/indicators/bills/awesome
 
L'AO s'utilise en général avec l'AC du même Bill Williams.
 
Ca forme ce qu'on appelle l'AOAC.
 
Pour la lecture il y en a plusieurs. Tu prends celle que tu préfères parmi le choix proposé sur mon lien ci-dessus.


J'ai trouvé un bon post sur un forum, qui explique que la lecture de l'indicateur a évolué à chaque publication des livre de Billou W. La dernière (et donc normalement la plus performante) est celle que j'ai codé dans mon EA, qui est aussi la plus simple.
 
Je vais regarder si en couplant avec AC et/ou Fractals j'améliore les points d'entrée.

n°21821736
Profil sup​primé
Posté le 09-03-2010 à 16:20:51  answer
 

ça ressemble à quel langage de programmation ?

n°21821746
AirbaT
Connection timed out
Posté le 09-03-2010 à 16:21:29  profilanswer
 


Du C, en plus simple.

n°21828181
Nirwan
perdu? double la mise!
Posté le 09-03-2010 à 23:38:08  profilanswer
 

AirbaT a écrit :


J'ai trouvé un bon post sur un forum


 
Lequel? :jap:
 
 

n°21831718
Nirwan
perdu? double la mise!
Posté le 10-03-2010 à 12:01:26  profilanswer
 

Plus de tweets damtoul? :D

n°21831888
damtoul
Un boulot!
Posté le 10-03-2010 à 12:20:00  profilanswer
 

Mercredi journée des enfants.   :D


---------------
Pronouns: Les/Vals/Euses
n°21848122
damtoul
Un boulot!
Posté le 11-03-2010 à 16:22:46  profilanswer
 

C'est bien olé olé cet AM!!! Un coup en haut, un coup en bas, et zou on remonte... :)
 
Je connaissais les marchés en tendance, en range; cet am c'est le marché courre aux poules, les pieds dans la merde et on patauge.  :D


---------------
Pronouns: Les/Vals/Euses
mood
Publicité
Posté le 11-03-2010 à 16:22:46  profilanswer
 

n°21856828
docmaboul
Posté le 12-03-2010 à 12:00:00  profilanswer
 

damtoul a écrit :


 
Oui les corrélations ne sont pas facilement exploitables car elles changent constamment, et de plus ce n'est pas du tout facile de savoir quelle paire en drive une autre.  :/
 
Certaines paires sont liées à d'autres cours. Style l'AUDUSD qui est liée à l'or et USDCAD/AUDCAD au pétrole..Mais bon... Très difficile de récupérer les données et en faire quelque chose d'exploitable. Pour les outils je ne connais pas.   :/  
 
Alpari est un broker UK. Les datas entre brokers peuvent être légèrement différentes car le forex est un marché otc, donc les brokers ont des sources de quotations différentes.
 
Certains brokers font les pips fractionnés, d'autres pas. Les quotations std sur le fx c'est en 4 ou 2 digits. En fractionné ça sera 5 ou 3. Il faut que tu le prévois dans ton EA dans la phase d'init et dans tous les calculs qui suivent. Mais bon pips fractionnés=!différence de quotation entre brokers.
 
Pour le test oui eurusd c'est le mieux : spread le + bas et liquidité excellente.


 
Bon, j'ai pas mal progressé sur l'étude de l'angle d'attaque que je vais utiliser et j'ai laissé tomber cette idée :D (utiliser les corrélations entre devises)
 
De mes recherches, le mieux est d'utiliser un réseau de neurones bayésien. En gros, ce sont des réseaux permettant de faire de la classification en se basant sur de l'inférence bayésienne (à partir des données observées). C'est un peu chiant car les techniques mathématiques employées sont relativement évoluées (et ça fait bien 15 ans que je ne pratique plus) mais ça ne devrait pas être trop difficile à coder. Pour ceux que ça intéresse, j'ai trouvé un bon papier sur le sujet et qui peut être téléchargé gratuitement à l'adresse suivante: http://papers.ssrn.com/sol3/papers [...] _id=237038 Les résultats de leurs tests sont assez impressionnants: entre 75% et 85% des tendances prédites correctement. Par contre, je me demande si je ne vais pas renoncer à utiliser les fondamentaux (contrairement à ce qu'ils font dans leur étude). Si j'ai bien compris 95% de l'activité du forex est dûe à la spéculation. Utiliser les fondamentaux ne peut donc fonctionner que si la spéculation sur le forex est fortement corrélée à ceux-ci, ce qui me semble être une hypothèse hautement douteuse sur des temps assez courts (entre 6 heures et une journée). Je pense donc plutôt utiliser des indicateurs du type MA. L'idée serait de prendre, par exemple, une période de 6 heures, de calculer un MA sur les 4 premières heures, un autre sur l'heure suivante, un autre sur la demi-heure suivante, un autre sur le quart d'heure suivant, un autre pour les dix minutes suivantes et un autre pour les 5 dernières minutes (à ajuster à l'usage). C'est nécessaire car les entrées du réseau doivent être théoriquement indépendantes (en terme de proba). J'ai donc fait un petit bout de code pour vérifier si une hausse a plus de chance d'être suivie d'une hausse ou d'une baisse et c'est à peu près équiprobable (avec une marge d'erreur comprise entre 1% et 10% selon l'échelle utilisée et systématiquement en faveur de l'inversion, mais je devrais pouvoir intégrer cette info)
 
Bref, ça avance [:petrus75]

n°21858532
damtoul
Un boulot!
Posté le 12-03-2010 à 14:25:11  profilanswer
 

:jap:  :jap:  
 
Une correction cependant : 95% de l'activité fx n'est pas due à la spéculation. Tu as plein d'intervenants non spéculatifs : multinationales/entreprises import-export qui hedgent leurs ventes/achats. Banques centrales qui interviennent pour orienter leurs monnaies. Investisseurs qui achètent dans des pays autres que les leurs. Et je dois en oublier.
 


---------------
Pronouns: Les/Vals/Euses
n°21859228
docmaboul
Posté le 12-03-2010 à 15:10:29  profilanswer
 

damtoul a écrit :

:jap:  :jap:  
 
Une correction cependant : 95% de l'activité fx n'est pas due à la spéculation. Tu as plein d'intervenants non spéculatifs : multinationales/entreprises import-export qui hedgent leurs ventes/achats. Banques centrales qui interviennent pour orienter leurs monnaies. Investisseurs qui achètent dans des pays autres que les leurs. Et je dois en oublier.
 


 
Ah ok. J'ai pourtant lu ce nombre sur différents sites dédiés au forex. Par exemple ici: http://www.broker-forex.fr/interve [...] hanges.php (site que je trouve néanmoins très intéressant).


Message édité par docmaboul le 12-03-2010 à 15:10:43
n°21859534
alien cons​piracy
hardtrance addict
Posté le 12-03-2010 à 15:34:39  profilanswer
 

docmaboul a écrit :


 
Bon, j'ai pas mal progressé sur l'étude de l'angle d'attaque que je vais utiliser et j'ai laissé tomber cette idée :D (utiliser les corrélations entre devises)
 
De mes recherches, le mieux est d'utiliser un réseau de neurones bayésien. En gros, ce sont des réseaux permettant de faire de la classification en se basant sur de l'inférence bayésienne (à partir des données observées). C'est un peu chiant car les techniques mathématiques employées sont relativement évoluées (et ça fait bien 15 ans que je ne pratique plus) mais ça ne devrait pas être trop difficile à coder. Pour ceux que ça intéresse, j'ai trouvé un bon papier sur le sujet et qui peut être téléchargé gratuitement à l'adresse suivante: http://papers.ssrn.com/sol3/papers [...] _id=237038 Les résultats de leurs tests sont assez impressionnants: entre 75% et 85% des tendances prédites correctement. Par contre, je me demande si je ne vais pas renoncer à utiliser les fondamentaux (contrairement à ce qu'ils font dans leur étude). Si j'ai bien compris 95% de l'activité du forex est dûe à la spéculation. Utiliser les fondamentaux ne peut donc fonctionner que si la spéculation sur le forex est fortement corrélée à ceux-ci, ce qui me semble être une hypothèse hautement douteuse sur des temps assez courts (entre 6 heures et une journée). Je pense donc plutôt utiliser des indicateurs du type MA. L'idée serait de prendre, par exemple, une période de 6 heures, de calculer un MA sur les 4 premières heures, un autre sur l'heure suivante, un autre sur la demi-heure suivante, un autre sur le quart d'heure suivant, un autre pour les dix minutes suivantes et un autre pour les 5 dernières minutes (à ajuster à l'usage). C'est nécessaire car les entrées du réseau doivent être théoriquement indépendantes (en terme de proba). J'ai donc fait un petit bout de code pour vérifier si une hausse a plus de chance d'être suivie d'une hausse ou d'une baisse et c'est à peu près équiprobable (avec une marge d'erreur comprise entre 1% et 10% selon l'échelle utilisée et systématiquement en faveur de l'inversion, mais je devrais pouvoir intégrer cette info)
 
Bref, ça avance [:petrus75]


J'ai lu le papier mais je ne comprends pas comment utiliser un algo de classif pour de la prédiction de time series ( à moins qu'on ne prédise pas la valeur à t+1 mais la tendance [hausse/baisse] ? )

n°21860396
AirbaT
Connection timed out
Posté le 12-03-2010 à 16:50:36  profilanswer
 

docmaboul a écrit :


 
Bon, j'ai pas mal progressé sur l'étude de l'angle d'attaque que je vais utiliser et j'ai laissé tomber cette idée :D (utiliser les corrélations entre devises)
 
De mes recherches, le mieux est d'utiliser un réseau de neurones bayésien. En gros, ce sont des réseaux permettant de faire de la classification en se basant sur de l'inférence bayésienne (à partir des données observées). C'est un peu chiant car les techniques mathématiques employées sont relativement évoluées (et ça fait bien 15 ans que je ne pratique plus) mais ça ne devrait pas être trop difficile à coder. Pour ceux que ça intéresse, j'ai trouvé un bon papier sur le sujet et qui peut être téléchargé gratuitement à l'adresse suivante: http://papers.ssrn.com/sol3/papers [...] _id=237038 Les résultats de leurs tests sont assez impressionnants: entre 75% et 85% des tendances prédites correctement. Par contre, je me demande si je ne vais pas renoncer à utiliser les fondamentaux (contrairement à ce qu'ils font dans leur étude). Si j'ai bien compris 95% de l'activité du forex est dûe à la spéculation. Utiliser les fondamentaux ne peut donc fonctionner que si la spéculation sur le forex est fortement corrélée à ceux-ci, ce qui me semble être une hypothèse hautement douteuse sur des temps assez courts (entre 6 heures et une journée). Je pense donc plutôt utiliser des indicateurs du type MA. L'idée serait de prendre, par exemple, une période de 6 heures, de calculer un MA sur les 4 premières heures, un autre sur l'heure suivante, un autre sur la demi-heure suivante, un autre sur le quart d'heure suivant, un autre pour les dix minutes suivantes et un autre pour les 5 dernières minutes (à ajuster à l'usage). C'est nécessaire car les entrées du réseau doivent être théoriquement indépendantes (en terme de proba). J'ai donc fait un petit bout de code pour vérifier si une hausse a plus de chance d'être suivie d'une hausse ou d'une baisse et c'est à peu près équiprobable (avec une marge d'erreur comprise entre 1% et 10% selon l'échelle utilisée et systématiquement en faveur de l'inversion, mais je devrais pouvoir intégrer cette info)
 
Bref, ça avance [:petrus75]


Hello,
 
Tu serais pas un peu train de réinventer la roue d'un bête MACD ?
J'ai regardé les oscillateur, et je reste bluffé de la précision d'un Bill Williams AO sur des UT > 4H. Sur les UT en dessous, tu penses qu'une analyse de MA va te permettre de scalper (car c'est plutot du scalp que tu vises non ?) ?
Sur les petites UT, j'ai pour l'instant rien trouvé d'efficace. C'est normal, c'est le plus dur.

n°21861302
docmaboul
Posté le 12-03-2010 à 18:12:45  profilanswer
 

alien conspiracy a écrit :


J'ai lu le papier mais je ne comprends pas comment utiliser un algo de classif pour de la prédiction de time series ( à moins qu'on ne prédise pas la valeur à t+1 mais la tendance [hausse/baisse] ? )


 
Il s'agit effectivement d'arriver à classer la tendance future (hausse/baisse/inconnue). Pour ce qui est de la technique employée, c'est très bien décrit ici je trouve:

Citation :

Probabilistic Neural Networks
 
Elsewhere, we briefly mentioned that, in the context of classification problems, a useful interpretation of network outputs was as estimates of probability of class membership, in which case the network was actually learning to estimate a probability density function (p.d.f.). A similar useful interpretation can be made in regression problems if the output of the network is regarded as the expected value of the model at a given point in input-space. This expected value is related to the joint probability density function of the output and inputs.
 
Estimating probability density functions from data has a long statistical history (Parzen, 1962), and in this context fits into the area of Bayesian statistics. Conventional statistics can, given a known model, inform us what the chances of certain outcomes are (e.g., we know that a unbiased die has a 1/6th chance of coming up with a six). Bayesian statistics turns this situation on its head, by estimating the validity of a model given certain data. More generally, Bayesian statistics can estimate the probability density of model parameters given the available data. To minimize error, the model is then selected whose parameters maximize this p.d.f.
 
In the context of a classification problem, if we can construct estimates of the p.d.f.s of the possible classes, we can compare the probabilities of the various classes, and select the most-probable. This is effectively what we ask a neural network to do when it learns a classification problem - the network attempts to learn (an approximation to) the p.d.f.
 
A more traditional approach is to construct an estimate of the p.d.f. from the data. The most traditional technique is to assume a certain form for the p.d.f. (typically, that it is a normal distribution), and then to estimate the model parameters. The normal distribution is commonly used as the model parameters (mean and standard deviation) can be estimated using analytical techniques. The problem is that the assumption of normality is often not justified.
 
An alternative approach to p.d.f. estimation is kernel-based approximation (see Parzen, 1962; Speckt, 1990; Speckt, 1991; Bishop, 1995; Patterson, 1996). We can reason loosely that the presence of particular case indicates some probability density at that point: a cluster of cases close together indicate an area of high probability density. Close to a case, we can have high confidence in some probability density, with a lesser and diminishing level as we move away. In kernel-based estimation, simple functions are located at each available case, and added together to estimate the overall p.d.f. Typically, the kernel functions are each Gaussians (bell-shapes). If sufficient training points are available, this will indeed yield an arbitrarily good approximation to the true p.d.f.
 
This kernel-based approach to p.d.f. approximation is very similar to radial basis function networks, and motivates the probabilistic neural network (PNN) and generalized regression neural network (GRNN), both devised by Speckt (1990 and 1991). PNNs are designed for classification tasks, and GRNNs for regression. These two types of network are really kernel-based approximation methods cast in the form of neural networks.
 
In the PNN, there are at least three layers: input, radial, and output layers. The radial units are copied directly from the training data, one per case. Each models a Gaussian function centered at the training case. There is one output unit per class. Each is connected to all the radial units belonging to its class, with zero connections from all other radial units. Hence, the output units simply add up the responses of the units belonging to their own class. The outputs are each proportional to the kernel-based estimates of the p.d.f.s of the various classes, and by normalizing these to sum to 1.0 estimates of class probability are produced.
 
The basic PNN can be modified in two ways.
 
First, the basic approach assumes that the proportional representation of classes in the training data matches the actual representation in the population being modeled (the so-called prior probabilities). For example, in a disease-diagnosis network, if 2% of the population has the disease, then 2% of the training cases should be positives. If the prior probability is different from the level of representation in the training cases, then the network's estimate will be invalid. To compensate for this, prior probabilities can be given (if known), and the class weightings are adjusted to compensate.
 
Second, any network making estimates based on a noisy function will inevitably produce some misclassifications (there may be disease victims whose tests come out normal, for example). However, some forms of misclassification may be regarded as more expensive mistakes than others (for example, diagnosing somebody healthy as having a disease, which simply leads to exploratory surgery may be inconvenient but not life-threatening; whereas failing to spot somebody who is suffering from disease may lead to premature death). In such cases, the raw probabilities generated by the network can be weighted by loss factors, which reflect the costs of misclassification. A fourth layer can be specified in PNNs which includes a loss matrix. This is multiplied by the probability estimates in the third layer, and the class with lowest estimated cost is selected. (Loss matrices may also be attached to other types of classification network).
 
The only control factor that needs to be selected for probabilistic neural network training is the smoothing factor (i.e., the radial deviation of the Gaussian functions). As with RBF networks, this factor needs to be selected to cause a reasonable amount of overlap - too small deviations cause a very spiky approximation which cannot generalize, too large deviations smooth out detail. An appropriate figure is easily chosen by experiment, by selecting a number which produces a low selection error, and fortunately PNNs are not too sensitive to the precise choice of smoothing factor.
 
The greatest advantages of PNNs are the fact that the output is probabilistic (which makes interpretation of output easy), and the training speed. Training a PNN actually consists mostly of copying training cases into the network, and so is as close to instantaneous as can be expected.
 
The greatest disadvantage is network size: a PNN network actually contains the entire set of training cases, and is therefore space-consuming and slow to execute.
 
PNNs are particularly useful for prototyping experiments (for example, when deciding which input parameters to use), as the short training time allows a great number of tests to be conducted in a short period of time.


 
Pour les deux problèmes soulevés, la forme non-normale des fonctions de distribution ainsi que la taille du réseau, je pense avoir des solutions afin de réduire la marge d'erreur et le temps de calcul (effectuer une transformation afin de rendre les données "presque-normales" pour le premier, utiliser un algo qui détermine grosso-merdo s'il est nécessaire de créer des nouveaux neurones pour le second ou qui élague le réseau).
 
 

AirbaT a écrit :


Hello,
 
Tu serais pas un peu train de réinventer la roue d'un bête MACD ?


 
Je ne crois pas non [:julm3]
 

Citation :

J'ai regardé les oscillateur, et je reste bluffé de la précision d'un Bill Williams AO sur des UT > 4H. Sur les UT en dessous, tu penses qu'une analyse de MA va te permettre de scalper (car c'est plutot du scalp que tu vises non ?) ?
Sur les petites UT, j'ai pour l'instant rien trouvé d'efficace. C'est normal, c'est le plus dur.


 
J'ai un premier réseau en test démo basé sur un AOAC  (un petit perceptron à la con :D) mais je le soupçonne d'être relativement peu performant (s'il fait du 5% par mois en moyenne, ce sera déjà bien beau). J'ai survolé Trading Chaos et ça a l'air très intéressant pour une approche plus classique et combiné avec d'autres indicateurs. Tu as essayé de faire un EA basé dessus?

Message cité 3 fois
Message édité par docmaboul le 12-03-2010 à 18:13:42
n°21861333
Nirwan
perdu? double la mise!
Posté le 12-03-2010 à 18:15:48  profilanswer
 

docmaboul a écrit :


 
 
J'ai un premier réseau en test démo basé sur un AOAC  (un petit perceptron à la con :D) mais je le soupçonne d'être relativement peu performant (s'il fait du 5% par mois en moyenne, ce sera déjà bien beau). J'ai survolé Trading Chaos et ça a l'air très intéressant pour une approche plus classique et combiné avec d'autres indicateurs. Tu as essayé de faire un EA basé dessus?


 
5% par mois c'est déjà pas mal :o
 
Trading Chaos c'est un bouquin?
 
/ignare

n°21861610
AirbaT
Connection timed out
Posté le 12-03-2010 à 18:50:26  profilanswer
 

docmaboul a écrit :

J'ai un premier réseau en test démo basé sur un AOAC  (un petit perceptron à la con :D) mais je le soupçonne d'être relativement peu performant (s'il fait du 5% par mois en moyenne, ce sera déjà bien beau). J'ai survolé Trading Chaos et ça a l'air très intéressant pour une approche plus classique et combiné avec d'autres indicateurs. Tu as essayé de faire un EA basé dessus?


Mon premier EA utilise AO uniquement, de manière pure (achat sur signal, vente sur signal suivant, pas de MM). Sur les 3 derniers mois, il est positif, depuis 01/01/2009, il est positif d'un chouia après une grosse descente (-50%) , depuis 01/01/2008 à l'équilibre après une perte de 60% (il a donc fait x3 pour récupérer).
 
Pour peaufiner, il faudrait que j'intègre AC, voir si AOAC fait mieux. Après il faudrait intégrer fractals+gator, mais c'est plus chiant :o
 
Par contre je ne fais que du backtest, car UT haute. Tu backtest ou tu le mets en demo et tu observes ?
 

n°21861659
AirbaT
Connection timed out
Posté le 12-03-2010 à 18:57:29  profilanswer
 

Nirwan a écrit :


 
5% par mois c'est déjà pas mal :o
 
Trading Chaos c'est un bouquin?
 
/ignare


Un système développé dans plusieurs bouquins. Mais faut payer pour lire :o

n°21861715
Nirwan
perdu? double la mise!
Posté le 12-03-2010 à 19:06:01  profilanswer
 

Et c'est pas une arnaque? :o

n°21861864
docmaboul
Posté le 12-03-2010 à 19:26:57  profilanswer
 

AirbaT a écrit :

Par contre je ne fais que du backtest, car UT haute. Tu backtest ou tu le mets en demo et tu observes ?


 
Les deux.
 
En fait, je me suis fait un petit bout de code pour tester facilement l'utilisation de différents indicateurs avec un perceptron. Le backtest sert à trouver des bons poids pour les neurones. J'essaye ensuite de voir si ça marche sur quelques périodes plus longues histoire de détecter le curve fit éventuel. Comme damtoul parlait de l'AOAC, j'ai testé et ça marche plutôt bien en backtest (à mon avis parce que les signaux qu'il génère sont très propres), ce qui m'a donné envie de le tester en démo. Bref, j'ai un peu pas beaucoup dormi du tout cette semaine. Voilà, tu sais tout :D

n°21861900
docmaboul
Posté le 12-03-2010 à 19:31:35  profilanswer
 

Nirwan a écrit :

Et c'est pas une arnaque? :o


 
Je ne sais pas si c'est une arnaque mais c'est très intéressant. Les premiers chapitres, c'est assez philosophique et tu ne vois pas trop où il veut en venir (il t'explique qu'en gros, 90% des experts ne racontent que des conneries, que gagner en bourse, c'est simple, etc.) mais après, il rentre dans le vif du sujet et c'est très instructif quand on y connait rien (/ignare too). Ne serait-ce que la première phrase devrait te donner envie: The market is not your problem. Your problem is that you see the market as your problem :D

n°21861925
AirbaT
Connection timed out
Posté le 12-03-2010 à 19:34:54  profilanswer
 

Nirwan a écrit :

Et c'est pas une arnaque? :o


On peut toujours se poser la question de savoir pourquoi un trader a besoin de vendre sa méthode, il a qu'à l'appliquer et vivre sous les cocotier, le nez dans la coke. Maintenant, les retours que j'en lis sont plutot bons.

n°21862602
damtoul
Un boulot!
Posté le 12-03-2010 à 21:00:22  profilanswer
 

Blabla.  :D
 
Tout est dispo sur le net, il faut savoir où chercher.   :o  
 
Alpari est un broker spécialisé dans la Chaos Theory de Williams. Voici donc un peu de lecture pour le WE en attendant Dimanche soir.      :whistle:  
 
http://www.alpari.co.uk/en/market- [...] ry/ao.html


---------------
Pronouns: Les/Vals/Euses
n°21862776
Nirwan
perdu? double la mise!
Posté le 12-03-2010 à 21:18:03  profilanswer
 

damtoul a écrit :

Blabla.  :D

 



De quoi? :o

 

Pas mal ce site sinon, coder tout ça en mql4 est moins drôle surtout que ça doit déjà être fait :o

Message cité 1 fois
Message édité par Nirwan le 12-03-2010 à 21:39:03
n°21864171
AirbaT
Connection timed out
Posté le 13-03-2010 à 00:29:09  profilanswer
 

Nirwan a écrit :


De quoi? :o
 
Pas mal ce site sinon, coder tout ça en mql4 est moins drôle surtout que ça doit déjà être fait :o


Pour AO/AC, c'est 12 lignes par fonction :o

n°21864250
docmaboul
Posté le 13-03-2010 à 00:45:51  profilanswer
 

Et pour un PNN, c'est une trentaine [:ddr555]

n°21864318
alien cons​piracy
hardtrance addict
Posté le 13-03-2010 à 01:02:08  profilanswer
 

docmaboul a écrit :


 
Il s'agit effectivement d'arriver à classer la tendance future (hausse/baisse/inconnue). Pour ce qui est de la technique employée, c'est très bien décrit ici je trouve:

Citation :

Probabilistic Neural Networks
 
Elsewhere, we briefly mentioned that, in the context of classification problems, a useful interpretation of network outputs was as estimates of probability of class membership, in which case the network was actually learning to estimate a probability density function (p.d.f.). A similar useful interpretation can be made in regression problems if the output of the network is regarded as the expected value of the model at a given point in input-space. This expected value is related to the joint probability density function of the output and inputs.
 
...
 
 
PNNs are particularly useful for prototyping experiments (for example, when deciding which input parameters to use), as the short training time allows a great number of tests to be conducted in a short period of time.


 
Pour les deux problèmes soulevés, la forme non-normale des fonctions de distribution ainsi que la taille du réseau, je pense avoir des solutions afin de réduire la marge d'erreur et le temps de calcul (effectuer une transformation afin de rendre les données "presque-normales" pour le premier, utiliser un algo qui détermine grosso-merdo s'il est nécessaire de créer des nouveaux neurones pour le second ou qui élague le réseau).
 
 


 

docmaboul a écrit :


 
Je ne crois pas non [:julm3]
 

Citation :

J'ai regardé les oscillateur, et je reste bluffé de la précision d'un Bill Williams AO sur des UT > 4H. Sur les UT en dessous, tu penses qu'une analyse de MA va te permettre de scalper (car c'est plutot du scalp que tu vises non ?) ?
Sur les petites UT, j'ai pour l'instant rien trouvé d'efficace. C'est normal, c'est le plus dur.


 
J'ai un premier réseau en test démo basé sur un AOAC  (un petit perceptron à la con :D) mais je le soupçonne d'être relativement peu performant (s'il fait du 5% par mois en moyenne, ce sera déjà bien beau). J'ai survolé Trading Chaos et ça a l'air très intéressant pour une approche plus classique et combiné avec d'autres indicateurs. Tu as essayé de faire un EA basé dessus?


 
Interessant, je lurk le topic depuis quelques temps sans vraiment chercher à comprendre mais tu m'as donné envie de voir ce que le machine learning peut donner la dessus. :D

n°21866008
damtoul
Un boulot!
Posté le 13-03-2010 à 11:34:50  profilanswer
 

Non je ne pense pas.
 
Si tu veux faire du fondamental tu as des analyses et des news qui te sont données en temps réel par ton broker donc bon... vu que tu es à la ramasse dans tous les cas par rapport aux salles de marché je pense que ça ne sert à rien.


---------------
Pronouns: Les/Vals/Euses
n°21866052
docmaboul
Posté le 13-03-2010 à 11:43:03  profilanswer
 

alien conspiracy a écrit :


 
Interessant, je lurk le topic depuis quelques temps sans vraiment chercher à comprendre mais tu m'as donné envie de voir ce que le machine learning peut donner la dessus. :D


 
De ce que j'ai lu, ça va de plutôt performant à complètement hallucinant. Le problème avec les NN, c'est que ce sont en quelque sorte des boites noires: personne ne peut expliquer précisément pourquoi ils fonctionnent aussi bien dès que leur taille dépasse quelques dizaines de neurones (pour un réseau donné). Il faut donc sacrément avoir confiance en son système pour l'utiliser en real money. Si ça intéresse quelqu'un, je peux poster un exemple simple de réseau bayésien (qui détermine si un nombre réel est plus proche de -1, de 0, ou de 1).

n°21866352
Nirwan
perdu? double la mise!
Posté le 13-03-2010 à 12:17:46  profilanswer
 

Mais wé ça m'intéresse :o
 

n°21866617
AirbaT
Connection timed out
Posté le 13-03-2010 à 12:46:17  profilanswer
 

damtoul a écrit :

Non je ne pense pas.
 
Si tu veux faire du fondamental tu as des analyses et des news qui te sont données en temps réel par ton broker donc bon... vu que tu es à la ramasse dans tous les cas par rapport aux salles de marché je pense que ça ne sert à rien.


+1 Se battre sur l'information ne sert à rien.

docmaboul a écrit :

De ce que j'ai lu, ça va de plutôt performant à complètement hallucinant. Le problème avec les NN, c'est que ce sont en quelque sorte des boites noires: personne ne peut expliquer précisément pourquoi ils fonctionnent aussi bien dès que leur taille dépasse quelques dizaines de neurones (pour un réseau donné). Il faut donc sacrément avoir confiance en son système pour l'utiliser en real money. Si ça intéresse quelqu'un, je peux poster un exemple simple de réseau bayésien (qui détermine si un nombre réel est plus proche de -1, de 0, ou de 1).


Je veux bien voir à quoi ça ressemble, ça a l'air marrant.

n°21866627
hfrfc
Bob c'est plus simple à dire..
Posté le 13-03-2010 à 12:47:37  profilanswer
 

Et vous prenez quels indicateurs pour vos imputs dans votre NN ?


---------------
D3/Hots/Hs Doc#2847
n°21871865
docmaboul
Posté le 14-03-2010 à 00:32:44  profilanswer
 

Nirwan a écrit :

Mais wé ça m'intéresse :o
 


 

AirbaT a écrit :


Je veux bien voir à quoi ça ressemble, ça a l'air marrant.


 
Oki. Pour rappel:

Citation :

In the PNN, there are at least three layers: input, radial, and output layers. The radial units are copied directly from the training data, one per case. Each models a Gaussian function centered at the training case. There is one output unit per class. Each is connected to all the radial units belonging to its class, with zero connections from all other radial units. Hence, the output units simply add up the responses of the units belonging to their own class. The outputs are each proportional to the kernel-based estimates of the p.d.f.s of the various classes, and by normalizing these to sum to 1.0 estimates of class probability are produced.


 
 
Comme on sait précisément ce que l'on veut faire (un exemple facile :D), on va sauter la partie apprentissage. Le réseau sera donc déjà entrainé et construit avec des valeurs "idéales" pour l'exemple, en l'occurrence -1, 0 et 1, correspondants à la deuxième couche.
 
Il y a donc ici:
- un neurone d'entrée: la valeur à classer
- trois neurones intermédiaires, représentant les "mémoires" des cas passés présentés au réseau, tous reliés au neurone d'entrée (les gaussiennes centrées sur la valeur du neurone, ici -1, 0 et 1)
- trois neurones pour les classes possibles, chacun servant à effectuer la sommation des sorties des neurones intermédiaires (bon, avec un seul neurone intermédiaire par classe, on pourrait sauter cette étape mais je préfère le faire apparaître quand même dans le code), et donc reliés à l'exemple qui leur correspond
- un neurone de sortie pour donner le résultat (donnant la classe correspondant au max des sommations), relié à tous les neurones de classe
 
Le réseau a donc cette tronche:
    O-O
  /       \
O- O-O- O
  \       /
    O-O
 
 
Et voilà le code:

Code :
  1. #include <stdlib.h>
  2. #include <stdio.h>
  3. #include <time.h>
  4. #include <math.h>
  5. #include <assert.h>
  6. /* return class of d
  7.      - nearest -1 : class #0
  8.      - nearest  0 : class #1
  9.      - nearest  1 : class #2  */
  10. int class_of(double d) {
  11.     if ( d < -0.5 ) return 0;
  12.     if ( d > 0.5 ) return 2;
  13.     return 1;
  14. }
  15. /* return associated value for class #c */
  16. int nearest(int c) {
  17.     if ( c == 0 ) return -1;
  18.     if ( c == 1 ) return  0;
  19.     if ( c == 2 ) return  1;
  20.     // bug, you should not be here
  21.     assert(0);
  22.     return 0;
  23. }
  24. // simplified gaussian pdf
  25. double gaussian_pdf (double i, double sigma) {
  26.     return exp((-i*i)/(sigma*sigma*2.0));
  27. }
  28. // the pnn job
  29. int run_pnn(double input, int classes, double ** samples, int * samples_count, double sigma) {
  30.     int input_class=-1;
  31.     int c, s;
  32.     double best=0;
  33.     double sum[classes];
  34.     // foreach neuron class
  35.     for ( c = 0 ; c < classes ; c++ ) {
  36.         sum[c]=0;
  37.         // foreach sample neuron connected to this class
  38.         for ( s = 0 ; s < samples_count[c] ; s++ ) {
  39.             // compute gaussian pdf (sample neuron job)
  40.             double pdf=gaussian_pdf(input-samples[c][s], sigma);
  41.             // add output to corresponding class neuron
  42.             sum[c]+=pdf;
  43.         }
  44.         // end of class neuron job:
  45.         sum[c]/=samples_count[c];
  46.         // output neuron job: find max ouput from class neurons
  47.         if ( best < sum[c] ) {
  48.             best = sum[c];
  49.             input_class=c;
  50.         }
  51.     }
  52.     return input_class;
  53. }
  54. void test_pnn() {
  55.     int i, result;
  56.     int classes=3;
  57.     int errors=0;
  58.     double sigma=0.5;
  59.     double input;
  60.     double n1[]={-1.0};
  61.     double n2[]={ 0.0};
  62.     double n3[]={ 1.0};
  63.     double * samples[]={n1, n2, n3};
  64.     int samples_count[]={1, 1, 1};
  65.     // testing network with values between -2 and 2
  66.     for ( i = 0 ; i < 50 ; i++ ) {
  67.         input=drand48()*4-2;
  68.         result=run_pnn(input, classes, samples, samples_count, sigma);
  69.         if ( result != class_of(input) )
  70.             errors++;
  71.         else
  72.             fprintf(stdout, "Test #%d: %.04f is near %d\n", i+1, input, nearest(result));
  73.     }
  74.     fprintf(stdout, "Errors: %d\n", errors);
  75. }
  76. int main(int argc, char ** argv) {
  77.     srand48(time(NULL));
  78.     test_pnn();
  79.     return 0;
  80. }


 
Bon, il faut avoir conscience que c'est un exemple à l'arrache qui, s'il donne le bon classement, ne donnera jamais une bonne probabilité associée. Si vous arrivez à comprendre pourquoi (mathématiquement), je pense que vous n'aurez pas de mal ensuite à construire vos propres réseaux. Voilà voilà. Et j'arrête là pour ne pas polluer plus longtemps le topic de damtoul.

Message cité 1 fois
Message édité par docmaboul le 14-03-2010 à 00:53:26
n°21872474
alien cons​piracy
hardtrance addict
Posté le 14-03-2010 à 02:49:04  profilanswer
 

hfrfc a écrit :

Et vous prenez quels indicateurs pour vos imputs dans votre NN ?


In our model, we used moving average values of past weeks to feed to the neural network to predict the following week’s rate. The indicators are MA5, MA10, MA20, MA60, MA120 and Xi, namely, moving average of one week, two weeks, one month, one quarter, half year and last week's closing rate, respectively. The predicted value is Xi+1. So the neural network model has 6 inputs for six indicators, one hidden layer and one output unit to predict exchange rate.


n°21872782
damtoul
Un boulot!
Posté le 14-03-2010 à 10:01:52  profilanswer
 

docmaboul a écrit :

 

Oki. Pour rappel:

Citation :

In the PNN, there are at least three layers: input, radial, and output layers. The radial units are copied directly from the training data, one per case. Each models a Gaussian function centered at the training case. There is one output unit per class. Each is connected to all the radial units belonging to its class, with zero connections from all other radial units. Hence, the output units simply add up the responses of the units belonging to their own class. The outputs are each proportional to the kernel-based estimates of the p.d.f.s of the various classes, and by normalizing these to sum to 1.0 estimates of class probability are produced.

 


Comme on sait précisément ce que l'on veut faire (un exemple facile :D), on va sauter la partie apprentissage. Le réseau sera donc déjà entrainé et construit avec des valeurs "idéales" pour l'exemple, en l'occurrence -1, 0 et 1, correspondants à la deuxième couche.

 

Il y a donc ici:
- un neurone d'entrée: la valeur à classer
- trois neurones intermédiaires, représentant les "mémoires" des cas passés présentés au réseau, tous reliés au neurone d'entrée (les gaussiennes centrées sur la valeur du neurone, ici -1, 0 et 1)
- trois neurones pour les classes possibles, chacun servant à effectuer la sommation des sorties des neurones intermédiaires (bon, avec un seul neurone intermédiaire par classe, on pourrait sauter cette étape mais je préfère le faire apparaître quand même dans le code), et donc reliés à l'exemple qui leur correspond
- un neurone de sortie pour donner le résultat (donnant la classe correspondant au max des sommations), relié à tous les neurones de classe

 

Le réseau a donc cette tronche:
    O-O
  /       \
O- O-O- O
  \       /
    O-O

 


Et voilà le code:

Code :
  1. #include <stdlib.h>
 

Bon, il faut avoir conscience que c'est un exemple à l'arrache qui, s'il donne le bon classement, ne donnera jamais une bonne probabilité associée. Si vous arrivez à comprendre pourquoi (mathématiquement), je pense que vous n'aurez pas de mal ensuite à construire vos propres réseaux. Voilà voilà. Et j'arrête là pour ne pas polluer plus longtemps le topic de damtoul.

 

Double  :jap: .

 

Passionnant ton travail.   :)

 

Et il n'y a aucune pollution du topic forex à présenter du code C de NN : les NNs et le trading sont intimement liés. C'est une excellente évolution et voie de recherche de l'AT de base.

 

Quand tu auras sorti ton EA NN j'aimerais beaucoup le voir tourner en forward sur compte demo. Tu pourras nous balancer l'investor password sur le forum? (ou en mp si tu ne veux pas le balancer en public).

 

Edit : question de noob mais... sachant que les feeds de finance n'ont pas une distribution gaussienne, comment tu t'en sors mathématiquement pour passer tes valeurs d'entrée non gaussiennes dans tes neurones gaussiens? Transformée de Fisher entre tes deux neurones? J'ai lu ton lien en diagonale, ptet que c'est expliqué dedans?

Message cité 1 fois
Message édité par damtoul le 14-03-2010 à 10:08:07

---------------
Pronouns: Les/Vals/Euses
n°21873182
hfrfc
Bob c'est plus simple à dire..
Posté le 14-03-2010 à 11:41:57  profilanswer
 

alien conspiracy a écrit :


In our model, we used moving average values of past weeks to feed to the neural network to predict the following week’s rate. The indicators are MA5, MA10, MA20, MA60, MA120 and Xi, namely, moving average of one week, two weeks, one month, one quarter, half year and last week's closing rate, respectively. The predicted value is Xi+1. So the neural network model has 6 inputs for six indicators, one hidden layer and one output unit to predict exchange rate.




 
Je pense que se baser uniquement sur les MA n'est pas être pas le plus judicieux. Quid de la volatilité par exemple ?


---------------
D3/Hots/Hs Doc#2847
n°21876550
alien cons​piracy
hardtrance addict
Posté le 14-03-2010 à 19:10:27  profilanswer
 

hfrfc a écrit :

 

Je pense que se baser uniquement sur les MA n'est pas être pas le plus judicieux. Quid de la volatilité par exemple ?


Aucune idée mais dans un autre papier ils approndissent un peu plus la feature selection et arrivent à ça :

The obvious place to start selecting data, along with EUR/GBP, EUR/JPY and EUR/USD is with other leading traded exchange rates. In addition, we selected related financial market data, including stock market price indices, 3-month interest rates, 10-year government bond yields and spreads, the prices of Brent Crude oil, silver, gold and platinum, several assorted metals as being traded on the London Metal Exchange, as well as agricultural commodities. Macroe- conomic variables play a minor role in daily FX movements and were disregarded.

 

Having collected an extensive list of candidate variables, the explanatory viability of each variable has been evaluated. The aim was to remove those input variables that do not contribute significantly to model per- formance. For this purpose, we took a two-step procedure. First, pair-wise Granger Causality tests ([10]) with lagged values until k=20 were performed on stationary I(1) candidate variables. We find that EUR/GBP is Granger-caused by 11 variables, namely
• EUR/USD, JPY/USD and EUR/CHF exchange rates,
Investigating FX Market Efficiency
• IBEX, MIB30, CAC and DJST stock market indices,
• the prices of platinum and nickel as well as
• 10-year Australian and Japanese government bond yields.
We identify 10 variables that significantly Granger-cause EUR/JPY, namely
• EUR/CHF exchange rate • IBEX stock market index
• the price of silver • Australian 3-month interest rate
• Australian, German, Japanese, Swiss and US government bond yields
• UK bond spreads.
For EUR/USD, the tests yield 7 significant explanatory variables:
• AUD/USD exchange rate,
• SPX stock market index and
• the prices of copper, tin, zinc, coffee and cocoa.


Message édité par alien conspiracy le 14-03-2010 à 19:12:47
n°21876555
tofti
Posté le 14-03-2010 à 19:10:59  profilanswer
 

Aller c'est parti, retour sur le forex ce soir, un ptit moment pour reprendre en main, faire 2/3 scripts et tester FxPro en mode demo...
 
Si ca roule, je passerai en compte réel :)

n°21876972
docmaboul
Posté le 14-03-2010 à 19:46:43  profilanswer
 

damtoul a écrit :


 
Double  :jap: .
 
Passionnant ton travail.   :)
 
Et il n'y a aucune pollution du topic forex à présenter du code C de NN : les NNs et le trading sont intimement liés. C'est une excellente évolution et voie de recherche de l'AT de base.


 
D'accord :)
 
 

Citation :

Quand tu auras sorti ton EA NN j'aimerais beaucoup le voir tourner en forward sur compte demo. Tu pourras nous balancer l'investor password sur le forum? (ou en mp si tu ne veux pas le balancer en public).


 
Sur le forum, ça m'étonnerait. En mp, peut-être. Je vais y réfléchir.
 
 

Citation :

Edit : question de noob mais... sachant que les feeds de finance n'ont pas une distribution gaussienne, comment tu t'en sors mathématiquement pour passer tes valeurs d'entrée non gaussiennes dans tes neurones gaussiens? Transformée de Fisher entre tes deux neurones? J'ai lu ton lien en diagonale, ptet que c'est expliqué dedans?


 
Tu n'es pas obligé d'avoir une distribution normale pour tes valeurs d'entrée. Typiquement, les réels ont une distribution uniforme dans R (par définition) et pourtant l'exemple du dessus fonctionne. Le problème, c'est qu'il faut à mon avis énormément de valeurs pour obtenir une estimation potable de la densité de probabilité de la tendance du forex sur une période donnée. Je n'y ai pas trop réfléchi mais de mémoire, il me semble qu'on utilise le théorème central limite dans ces cas-là (mais je dis peut-être une énorme connerie, ça remonte à loin mes derniers cours de math :D). L'intérêt que j'y voyais, c'était surtout de pouvoir en tirer un algo pour construire/élaguer le réseau et de faire baisser le bruit dans les signaux d'entrée. Après, vu la puissance des ordinateurs récents et vu que je compte faire mon bot en C, c'est peut-être complètement inutile. Il est probablement plus judicieux de construire simplement un modèle, voir ce qu'il donne et affiner au fur et à mesure selon les problèmes rencontrés.

n°21877179
Nirwan
perdu? double la mise!
Posté le 14-03-2010 à 20:01:03  profilanswer
 

Ce topic est quand même autrement plus scientifique que le topic Bourse [:o_doc]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  11  12  13  ..  96  97  98  99  100  101

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unik] Bouvet Rames Guyane.... Sans Pelle H[Topic Unik] Secret Story 3 ou Magouilles Story by Momole
[Topic Unik] Celibataire et pas envie d'en changer? Viens donc ici[Topik Unik] <<<<<<<<< L'Or (gold ,lingot,bijoux ,bourse...) >>>>>>>>>
[Topik unik] Canal+[Topik unik] Bonne année 2009 !!!
[topik unik]La peinture -> vos oeuvres[Topic Unik] Punk Rock/Streetpunk/Oi!
[Topique unik] La bouffe en cas de guerres et de retombées nucléaire ! 
Plus de sujets relatifs à : [Topik Unik] Le Forex


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)