среда, 6 июня 2018 г.

Rede neural moving average


Rede Neural 2 Médias Móveis Um Expert Advisor de rede neural baseado em duas médias móveis com o modo de treinamento. Treine o Expert Advisor em exemplos selecionados e tenha lucro na vida real. O EA pode funcionar em qualquer instrumento e em qualquer período de tempo. Algoritmo de negociação do EA Duas médias móveis são analisadas pelo núcleo da rede neural, que produz comandos para comprar ou vender. os valores de duas médias móveis, rápida (FMA) e lenta (SMA), são fornecidos para a primeira camada, na segunda camada calcula-se dois neurônios responsáveis ​​pela compra (N buy) e Sell (N sell), a decisão de comprar ou vender é feito no terceiro nível. O diagrama de blocos da rede neural é mostrado na figura. Treinamento do Expert Advisor No modo de treinamento, o EA lembra os valores das médias móveis marcadas pelo usuário no gráfico do instrumento monetário. No futuro, durante a operação normal, reconhece os valores das médias móveis. Para treinar o EA, marque pelo menos um longo e um curto no gráfico. Para indicar uma negociação longa, use a seta Comprar e, para a negociação curta, use a seta Venda. Você pode colocar mais setas no gráfico. Quanto mais flechas, mais tempo será o processo de treinamento. Presença de quaisquer outros objetos no gráfico que não sejam as setas não é desejável. Após o treinamento, a pasta NN 2MA será criada na pasta comum do terminal. Ele conterá o arquivo HHHHHHNN2MA. bin com as configurações da rede neural treinada. XXXXXX no nome do arquivo é o nome do instrumento financeiro. Em operação normal, o EA carrega os dados do arquivo. Se o arquivo não for encontrado, ele usará as configurações padrão. Por padrão, o EA é treinado no USDJPY e no período de uma hora, as negociações são selecionadas em 2012. Os seguintes parâmetros de entrada são responsáveis ​​pelo treinamento do EA: O número de pesos por neurônio. Igual ao comprimento do MA. Padrão - 48. O número de ciclos de treinamento - padrão 100. Quanto maior o valor, maior será o processo de treinamento. Na versão experimental é 10. Fator b - o valor afeta a velocidade da correção de pesos de neurônios, é usado para treinar a rede. O valor padrão é 0.7, não precisa ser alterado. Modo de aprendizagem EA - ativa o modo de treinamento do EA. Exemplos de especificação de negociações para treinar o EA estão disponíveis na figura. As configurações do modo normal Configurações de médias móveis Você pode ajustar as configurações de cada média móvel: o período, o preço, o modo de cálculo. Volume do pedido - o padrão é 0,1. Valor de slippages em pontos - o padrão é 30. Número de tentativas de abrir uma posição - o padrão é 5. Nível StopLoss em pontos - o padrão é 0. Nível TakeProfit em pontos - o padrão é 0. Nível TrailingStop em pontos - o padrão é 650. Permitir gerenciamento de dinheiro - controle o tamanho do pedido para entrar no mercado, ativado pelo defalt. Se o modo estiver desativado, o tamanho do pedido será obtido no parâmetro Volume of order. O volume de pedidos como porcentagem do depósito - usado para controlar o tamanho do pedido, o padrão é 5%. Adicionando à posição aberta - habilitado por padrão. Se houver um sinal para entrar no mercado na direção de uma posição aberta, o EA entra no mercado. Configurações da Rede Neural O número de pesos por neurônio. Igual ao comprimento do MA. Quanto maior o valor, mais preciso será o estado de mercado atual, mas reduzirá o número de negócios. Quanto menor o valor, menos preciso será o estado atual do mercado, mas o número de negócios aumenta. O valor da ativação do neurônio. O valor é aproximadamente 0,75 do valor de O número de pesos por neurônio. Quanto maior o valor, mais rigorosa é a seleção de neurônios para tomar uma decisão. Na versão experimental é 40. O número de ciclos de treinamento - o padrão é 100. Fator b a velocidade de correção de peso, o padrão é 0.7. Modo de aprendizagem EA, o modo de treino EA. Durante o treinamento, os valores máximos dos neurônios serão mostrados nos comentários no gráfico. Esses valores podem ser usados ​​como um valor de ativação do neurônio. Um exemplo é mostrado na figura. Ativar comentários - ativa comentários no gráfico. Número Mágico de Conselheiro. Pausa após negociação em milissegundos. Por padrão, o EA é treinado em USDJPY H1 em duas negociações em 2012. O resultado do teste Expert Advisor em 2013 é mostrado na figura. Neural network 2 Médias Móveis Um Expert Advisor de rede neural baseado em duas médias móveis com o modo de treinamento . Treine o Expert Advisor em exemplos selecionados e tenha lucro na vida real. O EA pode funcionar em qualquer instrumento e em qualquer período de tempo. Algoritmo de negociação do EA Duas médias móveis são analisadas pelo núcleo da rede neural, que produz comandos para comprar ou vender. os valores de duas médias móveis, rápida (FMA) e lenta (SMA), são fornecidos para a primeira camada, na segunda camada calcula-se dois neurônios responsáveis ​​pela compra (N buy) e Sell (N sell), a decisão de comprar ou vender é feito no terceiro nível. O diagrama de blocos da rede neural é mostrado na figura. Treinamento do Expert Advisor No modo de treinamento, o EA lembra os valores das médias móveis marcadas pelo usuário no gráfico do instrumento monetário. No futuro, durante a operação normal, reconhece os valores das médias móveis. Para treinar o EA, marque pelo menos um longo e um curto no gráfico. Para indicar uma negociação longa, use a seta Comprar e, para a negociação curta, use a seta Venda. Você pode colocar mais setas no gráfico. Quanto mais flechas, mais tempo será o processo de treinamento. Presença de quaisquer outros objetos no gráfico que não sejam as setas não é desejável. Após o treinamento, a pasta NN 2MA será criada na pasta comum do terminal. Ele conterá o arquivo HHHHHHNN2MA. bin com as configurações da rede neural treinada. XXXXXX no nome do arquivo é o nome do instrumento financeiro. Em operação normal, o EA carrega os dados do arquivo. Se o arquivo não for encontrado, ele usará as configurações padrão. Por padrão, o EA é treinado no USDJPY e no período de uma hora, as negociações são selecionadas em 2012. Os seguintes parâmetros de entrada são responsáveis ​​pelo treinamento do EA: O número de pesos por neurônio. Igual ao comprimento do MA. Padrão - 48. O número de ciclos de treinamento - padrão 100. Quanto maior o valor, maior será o processo de treinamento. Na versão experimental é 10. Fator b - o valor afeta a velocidade da correção de pesos de neurônios, é usado para treinar a rede. O valor padrão é 0.7, não precisa ser alterado. Modo de aprendizagem EA - ativa o modo de treinamento do EA. Exemplos de especificação de negociações para treinar o EA estão disponíveis na figura. As configurações do modo normal Configurações de médias móveis Você pode ajustar as configurações de cada média móvel: o período, o preço, o modo de cálculo. Volume do pedido - o padrão é 0,1. Valor de slippages em pontos - o padrão é 30. Número de tentativas de abrir uma posição - o padrão é 5. Nível StopLoss em pontos - o padrão é 0. Nível TakeProfit em pontos - o padrão é 0. Nível TrailingStop em pontos - o padrão é 650. Permitir gerenciamento de dinheiro - controle o tamanho do pedido para entrar no mercado, ativado pelo defalt. Se o modo estiver desativado, o tamanho do pedido será obtido no parâmetro Volume of order. O volume de pedidos como porcentagem do depósito - usado para controlar o tamanho do pedido, o padrão é 5%. Adicionando à posição aberta - habilitado por padrão. Se houver um sinal para entrar no mercado na direção de uma posição aberta, o EA entra no mercado. Configurações da Rede Neural O número de pesos por neurônio. Igual ao comprimento do MA. Quanto maior o valor, mais preciso será o estado de mercado atual, mas reduzirá o número de negócios. Quanto menor o valor, menos preciso será o estado atual do mercado, mas o número de negócios aumenta. O valor da ativação do neurônio. O valor é aproximadamente 0,75 do valor de O número de pesos por neurônio. Quanto maior o valor, mais rigorosa é a seleção de neurônios para tomar uma decisão. Na versão experimental é 40. O número de ciclos de treinamento - o padrão é 100. Fator b a velocidade de correção de peso, o padrão é 0.7. Modo de aprendizagem EA, o modo de treino EA. Durante o treinamento, os valores máximos dos neurônios serão mostrados nos comentários no gráfico. Esses valores podem ser usados ​​como um valor de ativação do neurônio. Um exemplo é mostrado na figura. Ativar comentários - ativa comentários no gráfico. Número Mágico de Conselheiro. Pausa após negociação em milissegundos. Por padrão, o EA é treinado em USDJPY H1 em dois negócios em 2012. O resultado do teste Expert Advisor em 2013 é mostrado na figura. Eu entendo que redes neurais com qualquer número de camadas ocultas podem aproximar funções não-lineares, no entanto, pode aproximado: Eu não posso pensar em como poderia. Parece uma limitação muito óbvia das redes neurais que podem limitar potencialmente o que ela pode fazer. Por exemplo, devido a essa limitação, as redes neurais provavelmente não conseguem aproximar adequadamente muitas funções usadas em estatísticas, como a Média móvel exponencial, ou mesmo a variação. Falando de média móvel, redes neurais recorrentes podem se aproximar apropriadamente, eu entendo como uma rede neural feedforward ou até mesmo um único neurônio linear pode produzir uma média móvel usando a técnica de janela deslizante, mas como redes neurais recorrentes o fazem sem X quantidade de camadas ocultas? (X sendo o tamanho médio móvel) Além disso, vamos supor que não conhecemos a função original f. o que acontece para obter a média das últimas 500 entradas e, em seguida, a saída 1 se for maior que 3 e 0 se não for. Mas por um segundo, finja que não sabemos disso, é uma caixa preta. Como uma rede neural recorrente se aproximaria? Nós primeiro precisaríamos saber quantos timesteps ela deveria ter, o que não sabemos. Talvez uma rede LSTM poderia, mas mesmo assim, e se não é uma simples média móvel, é uma média móvel exponencial Eu não acho que o LSTM possa fazê-lo. Ainda pior ainda, e se f (x, x1) que estamos tentando aprender é simplesmente Isso parece muito simples e direto. Uma rede neural pode aprender? Eu não vejo como. Estou perdendo algo enorme aqui ou algoritmos de aprendizado de máquina são extremamente limitados? Existem outras técnicas de aprendizado além das redes neurais que podem realmente fazer isso? O ponto-chave a ser compreendido é compacto. As redes neurais (assim como qualquer outra estrutura de aproximação como polinômios, splines ou funções de base radial) podem aproximar qualquer função contínua somente dentro de um conjunto compacto. Em outras palavras, a teoria afirma que, dado: então existe uma rede neural que se aproxima de f (x) com um erro de aproximação menor que epsilon. em todos os lugares dentro de a, b. Quanto ao seu exemplo de f (x) x 2. sim, você pode aproximá-lo com uma rede neural dentro de qualquer intervalo finito: -1,1. 0, 1000 etc. Para visualizar isso, imagine que você aproxime f (x) em -1,1 com uma função de etapa. Você pode fazê-lo no papel? Observe que, se você tornar as etapas suficientemente estreitas, poderá obter a precisão desejada. A maneira como as redes neurais se aproximam de f (x) não é muito diferente disso. Mas, novamente, não há rede neural (ou qualquer outra estrutura de aproximação) com um número finito de parâmetros que pode aproximar f (x) x 2 para todo x em -,. Respondeu o março 20 15 em 18:06 Eu compreendo redes neurais com todo o número de camadas escondidas pode aproximar funções nonlinear, no entanto, pode aproximar: A única maneira que eu posso fazer sentido dessa pergunta é que você está falando sobre a extrapolação. Então, por exemplo, dadas amostras de treinamento no intervalo -1 lt x lt 1 pode uma rede neural aprender os valores corretos para x gt 100. É isso que você quer dizer Se você tinha conhecimento prévio, que as funções que você está tentando aproximar provavelmente são de baixa ordem polinômios (ou qualquer outro conjunto de funções), então você poderia certamente construir uma rede neural que possa representar essas funções e extrapolar x2 em todos os lugares. Se você não tem conhecimento prévio, as coisas são um pouco mais difíceis: Existem infinitamente muitas funções suaves que se encaixam x2 no intervalo -1.1.1 perfeitamente, e não há nenhuma boa razão pela qual esperaríamos x2 para dar melhores previsões do que qualquer outro função. Em outras palavras: Se não tivéssemos nenhum conhecimento prévio sobre a função que estávamos tentando aprender, por que quereríamos aprender x - gt x2. No reino dos conjuntos de treinamento artificial, x2 pode ser uma função provável, mas no mundo real, provavelmente não é. Para dar um exemplo: Vamos dizer que a temperatura na segunda-feira (t0) é 0, na terça-feira é 1, na quarta-feira é 4. Não temos motivos para acreditar que as temperaturas se comportam como polinômios de baixa ordem, então não queremos inferir que a temperatura próxima segunda-feira provavelmente será em torno de 49. Além disso, vamos supor que não sabemos a função original f, que acontece para obter a média dos últimos 500 entradas, e então a saída 1 se superior a 3, e 0 se não é. Mas por um segundo, finja que não sabemos disso, é uma caixa preta. Como uma rede neural recorrente aproximaria que eu acho que são duas perguntas: primeiro, uma rede neural pode representar essa função, ou seja? Existe um conjunto de pesos que daria exatamente esse comportamento? Obviamente depende da arquitetura de rede, mas acho que podemos criar arquiteturas que possam representar (ou pelo menos aproximar) esse tipo de função. Pergunta dois: É possível aprender essa função, dados exemplos de treinamento suficientes? Bem, se o seu algoritmo de aprendizado não ficar preso no mínimo local, claro: se você tiver amostras de treinamento suficientes, qualquer conjunto de pesos que não se aproxime da sua função gera um erro de treinamento maior que 0, enquanto um conjunto de pesos que se encaixam na função que você está tentando aprender tem um erro de treinamento0. Então, se você encontrar um ótimo global, a rede deve se adequar à função. A razão pela qual eu estava pensando em x2. e médias móveis simples ou exponenciais, especialmente, porque é muito utilizado na previsão do mercado financeiro em análise técnica. Eu estava esperando que uma rede neural pudesse potencialmente aprender esses algoritmos e negociar com base neles sem primeiro ter que codificá-los e inserir seus resultados. No entanto, estou tentando descobrir se uma rede neural pode até aprender uma função como essa. Eu entendo como o x2 não é exatamente útil para a previsão do tempo, e pode fazer com que a rede preveja 49 graus na próxima segunda-feira, mas tenho certeza de que ser capaz de aprender uma função polinomial poderia ser útil. para previsão de preço FOREX, por exemplo. Eu entendo que talvez uma arquitetura de rede diferente da que eu tinha em mente pudesse ser capaz, mas eu não conheço nenhuma arquitetura que possa representar f (x, x1) xx1 Eu acho que posso estar usando a palavra aproximada ao invés de representar, mas eu acredito em você ainda entendi o que eu estava tentando dizer muito bem. Desculpe, eu não pude editar meu último post no tempo. ndash Essam Al-Mansouri Sep 1 14 at 18:41 Eu entendo redes neurais com qualquer número de camadas ocultas podem aproximar funções não-lineares, no entanto, pode aproximar: Sim, pode. Eu não sei o que faz você pensar que é uma função difícil de se aproximar, é muito fácil. Dadas unidades ocultas suficientes, uma rede neural pode aproximar qualquer função a uma precisão arbitrária em um intervalo arbitrário. Falando de média móvel, as redes neurais recorrentes podem se aproximar adequadamente do que Sim, pode. É novamente um problema muito simples que você parece achar difícil por algum motivo que não esteja compartilhando. Você pode ver a solução trivial apenas criando o estado oculto grande o suficiente para conter todo o histórico e o restante da rede para calcular a média a partir do estado oculto recorrente. Nós primeiro precisaríamos saber quantos intervalos de tempo ela deveria ter, o que nós não sabemos. Isso é um problema de ajuste de parâmetros, estes foram tratados antes. Você pode facilmente procurar mais informações sobre eles. Estou perdendo algo enorme aqui ou algoritmos de aprendizado de máquina são extremamente limitados? Existem outras técnicas de aprendizado além das redes neurais que podem realmente fazer isso? Sim, parece que você está perdendo qualquer compreensão real das redes neurais. Sua primeira declaração de que eu entendo redes neurais com qualquer número de camadas ocultas pode aproximar funções não-lineares, no entanto, pode aproximar mostra que você realmente não entende as palavras que você está usando. Existe uma enorme variedade de tópicos que você poderia estar deixando de entender ou fundir uns com os outros, e ninguém será capaz de defini-lo diretamente em um formato simples da QampA. Se você realmente quer entender o que está acontecendo, faça alguns cursos de pós-graduação em Aprendizado de Máquina e Redes Neurais em particular. Um bom ponto de partida seria esses vídeos, se você já tiver o conhecimento necessário. Answer: 14 set 14 at 16:37 Este não é o lugar apropriado para ensinar. Pegue um dos muitos livros sobre o assunto e leia isso. Você não está nem considerando o tipo de função de ativação ou que há mais de uma unidade por entrada ou que pode haver muitas camadas ocultas (não que sejam necessárias, mas que ajudem a entender). ndash Raff. Edward Sep 1 14 em 19:09

Комментариев нет:

Отправить комментарий