Você gostou do post,
concorda com minhas ideias,
quer mais?
Curta o post no final da página, use o Disqus, compartilhe em sua rede social. Isso me ajuda e motiva, trazendo cada vez mais conhecimento, resumido e prático. Se quiser contribuir financeiramente, assim posso comprar mais placas e fazer outros tutoriais, use o PIX: consultoria@carlosdelfino.eti.br Obrigado.

Neste artigo quero anotar os típos e modelos de redes neurais, e até comentar um pouco sobre aplicações.

Termos a Qualificar

Antagonistic receptive fields

PSTH output signal

DOG (Difference Of Gaussians)

Infraestrutura

SVM

Support Vector Machine, Proposto por Vapnik

Modelos de Redes Neurais

BPTT

RTRL

Fuzzy Neural Network

RNN

Recurrent Neural Network

Multiplicative RNN

Second Order RNN

RNN Linear

BNN

Backpropagation Neural Network

As redes neurais do tipo Backpropagation possuem normalmente camadas internas (ocultas) e se utilizam de funções de ativação do tipo sigmoid.

Em redes neurais Backpropagation, o erro da camada interna é corrigido na próxima camada, assim se´da o Backpropagation.

CNN

Convolucional Neural Network

LTSM

Long Short Term Memory networks

GRU

Gated Recurrent Units

RBN

Recurrent Batch Normalization

HMM

Hidden Markov Models

MI

Muiltipla integração é uma modelo estrutural para redes neurais, recentemente criado para melhorar o desempenho das redes RNN.

MI-RNN

As redes RNN que usam uma camada MI tem as mesmas variantes RNN possíveis.

R-CNN

Regions com Convolutional Neural Networks (R-CNN) method proposto por Girshick para detecção de objetos.

Neuron model RF-PSTH

Algoritimos de Otimização

Adam optimizer

Neumann Optimizer

Outras informações relevantes

SRM

Structure risk minimization é um critério usado por SVM para construir um hiperplano para optimização de regressões ou classificações, tornando o mecanismo de aprendizado mais generalizado.

BP

FCM

GK Fuzzy Cluster

TK Fuzzy Model

Hebbian principle

Dentro do que nos interessa o principio Hebbiano é quando dois neurónios são sempre ativados simultaneamente com frequência, significa que ambos estão relacionados, ou seja, representam o mesmo sinal, porém isso é uma simplificação perigosa, pois podem haver aprendizados que levam a resultados distintos caso um destes neurónios seja removidos.

Neuromórfico

Hadamard product

\[\odot\] \[\emptyset = ((\alpha \odot Wx \odot Uz + \beta_1) \odot (Uz + \beta_2 \odot Wx + b))\]

Fontes:

Como todos sabem uso estes artigos em meu site para anotar aquilo vou aprendendo, quando consolido um conhecimento de forma a se tornar útil, ofereço como consultoria e tutoria, assim contribuo para que outros possam crescer também.

Clique aqui para saber em detalhes "Porque cobro pelo meus serviços".


Carlos Delfino

Escrito por:

Desenvolvedor e consultor para projetos com Microcontroladores e Mobile

Google LinkedIn Digg Reddit StumbleUpon

Atualizado em