| Resumo: | Este trabalho apresenta uma revisão estruturada sobre a evolução das Redes Neurais Artificiais
(RNAs), destacando sua trajetória desde os fundamentos teóricos até aplicações contemporâneas em
modelagem científica. O ponto de partida encontra-se no modelo do neurônio artificial proposto por
McCulloch e Pitts (1943), formulado como unidade lógica capaz de processar informações por meio de
combinações booleanas. Esse arcabouço foi expandido com o Perceptron, primeira arquitetura
formalizada de rede neural voltada à classificação linear (Rosenblatt, 1958). Entretanto, suas limitações
em tarefas não lineares abriram espaço para o desenvolvimento das Redes Multilayer Perceptron (MLPs),
cuja capacidade de atuar como aproximadores universais de funções foi demonstrada teoricamente em
Hornik, Stinchcombe e White (1989). O sucesso das MLPs está associado ao aprendizado por Descida
do Gradiente e ao algoritmo de Back-Propagation, responsáveis pela retropropagação do erro e
atualização iterativa dos parâmetros da rede, viabilizando o treinamento em larga escala e consolidando
as MLPs como núcleo dos modelos de aprendizado profundo.
Mais recentemente, surgiram as Physics-Informed Neural Networks (PINNs), que ampliam o paradigma
ao incorporar equações diferenciais diretamente na função de custo, unindo aprendizado baseado em
dados a restrições físicas inerentes aos sistemas modelados (Raissi, Perdikaris e Karniadakis, 2019). Essa
integração garante soluções consistentes e generalizáveis mesmo em dados escassos ou ruidosos, com
potencial em aplicações como dinâmica de fluidos, mecânica dos sólidos, problemas inversos e também
na modelagem de sistemas biológicos descritos por equações diferenciais, os quais possuem grande
relevância em fenômenos naturais e biomédicos.
Em conclusão, este trabalho revisa a evolução das redes neurais até sua integração com equações
diferenciais em arquiteturas como as PINNs. Como aplicação prática, serão explorados problemas físicos
e biológicos que apresentam comportamento dinâmico de natureza exponencial, modelados a partir de
equações diferenciais ordinárias e resolvidos com o auxílio dessas redes.
|
| Referência 1: | MCCULLOCH, Warren S.; PITTS, Walter. A logical calculus of the ideas immanent in nervous
activity. The Bulletin of Mathematical Biophysics, v. 5, n. 4, p. 115–133, 1943. |
| Referência 2: | ROSENBLATT, Frank. The perceptron: a probabilistic model for information storage and organization
in the brain. Psychological Review, v. 65, n. 6, p. 386–408, 1958. |
| Referência 3: | HORNIK, Kurt; STINCHCOMBE, Maxwell; WHITE, Halbert. Multilayer feedforward networks are
universal approximators. Neural Networks, v. 2, n. 5, p. 359–366, 1989. |