UMA NOVA ARQUITETURA PARA REDES NEURAIS DESCRITA POR EQUAÇÕES DIFERENCIAIS ORDINÁRIAS NEURAIS
Resumo:Este trabalho apresenta uma revisão estruturada sobre a evolução das Redes Neurais Artificiais (RNAs), destacando sua trajetória desde os fundamentos teóricos até aplicações contemporâneas em modelagem científica. O ponto de partida encontra-se no modelo do neurônio artificial proposto por McCulloch e Pitts (1943), formulado como unidade lógica capaz de processar informações por meio de combinações booleanas. Esse arcabouço foi expandido com o Perceptron, primeira arquitetura formalizada de rede neural voltada à classificação linear (Rosenblatt, 1958). Entretanto, suas limitações em tarefas não lineares abriram espaço para o desenvolvimento das Redes Multilayer Perceptron (MLPs), cuja capacidade de atuar como aproximadores universais de funções foi demonstrada teoricamente em Hornik, Stinchcombe e White (1989). O sucesso das MLPs está associado ao aprendizado por Descida do Gradiente e ao algoritmo de Back-Propagation, responsáveis pela retropropagação do erro e atualização iterativa dos parâmetros da rede, viabilizando o treinamento em larga escala e consolidando as MLPs como núcleo dos modelos de aprendizado profundo. Mais recentemente, surgiram as Physics-Informed Neural Networks (PINNs), que ampliam o paradigma ao incorporar equações diferenciais diretamente na função de custo, unindo aprendizado baseado em dados a restrições físicas inerentes aos sistemas modelados (Raissi, Perdikaris e Karniadakis, 2019). Essa integração garante soluções consistentes e generalizáveis mesmo em dados escassos ou ruidosos, com potencial em aplicações como dinâmica de fluidos, mecânica dos sólidos, problemas inversos e também na modelagem de sistemas biológicos descritos por equações diferenciais, os quais possuem grande relevância em fenômenos naturais e biomédicos. Em conclusão, este trabalho revisa a evolução das redes neurais até sua integração com equações diferenciais em arquiteturas como as PINNs. Como aplicação prática, serão explorados problemas físicos e biológicos que apresentam comportamento dinâmico de natureza exponencial, modelados a partir de equações diferenciais ordinárias e resolvidos com o auxílio dessas redes.
Referência 1:MCCULLOCH, Warren S.; PITTS, Walter. A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, v. 5, n. 4, p. 115–133, 1943.
Referência 2:ROSENBLATT, Frank. The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Review, v. 65, n. 6, p. 386–408, 1958.
Referência 3:HORNIK, Kurt; STINCHCOMBE, Maxwell; WHITE, Halbert. Multilayer feedforward networks are universal approximators. Neural Networks, v. 2, n. 5, p. 359–366, 1989.