top of page

COMPUTAÇÃO

Disciplina: Análise Numérica

COMPUTAÇÃO

Veja a seguir os seguintes conteúdos já disponíveis. Para tomar conhecimento da lista completa dos conteúdos vistos nesta disciplina, clique no ícone "PROGRAMA" acima. OBSERVAÇÃO: Alguns dos assuntos estão divididos em partes as quais podem ser acessadas clicando nos links abaixo.

Texto a Ser Editado. Aguardem!

A Análise Numérica é o estudo de algoritmos que buscam resultados numéricos de problemas das mais diferentes áreas do conhecimento humano, modelados matematicamente. Em geral, os algoritmos de Análise Numérica se dividem em diretos, recursivos e iterativos. Os iterativos apresentam uma sucessão de passos que converge ou não para o valor aproximado da solução exata. É objetivo da Análise Numérica encontrar sucessões que aproximem dos valores exatos com um número mínimo de operações elementares.[1][2].

 

Um dos escritos matemáticos mais antigos é o Tablet Babilônio YBC 7289, que fornece uma aproximação sexagesimal de       , o comprimento da diagonal de um quadrado unitário.[3]

Ser capaz de calcular as faces de um triângulo (e assim, sendo capaz de calcular raízes quadradas) é extremamente importante, por exemplo, em carpintaria e construção.[4] Em uma parede quadrada que tem dois metros por dois metros, uma diagonal deve medir                     metros.[5]

 

Embora a Anaílise Numérica tenha sido concebido antes dos computadores, tal como o entendemos hoje, o assunto se relaciona a uma interdisciplinaridade entre a matemática e a tecnologia da informação. Também é muito referido na disciplina de Cálculo Numérico e por assim dizer não distiguiremos em demasia a Análise Numérica do Cálculo Numérico.

Os procedimentos mais elementares de tal metodologia são o Método de Newton e o Método de Newton-Raphson.

Ver artigo principal: Método de Newton

 

Pelo Método de Newton, se determinam dois valores extremos, entre os quais deve estar o resultado do problema. A função, então, é aplicada à média dos dois valores e esta, na iteração posterior, passa a ser um dos valores extremos, em substituição a um dos anteriores, dependendo do resultado da função.

 

No método de Newton-Raphson, o número de iterações para se chegar a um resultado com uma determinada aproximação é diminuído pelo uso da derivada da função.

Índice

  • 1 Introdução Geral

    • 1.1 Histórico

    • 1.2 Métodos diretos e iterativos

      • 1.2.1 Discretização e Integração numérica

    • 1.3 Discretização

  • 2 Cálculo dos valores de funções

  • 3 Resolução de equações e sistemas de equações

    • 3.1 Resolução de equações não lineares

    • 3.2 Resolução de sistemas lineares

  • 4 Outras aplicações

  • 5 Ver também

  • 6 Notas e referências

  • 7 Referências gerais

  • 8 Ligações externas

Introdução Geral

O objetivo do campo de análise numérica é projetar e analisar técnicas para encontrar soluções aproximadas, porém precisas, para problemas complexos, cuja variedade é demonstrada a seguir.

  • Métodos numéricos avançados são essenciais para previsões meteorológicas adequadas.

  • Calcular a trajetória de uma aeronave requer a solução numérica precisa de um sistema de equações diferenciais ordinárias.

  • Fabricantes de carros podem melhorar a segurança de seus veículos utilizando simulações computacionais de acidentes. Tais simulações consistem essencialmente da resolução de derivadas parciais numericamente.

  • Fundos de cobertura usam ferramentas de todos os campos da análise numérica para tentar calcular o valor de ações mais precisamente do que outros envolvidos no mercado.

  • Companhias aéreas usam sofisticados algoritmos de otimização para definir os valores de passagens, pagamentos de funcionários e necessidades de combustíveis. Historicamente, tais algoritmos foram desenvolvidos dentro do campo de pesquisa de operações.

  • Companhias de seguros usam programas numéricos para análise de riscos.

  • O resto desta seção destaca diversos temas importantes para a análise numérica.

 

 

 

Histórico

O campo da análise numérica antecede a invenção do computador em séculos. Interpolação linear é usada há mais de 2000 anos. Grandes matemáticos no passado trabalharam com análise numérica, o que é obviamente percebido pelo nome de importantes algoritmos como: Método de Newton, Polinômio de Lagrange, Eliminação Gaussiana, ou Método de Euler.

 

Para facilitar os cálculos manuais, grandes livros foram produzidos, com fórmulas e tabelas de dados como pontos de interpolação e coeficientes de funções. Utilizando estas tabelas, freqüentemente calculadas até a 16ª casa decimal ou além, qualquer um poderia olhar os valores e inseri-los nas fórmulas e encontrar estimações numéricas aproximadas para algumas funções. Este trabalho culminou em uma publicação do NIST em 1964, de um livro de mais de 1000 páginas editado por Abramowitz e Stegun com um grande número de formulas e funções comumente utilizadas e seus valores em diversos pontos. Os valores das funções não são mais de grande utilidade quando temos um computador à disposição, mas as diversas fórmulas podem ainda ser bastante úteis.

 

As calculadoras mecânicas também foram desenvolvidas como uma ferramenta para cálculos a mão. Estas calculadoras evoluíram para computadores eletrônicos nos anos 40, quando então se percebeu que estes computadores seriam úteis para fins administrativos. Mas a invenção do computador também influenciou campo da análise numérica, uma vez que cálculos maiores e mais complexos poderiam ser resolvidos.

Métodos diretos calculam a solução de um problema em um número finito de passos. Estes métodos resultariam na resposta precisa se eles fossem realizados com precisão infinita. Exemplos incluem a Eliminação Gaussiana, o método de fatoração QR para a resolução de sistemas lineares de equações e o Algoritmo simplex de programação linear. Na prática, é utilizada precisão finita e o resultado é uma aproximação da solução real (assumindo estabilidade).

 

Em contraste aos métodos diretos, Métodos Iterativos não terminam em um determinado número de passos. Atribuído um valor inicial, métodos iterativos realizam sucessivas aproximações que convergem para a solução exata em seu limite. Um teste de convergência é especificado para decidir quando uma solução suficientemente precisa foi encontrada. Mesmo usando uma precisão infinita, estes métodos (geralmente) não chegariam à solução em um número finito de passos. Exemplos incluem o Método de Newton, Método da Bissecção e a Interação de Jacob. Em matrizes de álgebra computacionais, métodos iterativos são geralmente necessários para problemas complexos.

 

Métodos iterativos são mais usuais do que métodos diretos em análise numérica. Alguns métodos são diretos em seu princípio, mas são utilizados como se não fossem; e.g Método do resíduo mínimo generalizado e o Método do gradiente conjugado. Para estes métodos o número de passos necessários para se obter a solução exata é tão grande que a aproximação é a aceita da mesma maneira que no método iterativo.

Discretização

Além disso, problemas contínuos devem as vezes ser substituídos por problemas discretos cuja solução é conhecidamente próxima da do problema contínuo; este processo é chamado “discretização”. Por exemplo, a solução da uma Equação diferencial é a Função. Esta função deve ser representada por uma quantidade limitada de dados, por exemplo, por seu valor em um número finito de números em seu domínio, apesar de seu domínio ser contínuo.

 

 

 

Cálculo dos Valores de Funções

Um dos problemas mais simples é a avaliação de uma função num determinado ponto. Mas mesmo a avaliação de um polinómio não é sempre trivial: oesquema de Horner é muitas vezes mais eficiente do que o método óbvio. De forma geral, é importante estimar e controlar o erro de arredondamento que resulta do uso do sistema de ponto flutuante na aritmética.

 

 

 

 

Resolução de Equações e Sistemas de Equações

Resolução de Equações Não Lineares

Resolver uma equação não linear, consiste basicamente em determinar os zeros de f(x)=0 em [a,b].

Para que possamos usar algum método numérico temos de localizar um intervalo para um zero. Para termos uma ideia onde o zero se localiza teremos de fazer uma análise gráfica da função. Por exemplo, fazer o gráfico na calculadora ou com programas de computador, como por exemplo o Mathematica ou MATLAB.

 

Para garantir que a raiz existe e seja única temos de verificar os seguintes teoremas:

1) Seja f Contínua em [a,b]. Se f(a)f(b)<0}, então existe pelo menos um c  (a,b), tal que f(c)=0}. Este é Teorema do Valor Intermediário que diz mais geralmente que se f é Contínua em [a,b] e f(a) < d < f(b), então existe c  (a,b), tal que f(c) = d. Tome d = 0 e o caso particular é o mencionado acima.

2) Seja f Contínua em [a,b]. Se f'(x)} existe e tem sinal constante em [a,b], então f não pode ter mais de um zero em (a,b). isto equivale a dizer que se f é Estritamente Crescente (ou Estritamente Decrscente) em [a,b], então f não pode ter mais de um zero em (a,b), ou seja, o Gráfico de f corta o Eixo X em apenas um ponto que é o ZERO de f.

 

Um dos Métodos Numéricos para o Cálculo de Zeros num intervalo é o Método da Bissecção. Este método consiste na divisão do intervalo em dois. Haverá um intervalo em que o zero estará e outro não. Para o localizarmos usamos o teorema 1. Rejeitamos o intervalo que não tem o zero e ficamos com o subintervalo que tem o zero. Repetimos este procedimento o número de vezes necessárias de modo a obtermos um erro inferior ao pretendido.

 

Para encontrarmos o erro de ordem k usamos a seguinte fórmula:

Outro Critério de Parada deste Algoritmo que pode ser usado de forma Conjunta é o de que |f(xk)| < ε, para a k-ésima Iteração, onde ε é um ERRO ou Tolerância previamente fixada - é a precisão desejada para o valor de f em xk ser o mais próximo de ZERO quanto se queira. O Algoritimo pode parar quando: 1) |b-a| < δ (ERRO, também previamente fixado) OU |f(xk)| < ε; outra situação que pode ser definida a prior é a de que o Algoritmo PARE quando |b-a| < δ E |f(xk)| < ε.

Resolução de Sistemas Lineares

Um Sistema de Equações Lineares Sn é um conjunto de n Equações com n Incógnitas (ou Variáveis). Os Sistemas de Equações Lineares possuem diversas aplicações na Matemática e na Física sendo um dos principais temas tratados pelo Cálculo Numérico.

 

Genericamente um Sistema de Equações Lineares pode ser representado como:

Texto a Ser Editado. Aguardem!

Aqui sem perda de generalidade temos um Sistema com Número de Equações igual ao Número de Variáveis (Incógnitas) fato que nem sempre acontece na prática. 

 

Os Sistemas de Equações Lineares podem ser resolvidos através de Métodos Diretos (Exatos ou Analíticos) e Métodos Iterativos (Aproximados - Aproximativo, quando o Método em si já prevê que o Resultado, independente de Erros de Arredondamento e de Medidas pela utilização de instrumentos na obtenção dos Valores dos Coeficientes das Variáveis, será Aproximado da Solução Exata).

 

Os Métodos Diretos, ou Exatos, possibilitam encontrar a solução exata de um Sistema de Equações Lineares a partir de um Número Finito de Operações. Na verdade, não tão Exatos (Precisos) assim, pois também existem Erros de Arredondamento - na divisão por ZERO se o número de casas decimais for estipulado não muito grande, pode ocorrer ERRO e os cálculos parariam causando o que se chama de OverFlow! No uso de Determinantes, por exemplo, para Inverter uma Matriz o Método chamado Regra de Cramer pode acontecer isso já que estaremos dividido pelos valores dos Determinantes. Os determinantes por serem Funções Multilineares são extremamente Sensíveis a pequenas Perturbações (modificar o valor de uma variável pela Adição ou Multiplicação por um número pode alterar significativamente o valor do Determinante. E os Problemas de Grande Porte, em Engenharia, por exemplo, onde o Tamanho da Matriz dos Coeficientes é significativamente grande e que se utiliza, por exemplo, Determinantes, estes problemas NÃO terão ROBUSTEZ (serão Sensíveis a pequenas Perturbações nos Coeficientes das Variáveis.

 

Os Métodos Iterativos, ou Aproximativos (e/ou Aproximados), são aqueles em que a Solução do Sistema de Equações Lineares é obtida a partir de uma sequência de aproximações sucessivas x(1), x(2), ... , x(k) partindo-se de uma aproximação inicial x(0).

(Ensino&Informação)

Zeros de Funções - Método da Bisseção

Altamir Antônio Rosa Araldi - Ensino&Informação - Revista: Zeros de Funções - Método da Bisseção

 

Publicado em 24 de set de 2016

Nesta Vídeo Aula, dentro da Disciplina Cálculo Numérico, é apresentado o Método da Bisseção para a Determinação de ZEROS de uma Função. Escolhemos como exemplo a função Polinomial bem simples f(x) = x² - 4. Sabemos que os dois zeros de f são 2 e -2 quando calculado analiticamente.

 

Numericamente, este método da bisseção exige que a função seja Contínua no num Intervalo [a,b] e que f(a).f(b) < 0 (ou, equivalente, que f(a) < d <f(b)) o que o Teorema do Valor Intermediário garante a Existência de um número c pertencente ao Intervalo Aberto (a,b), tal que f(c) = d. Tomando-se d = 0, este Teorema garante a existência deste número c tal que f(c) = d = 0. O Algoritmo converge para o Zero de f num número finito de Iterações – desde que escolhamos o Intervalo [a,b] de modo que neste intervalo a função seja Estritamente Crescente (ou Decrescente). Lembremos que tanto o ZERO de f é APROXIMADO (ponto onde a função se anula. Equivalentemente, é o ponto onde o Gráfico da função intercepta o Eixo X e que o valor de f neste zero é próximo de 0 tanto quanto se queira através de Critérios de Parada do Algoritmo que busca a solução do problema. Importante também, é não sair de imediato a procura de zeros sem ter pelo menos um indicativo de que existe um zero da função. Se tivermos um polinômio de Grau ímpar tão, existe pelo menos uma Raiz (ZERO) Real (pertencente ao Conjunto dos Números Reais) deste polinômio, já que as Raízes Complexas vêm aos pares!

 

Numa próxima Vídeo Aula, apresentaremos o Algoritmo propriamente dito em um Linguagem de programação, ou Pascal ou Delphi para ser Implementado em Computador!

 

Nossa Revista no Facebook é a Ensino&Informação (Facebook).

Outras Aplicações

Várias outras aplicações existem da Análise Numérica, como resolução de problemas de Autovalores; Cálculo de integrais; Equações diferenciais.

 

Em geral, operações que envolvem Limite são facilmente aplicadas em Análise Numérica, já que os respectivos Algoritmos seguem a própria definição de Limite.

  A partir de 01 Jan de 2021

Você é o Visitante de Número

bottom of page