Regressão linear é o primeiro algoritmo que aprendemos quando estudamos ciência de dados e machine learning. Apesar de muito útil, o algoritmo buscará sempre minimizar a soma dos quadrados de forma que se obtenha um modelo com o menor erro possível. Isso pode levar ao problema de overfitting (já explicado em posts como Overfitting e Cross Validation e Explicando overfitting com uma anedota). Uma forma de resolver isso é utilizando a regressão ridge ou lasso!
Continuar a ler “Regressão Ridge e Lasso”
Etiqueta: regressao linear
Correlação e Causa: O Caso da Regressão Linear
Que correlação não implica causa já é algo que está ficando cada vez mais manjado. Não é mais necessário ser um estatístico ou economista para saber isso. Baste um pouco de conhecimento em análise de dados. O curioso é que para muitas pessoas, isso pode ser resolvido com uma regressão linear. Não é verdade. Continuar a ler “Correlação e Causa: O Caso da Regressão Linear”
Machine Learning do Zero no R
Análogo ao que foi feito no post Machine Learning do Zero no Python, teremos agora no blog um tutorial bem tranquilo, do ZERO, para quem quer aprender Machine Learning / Ciência de Dados, utilizando R. Não fique com medo por ser um post mais extenso, você pode fazer um pouco cada dia durante um certo período de tempo, caso sinta que está pesado demais. Abaixo, você vai aprender a tratar os dados, fazer filtros, localizar valores nulos, criar gráficos e até conhecer alguns modelos. Então bora aprender! Continuar a ler “Machine Learning do Zero no R”
Regressão Linear no Python
Como já expliquei em vários outros posts, Regressão Linear é uma técnica muito utilizada em modelagem – caso não se recorde, visite os posts Regressão Linear Simples – Parte 1, Regressão Linear Simples – Parte 2, Regressão Linear Simples – Parte 3 e Regressão Linear Múltipla. Em suma, um modelo linear será a soma ponderada de uma ou mais variáveis, chamadas de variáveis independentes ou explicativas, que irão predizer uma varável-alvo, também chamada de variável dependente ou resposta. Agora, vamos ver como você consegue rodar esse modelo no Python. Continuar a ler “Regressão Linear no Python”
Listas de Econometria (2): Demonstrações Envolvendo Somatória
Dando continuidade às resoluções de exercícios de Econometria I, seguem mais alguns que são comuns de se ver nas primeiras listas da disciplina. Dessa vez, são demonstrações que envolvem lidar com a somatória. São exercícios simples, pouco trabalhosos, mas que são muito úteis para entender o resto da matéria. Inclusive, um deles servirá de base para a demonstração que está em Listas de Econometria (1): Derivando os Parâmetros de uma Regressão Linear Simples. Eu espero de verdade que isso ajude quem está apanhando da matéria. Qualquer problema no entendimento, até se achar que algo não está legível, não hesite em me contatar. Bora passar nessa matéria! Continuar a ler “Listas de Econometria (2): Demonstrações Envolvendo Somatória”
Listas de Econometria (1): Derivando os Parâmetros de uma Regressão Linear Simples
O que será apresentado neste post é um exercício padrão de quem faz Econometria I na faculdade. Todo professor de econometria em algum momento mostrou aos alunos como derivar a fórmula do intercepto e a inclinação da reta (os betas) de uma Regressão Linear Simples. E é isso que veremos hoje! Continuar a ler “Listas de Econometria (1): Derivando os Parâmetros de uma Regressão Linear Simples”
Regressão Linear: Interpretação e Análise dos Resíduos com SAS
Regressão linear foi um assunto bastante comentado quando eu criei este blog. Agora, vamos ver como é fácil rodá-la no SAS e, no mesmo código, fazer uma análise visual dos resíduos. Continuar a ler “Regressão Linear: Interpretação e Análise dos Resíduos com SAS”
Linearidade nos Parâmetros
Uma das premissas do método de mínimos quadrados para regressão linear é a linearidade dos parâmetros. Algumas pessoas confundem o que é linearidade nos parâmetros. Então, para ficar bem claro, veja os exemplos a seguir:
Outra forma de criar variável dummy no R
Além do método explicado em Criando variáveis dummy no R, podemos utilizar a função tslm() para criar uma dummy que será incluída diretamente na regressão linear.
Por exemplo, se você tiver a variável dia da semana nos seus dados, ao invés de fazer várias colunas (cada uma para um dia da semana) que recebe 0 e 1, basta você acrescentar a variável season dentro da função tslm(). Vejamos no exemplo abaixo a regressão com os dados da série uschange do pacote fpp2:
5 modelos básicos de forecast no R
Há algumas formas básicas de se fazer projeções para valores futuros (forecast), diferentes dos modelos geralmente falados nesse blog, mas que podem ser úteis. A seguir, temos 5 métodos simples que fazem parte do pacote fpp do R (na verdade são parte do pacote forecast que é carregado junto).