ARQUIVO: Melhorando seu R (2016)

Um novo padrão de manipulação de dados e programação em R vem surgindo. E certos livros recém lançados ainda não aprenderam…

Over the last year I have changed my data processing and manipulation workflow in R dramatically. Thanks to some great new packages like dplyr, tidyr and magrittr (as well as the less-new ggplot2) I’ve been able to streamline code and speed up processing. Up until 2014, I had used essentially the same R workflow (aggregate, merge, apply/tapply, reshape etc) for more than 10 years. I have added a few improvements over the years in the form of functions in packages doBy, reshape2 and plyr and I also flirted with the package data.table (which I found to be much faster for big datasets but the syntax made it difficult to work with) — but the basic flow has remained remarkably similar. Until now…

Fonte: A new data processing workflow for R: dplyr, magrittr, tidyr, ggplot2 | Technical Tidbits From Spatial Analysis & Data Science

Dica de: http://lmonasterio.blogspot.com.br/2016/11/diversos_24.html

 

ARQUIVO: Como escrever um artigo científico.

Resumindo o artigo do link:

1. Start with the conclusions.

2. Now step back. What is the principal evidence for your conclusions?

3. Back one more step, now. What are the methods and data you used to obtain your research findings?

4. Now go back and write the literature review and the introduction.

5.go to your results and conclusions and give alternative explanations.

6. Write the abstract.

7. Give the article to a friend, ask him or her to spend 15 minutes looking at it, then ask what they think your message was.

Advice on writing research articles « Statistical Modeling, Causal Inference, and Social Science.

Análise de sentimento do COPOM com R (parte 3: analisando o sentimento)

Inspirado no artigo “Quando as palavras contam a história”, do Terraço Econômico, resolvi elaborar minha própria implementação do método, contribuindo para a comunidade. Vou mostrar então como eu fiz em alguns posts dessa série:

  1. Usando a base de dados
  2. Replicando a base de dados
  3. Analisando o sentimento

Nesse post eu vou explicar como fazer uma análise de sentimento básica.

Continuar lendo

Guaranteed Jobs through a Public Service Employment Program | Levy Economics Institute

Amid a recent upsurge in support for a national job guarantee program, L. Randall Wray, Stephanie A. Kelton, Pavlina R. Tcherneva, Scott Fullwiler, and Flavia Dantas outline a new proposal for a federally funded program with decentralized administration. Their Public Service Employment (PSE) program would offer a job—paying a uniform living wage with a basic benefits package—to all who are ready and willing to work. In advance of an upcoming report detailing the economic impact of the PSE, this policy note presents an overview of the goals and structure of the program in the context of current labor market trends and the prospects of poverty reduction.

Fonte: Guaranteed Jobs through a Public Service Employment Program | Levy Economics Institute

Análise de sentimento do COPOM com R (parte 2: replicando a base de dados)

Inspirado no artigo “Quando as palavras contam a história”, do Terraço Econômico, resolvi elaborar minha própria implementação do método, contribuindo para a comunidade. Vou mostrar então como eu fiz em alguns posts dessa série:

  1. Usando a base de dados
  2. Replicando a base de dados
  3. Analisando o sentimento

Nesse post eu vou explicar como eu fiz para baixar as atas do copom e ler elas no R.

Continuar lendo

Análise de sentimento do COPOM com R (parte 1: usando a base de dados)

Inspirado no artigo “Quando as palavras contam a história”, do Terraço Econômico, resolvi elaborar minha própria implementação do método, contribuindo para a comunidade. Vou mostrar então como eu fiz em alguns posts dessa série:

  1. Usando a base de dados
  2. Replicando a base de dados
  3. Analisando o sentimento

Resolvi começar pelo final, divulgando a base de dados já pronta, para que os colegas possam já começar a criar suas próprias análise, nuvem de termos, contagem de palavras, etc.

Continuar lendo