2017, Vol. 3(1): 53-64

PDF

    

Calcular e apresentar tamanhos do efeito em trabalhos científicos (2): Guia para reportar a força das relações

 

Artigo de Revisão   

 

Helena Espírito-Santo , Fernanda Daniel

 

https://doi.org/10.7342/ismt.rpics.2017.3.1.48

 

Recebido 26 fevereiro 2017

Aceite 28 fevereiro 2017

 

 

ÍNDICE

RESUMO

INTRODUÇÃO

A FAMÍLIA r (Parte 1)

CONCLUSÃO

REFERÊNCIAS

 

TOP

RESUMO

No primeiro número da Revista Portuguesa de Investigação Comportamental e Social foi descrita a importância de calcular, indicar e interpretar os tamanhos do efeito para as diferenças de médias de dois grupos. A RPICS pretende continuar a alertar para a importância de reportar os tamanhos do efeito para outros testes estatísticos. A magnitude da força das relações não foi indicada no artigo prévio e talvez não se saiba que a correlação é um tamanho do efeito. Assim, este artigo pretende fornecer algumas diretrizes aos autores sobre os procedimentos de cálculo do coeficiente de correlação de Pearson e alguns coeficientes de correlação para dados especiais (Ró de Spearman, Tau de Kendall, Ponto-bisserial e bisserial, Fi, V de Cramér e Eta).

Com esse objetivo, serão apresentadas as fórmulas, os passos no SPSS (Statistical Package for the Social Sciences), pressupostos e precauções, classificação dos valores e sua interpretação. Uma vez que o SPSS não computa todos os coeficientes referidos, nos suplementos ao artigo são incluídas cinco folhas de cálculo (3 formas de comparar correlações, correlações ponto-bisserial e bisserial e correção de correlações para amostras < 60.

 

Palavras chave: Tamanho do efeito · Coeficientes de correlação · Apresentação estatística · Interpretação estatística

 

TOP

INTRODUÇÃO

 

Recordando e sintetizando a revisão efetuada no nosso trabalho prévio (Espirito-Santo & Daniel, 2015), indicámos que para todos os testes estatísticos é útil calcular e interpretar os tamanhos do efeito (TDE), havendo um índice diferente consoante o teste estatístico (J. Cohen, 1992; Ellis, 2010).

A apresentação dos TDE é muito importante na apresentação dos resultados das análises estatísticas, pois a) os TDE não dependem da dimensão da amostra (como o valor do p); b) ajudam a perceber o significado dos resultados e c) constituem um índice análogo para comparar resultados de estudos diferentes (Bezeau & Graves, 2001; Cumming, 2012; Ferguson, 2009; Kline, 2013; Lipsey et al., 2012; Olejnik & Algina, 2000; Snyder & Lawson, 1993).

Por todas estas razões, o cálculo dos TDE é também essencial para os estudos de metanálise (Berben et al., 2012; Cumming, 2012; Kline, 2013; Lipsey et al., 2012; Rosenthal, 1991).

Recorde-se que o TDE tanto indica a estimativa da diferença de uma medida entre duas ou mais observações (família d), como a magnitude da relação entre variáveis (família r) (Hedges, 1981; Rosenthal & DiMatteo, 2001).

A família d foi abordada na nossa revisão prévia, pelo que agora avançamos para a família r.

A família r inclui vários índices de associação relativos a duas ou mais variáveis: a) as medidas de correlação (p. ex., r, rS, t, rpb) e b) as medidas de proporção de variância (p. ex., f, f2,  h2, e2, v2) (Hedges, 1981; Rosenthal & Rubin, 1982).

Outra diferenciação que importa fazer entre TDEs diz respeito à correção ou não do enviesamento (Ellis, 2010; Rosenthal, 1991; Thompson, 2007). Assim, vimos que o d de Cohen é um índice que pode sobrestimar o efeito, podendo ser corrigido através do g de Hedges (Espirito-Santo & Daniel, 2015). Na família r, a correção inclui vários índices alternativos, como o coeficiente de determinação múltipla (R2ajust), o ómega quadrado (w2) ou o épsilon quadrado (e2) (Snyder & Lawson, 1993).

Em síntese, os objetivos deste estudo de revisão são apresentar a primeira parte da família r, suas equações matemáticas, procedimentos no SPSS, pressupostos, formas de corrigir potenciais enviesamentos e indicações de interpretação. Os nossos objetivos, ainda assim, não são exaustivos, pretendendo descrever somente utilizações genéricas que o investigador pode encontrar nas áreas das ciências sociais e comportamentais.

 

TOP

A FAMÍLIA r (Parte 1)

Coeficientes de Correlação

Existem vários coeficientes de correlação, sendo o de Pearson o mais usado. A escolha do tipo de coeficiente está dependente da escala de medida usada (e.g., intervalar, de razão, ordinal ou nominal) ou da forma da relação (linear ou não-linear) (Berben, Sereika, & Engberg, 2012; Breaugh, 2003; J. Cohen, Cohen, West, & Aiken, 2003; Rosenthal & DiMatteo, 2001). Quando se usa um qualquer coeficiente de correlação, talvez não se saiba que é em si mesmo uma medida do tamanho do efeito e, tal como o d de Cohen, é uma medida padronizada (Rosnow & Rosenthal, 1996). Por esse motivo, o coeficiente de correlação é comparável entre estudos.

O valor de p que habitualmente acompanha a apresentação das correlações, e que é afetado pelo tamanho da amostra, indica se a relação é atribuível ao acaso ou não (Berben et al., 2012; Snyder & Lawson, 1993).[1] No entanto, é importante acrescentar que se pode ter uma correlação baixa e, no entanto, o valor do p ser estatisticamente significativo. Isto acontece, especialmente em estudos com grandes amostras (n > 100). Inversamente, em amostras pequenas (n < 30) podem encontrar-se correlações moderadas que não atingem significância estatística (Pallant, 2011).

Face ao uso extensivo da correlação de Pearson, esta revisão vai ser dedicada especialmente a este coeficiente. As equações matemáticas e as indicações para usar o coeficiente r de Pearson e para os restantes coeficientes de correlação são apresentadas previamente no Quadro 1.

 

QUADRO 1. Equações Matemáticas e Indicações de Uso para as Várias Estimativas de Correlação da Família r dos Tamanhos do Efeito [Clique para abrir]

 

Coeficiente de correlação r de Pearson. Este coeficiente quantifica a força e direção da relação linear entre duas variáveis e é representada pela letra “r”.  Os valores de r podem variar entre -1 e 1 (Pearson, 1904). Quando duas variáveis não se correlacionam entre si, r é igual a zero, e quando se correlacionam totalmente, r é igual a 1 (ou r = -1) (Pearson, 1904).

Pressupostos e cautelas. Antes de se efetuar a análise correlacional há que verificar um conjunto de fatores que podem afetar a devida interpretação do coeficiente de correlação.

Linearidade da relação. A correlação de Pearson mede a força da relação linear entre variáveis (J. Cohen et al., 2003; Tabachnick & Fidell, 2007). Quando a relação entre as variáveis é curvilínea ou não-linear (Figura 1), a correlação aparece com um valor muito baixo (J. Cohen et al., 2003; Goodwin & Leech, 2006).

 

Figura 1. Diagrama de dispersão bivariado demonstrando uma relação curvilínea. [Clique aqui para abrir]

 

Nos casos em que a relação é curvilínea pode usar-se o Eta (ver em baixo no subcapítulo “Coeficientes de correlação para dados especiais”) ou pode tentar-se a transformação logarítmica, da raiz-quadrada ou da potência de uma ou de ambas variáveis (Abrami, Cholmsky, & Gordon, 2001).

A melhor forma de verificar a linearidade da relação entre duas variáveis é analisar o diagrama de dispersão. Quanto mais os pontos se apresentarem próximos de uma linha reta no diagrama de dispersão[2], maior o grau de sobreposição/partilha da sua variância. Ou seja, mais alta será a correlação (J. Cohen et al., 2003; Pallant, 2011). Nestes casos, o diagrama de dispersão (Figura 2) tem uma forma oval (Tabachnick & Fidell, 2007).

 

Figura 2. Diagrama de dispersão bivariado demonstrando uma relação linear. [Clique aqui para abrir]

 

Normalidade. As pontuações em cada variável contínua devem ter distribuição normal, aspeto que pode ser verificado através do teste de Kolmogorov-Smirnov, e análise da curtose (grau de achatamento da distribuição) e obliquidade (grau de simetria da distribuição) (Pallant, 2011; Tabachnick & Fidell, 2007). A estratégia mais segura é realizar a transformação das variáveis para melhorar a sua distribuição, a não ser que haja alguma razão forte para o não fazer. Alguns métodos comuns de transformação podem ser revistos em Tabachnick e Fidell (2007, pp. 86-88) ou pode seguir-se a abordagem dos dois passos sugerida por Templeton (2011).

Homoscedasticidade. A variância das duas variáveis deve ser homogénea (Pallant, 2011), e ainda que o incumprimento deste pressuposto não impeça a análise, esta fica enfraquecida (Tabachnick & Fidell, 2007). O diagrama de dispersão deve apresentar, assim, uma mancha de largura uniforme.

A falha na homoscedasticidade (heterocedasticidade) advém da não-normalidade da distribuição de uma das variáveis ou do facto de uma variável resultar de alguma transformação da outra. A heterocedasticidade pode resultar também de um maior erro de mensuração em alguns níveis da variável independente (Tabachnick & Fidell, 2007, p. 85). Por exemplo, a habilidade de discriminação visual relaciona-se com a velocidade de reação e tende a ser melhor entre os 20 e os 40 anos (Fortenbaugh et al., 2015). Assim, as medições dos tempos de reação nos mais novos e nos mais idosos serão menos fidedignas, aumentando a variância da velocidade de reação nestas idades.[3]

Valores atípicos. Os valores não-usuais ou outliers são valores que se afastam dos restantes dados, podendo ser encontrados quer em variáveis contínuas quer dicotómicas (Tabachnick & Fidell, 2007). Em alguns casos (e.g., amostras pequenas), mesmo a existência de poucos ou até mesmo de um só valor atípico pode prejudicar os resultados e sua interpretação (J. Cohen et al., 2003). Os valores atípicos podem aumentar a correlação artificialmente nuns casos, ou diminuir a verdadeira correlação noutras situações (Glass & Hopkins, 1995; J. Cohen et al., 2003). Estes valores podem ser detetados através da observação das caixas de bigodes (boxplots), das tabelas de frequência (mais limitado) ou dos diagramas de dispersão 1(J. Cohen et al., 2003).  Os valores atípicos podem resultar de erros de introdução de dados que convém verificar (p. ex., escrever 11 em vez de 1) (Tabachnick & Fidell, 2007) ou do facto de os sujeitos não terem percebido as instruções (Cohen, 2001). Se não for esse o caso, são valores que podem ser removidos ou alterados para um valor menos extremo [para mais sugestões, consultar Tabachnick e Fidell (2007, p. 73)].

Valores omissos. Os dados em falta podem afetar as análises e invalidar as interpretações (Nakagawa & Freckleton, 2008) ou afetando a generalização dos resultados (Tabachnick & Fidell, 2007). No SPSS através do comando Descritivas [Descriptives] pode determinar-se qual a percentagem de dados omissos [missings] e através da Análise de Valor Omisso [Missing Values Analyses] determinar se ocorrem ao acaso ou se existe um padrão de casos omissos (Pallant, 2011). A seriedade dos casos omissos depende do padrão, do número de casos e da razão para a omissão, sendo o mais sério a existência de um padrão (Tabachnick & Fidell, 2007). 

Existem vários métodos para lidar com os dados ausentes. Uma das formas é eliminar casos ou variáveis, mas suponha-se que a ausência de resposta se relaciona com uma das variáveis de interesse. Então a remoção dos casos irá distorcer a análise dessa variável (Tabachnick & Fidell, 2007). Outros métodos envolvem a imputação (i.e., preencher com) com valores substitutos razoáveis, baseando-se noutros valores caso a caso ou na distribuição da variável em análise. Estes métodos permitem manter o tamanho da amostra e evitar a perda de poder estatístico.  O leitor interessado pode consultar alguns dos muitos trabalhos dedicados a este assunto (e.g., the Alzheimer's Disease Neuroimaging Initiative, 2015; Bartlett et al., 1977; He, Zaslavsky, Landrum, Harrington, & Catalano, 2010; Horton & Kleinman, 2007; Rubin, 1996; Tabachnick & Fidell, 2007).

Independência das observações. As variáveis devem ser independentes e não ser influenciadas uma pela outra (Pituch & Stevens, 2015). Na análise correlacional é problemático usar as pontuações individuais de sujeitos cuja/cujo aprendizagem/intervenção/tratamento ocorreu no contexto de pequenos grupos. Neste contexto, o comportamento de cada elemento influencia o desempenho grupal, havendo dependência nas medições. Nas correlações, mesmo uma pequena quantidade de dependência nas observações aumenta o alfa várias vezes acima do nível de significância (Pituch & Stevens, 2015). Uma solução para este problema é restringir o nível de significância para 0,01 (Pituch & Stevens, 2015). Quando grupos pequenos estão envolvidos em algum tipo de tratamento/intervenção, outro recurso é considerar-se a média do grupo como unidade de análise (Pituch & Stevens, 2015).

Cautela com leque restrito de observações. O valor do r será sempre maior quando maior for a variabilidade das observações (Goodwin & Leech, 2006). Assim, é necessário ser-se cauteloso ao interpretar as pontuações obtidas em populações especiais que podem restringir a amplitude da variação (Pallant, 2011; Tabachnick & Fidell, 2007). Por exemplo, frequentemente em pessoas idosas institucionalizadas a variação obtida nas pontuações do Mini-Mental State Examination é mais limitada (Costa et al., 2013) do que a obtida em pessoas idosas avaliadas no contexto hospitalar (Fermino et al., 2012). Para outro exemplo muito interessante, veja-se a descrição de Sprinthall (2003) relativamente ao estudo de Fancher (1985) sobre a descida do QI com a idade, explicável pela descida da variabilidade das pontuações do QI (Goodwin & Leech, 2006).

Por este motivo, ou se procura amostras diversificadas por forma a obter um coeficiente de correlação preciso e fidedigno ou não se pode generalizar a correlação obtida para amostras de outras proveniências (Pallant, 2011). Quando uma correlação é muito baixa por causa da restrição da gama de pontuações, pode computar-se a sua magnitude através da Equação (1), se se conseguir estimar o desvio-padrão a partir de dados prévios ou do conhecimento sobre a distribuição na população (Tabachnick & Fidell, 2007). 

 rajust = (rT(XY) DPX / DPT(X) ) Raiz quadrada [(1 + r2T(XY) [DPX / DPT(X)] – r2T(XY)]             (1)

Onde rajust = correlação ajustada; rT(XY) = correlação entre as variáveis X e Y na gama das médias truncadas ou aparadas; DPX = desvio-padrão não restringido de X; DPT(X) = desvio-padrão truncado de X.

Cautela com a natureza da amostra. A correlação pode ser diferente de um grupo para o outro por causa das características dos sujeitos (Goodwin & Leech, 2006). Goodwin e Leech (2006) dão como exemplo o estudo de Glenberg (1996) em que a correlação entre viúvos/as e o desejo de recasar era positivo para os dois grupos separados (novos vs. velhos), mas no grupo total a relação era negativa.

Cautela com variáveis compósitas. Se as variáveis em análise incluírem elementos ou itens em comum as correlações ficam inflacionadas. Por exemplo, no uso de questionários cujos índices resultam da soma de vários itens, se se correlacionarem índices do mesmo instrumento e esses índices contiverem itens em comum, então as correlações aumentam artificialmente. Assim, devem ser usadas somente uma das variáveis compósitas na análise (Tabachnick & Fidell, 2007).

Cautela com o formato da distribuição de X e Y. O formato da distribuição das pontuações das variáveis é um fator a ter em consideração, pois afeta a força da correlação (Goodwin & Leech, 2006). Assim, quanto mais idêntico for o formato das distribuições de X e Y, maior o valor da correlação (Glass & Hopkins, 1995; Goodwin & Leech, 2006).  Carroll (1961) mostrou que o valor máximo que a correlação pode atingir depende da similitude da simetria e curtose entre as duas distribuições. Portanto, o valor máximo da correlação desce quando a simetria e a curtose das duas distribuições são diferentes. Isto é especialmente verdade em correlações que já de si seriam altas. Goodwin e Leech (2006) mostraram que uma correlação de 0,90 entre duas variáveis com formato de distribuição semelhante desce para 0,80 ou 0,70 ao alterar-se esse formato numa das distribuições.

Sinal da correlação. O sinal da correlação indica a direção da relação. Assim, as correlações com sinal positivo são sugestivas de uma relação linear positiva (o aumento numa variável acompanha-se do aumento na outra ou a descida de uma acompanha-se da descida da outra). As correlações de sinal negativo indicam uma relação linear inversa (a subida de pontuações de uma variável acompanha-se da descida de pontuações da outra variável) (Rosenthal, 1991; Shieh, 2010; Tabachnick & Fidell, 2007).

Nunca é demais destacar que uma correlação negativa se refere à direção da relação e não à força da relação (Pallant, 2011). Assim, quando no estudo de Simões, Ferreira, Braga e Vicente (2015) se encontrou uma correlação negativa (r = -0,36; p < 0,05) entre a comunicação com o pai e a conduta agressiva na escola em 50 adolescentes portugueses, isso significa que quanto mais o pai comunica com o seu filho adolescente menor a conduta agressiva na escola.

Força da correlação. Os valores da força de uma relação, entre os extremos -1 e 1, foram definidos por Karl Pearson (1904) como “altos” quando se situavam entre 0,75 e 1; “consideráveis” quando se localizavam entre 0,50 e 0,75; “moderados” entre 0,25 e 0,50 e “baixos” entre 0 e 0,25.

Com Cohen (1988) ficou estabelecida uma das classificações mais usadas: “grande” 0,50 a 1,00; “moderada” de 0,30 a 0,49 e “pequena” de 0,10 a 0,29.

Se se preferir uma classificação mais minuciada, pode recorrer-se à de Hinkle, Wiersma e Jurss (2003): 0,90 a 1,00 “Muito alta”; 0,70 a 0,90 “Alta”; 0,50 a 0,70 “Moderada”; 0,30 a 0,50 “Baixa”; 0,10 a 0,30 “Pequena”.

Todas as diretrizes aplicam-se quer a correlações positivas, quer as correlações negativas.

Tome-se o sistema de classificação que se tomar, os valores entre 0 e 1 não fazem parte de métricas a que se esteja habituado e o seu significado não é intuitivo. Entra aqui a propósito o coeficiente de determinação (r2) que se refere à proporção de variância partilhada entre duas variáveis. Apesar do fraseado matemático poder assustar alguns, ele obtém-se muito simplesmente calculando o quadrado do valor r e multiplicando-o por 100 (J. Cohen & Cohen, 1983). Assim, o valor de -0,36 atrás referido do estudo de Simões et al. (2015) converte-se em -0,36 x -0,36 = 0,1296, ou seja, 13% da variância da comunicação com o pai é partilhada com a variância da conduta agressiva na escola. Dito ainda de outro modo, 13% da variância conduta agressiva na escola por parte de adolescentes pode ser atribuída à comunicação com o pai.

Interpretação e significado prático. Através do valor da correlação, do seu sinal e do coeficiente de determinação, já se sabe qual a força e direção de uma relação entre variáveis. Mas como se interpreta esse valor na área de estudo em que a relação se insere? Na interpretação dos valores de correlação e respetivos valores do p há que refletir sobre a questão da causalidade e do contexto do estudo e comparar com outras pesquisas na mesma área de investigação. Vamos então dividir esta secção em três aspetos.

Relação é causalidade? Comece-se já por negar esta ideia: a atribuição de causalidade não é uma inferência que se possa fazer a partir da análise correlacional, ainda que possa parecer uma inferência lógica (Cohen, 1988). Acrescente-se ainda que nem mesmo de correlações muito elevadas se pode estabelecer causalidade (Shieh, 2010).

Assim, a correlação entre as variáveis X e Y, tanto pode decorrer de X causar Y ou de Y causar X. Por vezes, X e Y podem ser causa e efeito ao mesmo tempo. O exemplo de Huff (1993) insere-se nessa categoria: a correlação entre rendimentos e a posse de ações cotadas na bolsa pode resultar do facto de se conseguir comprar mais ações por se ter mais dinheiro e de se fazer mais dinheiro por se ter mais ações.

Pode ainda acontecer que X e Y são causadas por uma terceira variável W (habitualmente designada por variável espúria ou de confusão). Por exemplo, a relação entre a demência e a depressão na população idosa está bem estabelecida. No entanto, a doença vascular pode ser uma variável que explica a relação entre depressão e a demência, sendo um fator causal para as duas variáveis[4] (Butters et al., 2008). O ideal é avaliar a terceira variável na mesma altura e depois, pode usar-se a correlação parcial para controlar o papel da variável adicional (Pallant, 2011).

A correlação entre duas variáveis pode ainda decorrer sem a presença de uma variável de confusão óbvia. O exemplo real fornecido por Matthews (2000) ilustra bem esta ideia. O autor encontrou uma correlação alta (r = 0,62; p = 0,008) entre o número de cegonhas brancas (Ciconia ciconia) de várias partes da Europa e o número de nascimentos de bebés. Esta correlação não permite (à partida) tirar conclusões importantes e, muito menos, inferir que as cegonhas entregam os bebés (Matthews, 2000). Uma potencial variável de confusão será a dimensão da área geográfica onde os registos de cegonhas e de nascimentos teve lugar (Matthews, 2000). Mas mais importante que isso, é reforçar o que já sublinhámos no artigo anterior (Espirito-Santo & Daniel, 2015) e que Matthews (2000) também conclui: um valor do p significativo só permite rejeitar a hipótese nula, e por muito grande que seja não permite afirmar que a hipótese substantiva é correta.

Contexto dos dados. O contexto do estudo pode transformar uma correlação baixa numa relação relevante, e transformar uma correlação alta numa relação irrelevante. Por exemplo, uma correlação classificada como baixa (r = 0,26) no domínio da ideação suicidária (correlação entre “desespero” e o “desejo de cometer uma tentativa ativa de suicídio”) (Mendonca & Holden, 1996) pode, ainda assim, ser clinicamente relevante. Em contraste, a correlação acima referida entre o número de cegonhas brancas e o número de nascimentos de bebés não terá interesse de maior.

No contexto do tratamento pode ser útil acrescentar a leitura da reflexão de Rosenthal e Rubin (1982) e Rosenthal e DiMatteo (2001), onde é mostrado como correlações baixas podem corresponder a taxas de sucesso altas e as vantagens de mostrar o tamanho do efeito binomial.

Comparação com outras pesquisas. A comparação com outros estudos na mesma área de investigação deve ser tida sempre em conta para determinar o significado prático de um coeficiente de correlação. Assim, por exemplo, no estudo de Chiu, Hong e Chiu (2013) a correlação entre o tempo de uso do telemóvel e da internet variou entre 0,34 e 0,35 (11,6-12,3%), mostrando-se pouco importante quando comparada com a obtida por Beranuy, Oberst, Carbonell e Chamarro (2009) (r = 0,52; 27,0%).

Cautela com séries que aumentam ao longo do tempo. Se as variáveis consistirem em séries de valores que aumentam ao longo do tempo, então a interpretação do coeficiente de correlação deve ser prudente. Neste tipo de situação, a correlação tende a ser inflacionada (Granger & Newbold, 1974). Um exemplo clássico relatado por Huff (1993) é o da correlação entre o salário de padres metodistas na Nova Inglaterra entre 1860 e 1940 e a quantidade de rum vendido na Jamaica. A única verdadeira ligação aqui é que ambos os valores mudaram ao longo do tempo. Para além de que havia uma ou duas variáveis espúrias ou de confusão e que foram o aumento da população entre 1860 e 1940 e o aumento do preço de quase tudo. A forma apropriada para testar relações deste tipo é usar um procedimento que se designa por cointegração (Enders, 2015). Há ainda que ter em atenção à inferência que não se pode fazer ao observarem-se dois fenómenos a crescer ao mesmo tempo e que estão correlacionados. A existência dessa correlação não significa que se vá manter no tempo e que não possa mesmo inverter-se. Mais uma vez, tome-se o exemplo de Huff (1993). Se é verdade que quanto mais chove mais milho há (correlação positiva), se continuar a chover sem parar o milho pode ser destruído (correlação negativa).

Por fim, a questão da interpretação não se esgota no âmbito deste artigo e é importante saber que uma correlação pode ser interpretada de várias formas:  Rodgers e Nicewander (1988) indicaram treze formas de interpretar uma correlação e Rovine e von Eye (1997) acrescentaram uma décima quarta.

Correlações e outros testes estatísticos. Outro aspeto útil a reter é que a correlação r pode ser calculada através de várias outras estatísticas. Tal como, através do teste t de Student (Durlak, 2009):

r = Raiz quadrada [t2 / (t2 + gl)]                  (2)

Pode ainda ser calculada através do d de Cohen (Durlak, 2009):

r = Raiz quadrada [d / (d2 + 4)]                  (3)

Esta conversão pode ser útil, pois o r enquanto tamanho do efeito apresenta vantagens face ao dicotómico d de Cohen. De facto, o r, na sua forma ponto-bisserial (ver à frente), representa a relação entre os dois níveis da variável independente e as pontuações da variável dependente (Rosenthal & DiMatteo, 2001, p. 71). Para outras vantagens ler o artigo de Rosenthal e DiMatteo (2001), com destaque para a importância prática do r face ao d.

Ou do g de Hedges (Durlak, 2009):

r = Raiz quadrada [g2n1n2 / (g2 n1n2 + (n1n2)gl)]               (4)

Enviesamentos e correções das correlações. Note-se que apesar da facilidade que os programas informáticos trouxeram à computação das correlações e não obstante o uso generalizado, o coeficiente de correlação de Pearson é uma estimativa que pode ser enviesada (Shieh, 2010; Wang & Thompson, 2007).

A distribuição de r não é normal. De facto, o coeficiente de correlação r subestima ligeiramente o valor numa população (r), pois a distribuição de r é assimétrica, tendendo a enviesar para cima (Fisher, 1921). Ou seja, quanto mais altas as correlações, mais difícil é aumentá-las. Assim, a diferença entre uma correlação de 0,90 e outra de 0,80 é muito maior do que a diferença entre uma correlação de 0,20 e uma de 0,10. Para melhor compreender isto, basta recordar o coeficiente de determinação r2. Então, a diferença entre 0,90 (r2 = 0,81; 81%) e 0,80 (r2 = 0,64; 64%) é de 17 pontos percentuais e entre 0,20 (r2 = 0,04; 4%) e 0,10 (r2 = 0,01; 1%) é de 3 pontos percentuais.

Fisher (1915; 1924), ao considerar este problema, criou duas equações para corrigir o r. A primeira é tão complexa que raramente é usada (Wang & Thompson, 2007). A segunda, que o próprio considerou mais útil (Fisher, 1921), ficou designada por transformação z de Fisher, apresentando-se como se segue:

z = log10 (1 + r) – log10 (1 – r)                     (5)

Pela sua importância, nos suplementos incluímos uma folha de cálculo em Excel que faz essa transformação (Suplemento 1). Destaque-se que quando r é inferior a 0,25, a diferença entre z e r é mínima, mas aumenta com valores de r maiores. Por exemplo, uma correlação de 0,45 corresponde a um valor z de 0,49 e uma correlação de 0,87 a um valor z de 1,33.

Enviesamento relacionado com o tamanho da amostra. Outro enviesamento decorre de os efeitos não-corrigidos do tamanho da amostra tenderem a sofrer de enviesamento positivo. Muito especialmente, quando as amostras são pequenas, os valores do r de Pearson podem sofrer um enviesamento positivo bastante considerável, mesmo com dados normalmente distribuídos (Thompson, 2006).

Sempre que um estudo contenha 60 participantes ou menos, sugere-se então que se use uma fórmula de correção. A utilização de uma fórmula de correção é desnecessária quando o estudo for efetuado numa área onde tradicionalmente os tamanhos do efeito são grandes (Wang & Thompson, 2007).

Uma das equações de correção mais adequadas é a de Ezekiel (1929) que tem como vantagem ser calculada no SPSS, ao computar-se o r2 no comando da regressão (Wang & Thompson, 2007). Outra das equações de correção com provas dadas (Wang & Thompson, 2007), é a de Smith (1923). Para ambas as equações, nos suplementos é apresentada uma folha de cálculo em Excel que facilitará a sua computação.

Comparações entre correlações. Como já se referiu em cima, a distribuição do r não é normal, e as diferenças entre correlações altas (p. ex., 0,85 e 0,90) é maior do que entre correlações baixas (p. ex., 0,15 e 0,10). Recorde-se o coeficiente de determinação também já referido atrás para entender o porquê. Afortunadamente, a transformação em z desenvolvida por Fisher (1921), que permite que a distribuição se aproxime da normal, já possibilita a comparação entre correlações, determinando se a diferença entre elas é significativamente diferente.

No entanto, existem três processos consoante se quer comparar correlações de amostras independentes, de amostras dependentes ou de amostras dependentes com uma variável em comum. As equações são as que a seguir se descrevem.

Para a comparação entre correlações de amostras independentes, primeiro cada coeficiente de correlação é convertido em pontuação z através da Equação (5). Depois, as duas pontuações z são confrontadas através da equação seguinte (J. Cohen & Cohen, 1983):

Zobs = (z1z2) / Raiz quadrada [(1 / n1 – 3) + (1 / n2 – 3)]                       (6)

Com z1 a corresponder à transformação z da correlação 1; z2 a corresponder à transformação z da correlação 2; n1 ao tamanho da amostra para a correlação 1 e n2 ao tamanho da amostra para a correlação 2. Os valores de Zobs acima de |1,96| são considerados significativos e acima de |2,58| muito significativos (J. Cohen & Cohen, 1983).

Quando se quer comparar correlações em amostras dependentes, ou seja, quer verificar-se se as correlações entre X e Y e entre W e V da mesma amostra diferem em magnitude. Ora, uma vez que a significância depende das intercorrelações par a par entre todas as variáveis envolvidas (X, Y, W e V), então tem de se entrar com parâmetros adicionais. Assim a primeira etapa é a mesma: conversão da correlação em valor z através da Equação (5). De seguida, usam-se as Equações 7 e 8 de Steiger (1980, pp. 245, 247) para determinar a covariância assimptótica das estimativas (Quadro 2). Estes valores são usados num teste z assimptótico.

Em amostras dependentes com uma variável em comum, i.e., quando se quer comparar as correlações entre X e Y e entre W e Y e verificar se apresentam uma magnitude diferente, o procedimento é o seguinte: a primeira etapa é ainda a mesma (Equação 5), seguindo-se o cálculo por meio das Equações 9 e 10 de Steiger (1980, pp. 245, 247) para determinar a covariância assimptótica das estimativas e usá-las num teste z assimptótico (Quadro 2).

 

 

 

QUADRO 2

Equações 7 a 9 de Steiger (1980)

 

 

k = (rWYrWXrXY)(rXVrXYrYV) + (rWVrWYrYV)(rXYrWXrWY) + (rWYrWVrYV)(rXVrWXrWV) + (rWVrWXrWV)(rXYrXVrYV)      (7)

c = [½ ¯r2( r2WY +  r2WV +  r2XY  + r2XV) + rWY + rXV+ rWV rXY – ( ¯r rWY rWV + ¯r rXY rXV +  rWY rXY¯r +  rWV rXV¯r)] / (1 – ¯r2)2          (8)

k = rXY (1 – r2WX r2WY) – ½ ( rWX  rWY) (1 -  r2WX r2WY r2XY )        (9)

c = [rXY (1 - 2 ¯r2) – ½ ¯r2 (1 – 2 ¯r2 r2XY)] / (1 – ¯r2)2     (10)

 

 

 

 

 

 

Para agilizar os cálculos, no Suplemento 1, existem três folhas de cálculo que permitem fazer essas comparações. Nas folhas de cálculo são apresentados todos os passos e a interpretação do tamanho do efeito q que consiste na comparação entre os valores z. Na mesma folha é também indicado se a diferença entre os valores z das correlações é significativa ou não.

Assim, como exemplo da comparação entre correlações de amostras independentes, repare-se nos dados do estudo de (Napoleão, Monteiro, & Espirito-Santo, 2016). Neste estudo, verificou-se que a correlação entre o Índice de Qualidade Subjetiva do Sono e os sintomas depressivos medidos pela Geriatric Depression Scale foi de 0,39 em 70 pessoas idosas institucionalizadas e de 0,35 em 70 não-institucionalizadas. Os valores z respetivos são de 0,41 e 0,37, sendo a diferença não significativa (Zobs = 0,27) e com um tamanho do efeito (q) trivial de 0,05.

Coeficientes de correlação para dados especiais. Quando os pressupostos do coeficiente de Pearson não são cumpridos ou quando a natureza das variáveis assim o exige, existe a possibilidade de optar por outros coeficientes. Vamos desenvolver aqui os mais usados.

Correlação por postos de Spearman. O Ró de Spearman é um coeficiente de correlação não-paramétrico a escolher quando os dados não apresentam distribuição normal ou quando a presença de valores atípicos distorce a associação entre as variáveis X e Y (Pallant, 2011). Da mesma forma que a correlação Pearson, varia entre -1 e 1 e consiste na correlação entre os postos de dois conjuntos de observações (J. Cohen & Cohen, 1983). Por postos entende-se a posição ordinal da observação ou caso na variável. Ver o Quadro 1 para consultar a Equação 1.2 e comandos no SPSS. As cautelas, força da correlação, direção e interpretação seguem as diretrizes das enunciadas para as correlações de Pearson.

Tau de Kendall. O tau de Kendall é igualmente uma medida de associação por postos (Kendall, 1938). Este tipo de correlação usa-se quando as duas variáveis são então medidas em uma escala de medida ordinal. É similarmente um medida não-paramétrica que varia entre -1 e 1. O Tau de Kendall é uma opção favorável comparativamente com o Ró de Spearman porque pode ser generalizado para um coeficiente de correlação parcial. Existem fórmulas de cálculo do tau que entram em linha de conta com a existência ou não de empates e com o formato da tabela (Nelsen, 2012).

Correlações ponto-bisserial e bisserial. Este tipo de correlação é uma versão curta da correlação de Pearson (Nunnally, 1994) que se utiliza quando uma variável é contínua e a outra é dicotómica, assumindo os valores 0 e 1 (Gupta, 1960; Tabachnick & Fidell, 2007). A designação bisserial deriva do facto de haver duas séries de pessoas observadas em Y (aqueles que pontuam 0 e os que pontuam 1 na variável X) (Glass & Hopkins, 1995). O valor que se obtém com a correlação ponto-bisserial é o mesmo da correlação de Pearson (e daí o comando ser o mesmo no SPSS).

Registe-se que quanto mais a distribuição de Y se afastar de 50/50, mais restritos se tornam os valores da correlação (Glass & Hopkins, 1995). O valor fica ainda muito baixo se a maior parte (> 90%) das respostas na variável dicotómica caírem numa categoria (Tabachnick & Fidell, 2007). Veja-se um exemplo menos dramático da descida da correlação quando se dicotomiza uma variável. No Projeto Trajetórias do Envelhecimento do Instituto Superior Miguel Torga (PTE) foram avaliadas 1040 pessoas idosas através do Geriatric Depression Scale (GDS) e do Geriatric Anxiety Inventory (GAI). A correlação das pontuações do GDS com o GAI foi de 0,80 (p < 0,001; r2 = 64,0%). através do ponto de corte de 13, a variável GAI foi dicotomizada na binária GAI2, onde 1 corresponde a “poucos sintomas ansiosos” e 2 a “muitos sintomas ansiosos”. A correlação entre o GDS e o GAI2 foi menor (r = 0,69; p < 0,001; r2 = 47,6%). A dicotomização resultou numa menor proporção da variância e é por isso que Cohen (1983) adverte contra este procedimento.

A correlação que está patente no exemplo de cima é, na verdade, uma correlação bisserial. Esta correlação é, na essência a mesma que a ponto-bisserial, mas o pressuposto é que existe uma variável contínua que subjaz a medida dicotómica (Glass & Hopkins, 1995). A bisserial fornece uma melhor estimativa e usa-se quando a variável contínua subjacente tem distribuição normal (Glass & Hopkins, 1995; MacCallum, Zhang, Preacher, & Rucker, 2002). A folha de cálculo no Suplemento 3 fornece a computação dos dois coeficientes.

No Quadro 1 pode examinar-se a Equação 1.3 e os comandos no SPSS. As precauções, força da correlação, direção e interpretação acompanham as diretrizes das expressas para as correlações de Pearson.

Note-se, no entanto, que nem sempre a correlação ponto-bisserial tem a possibilidade de chegar a 1,00, pois o seu máximo é determinado pela distribuição da variável dicotómica. Assim, para um número igual de pessoas em cada grupo, o máximo é de 0,80; para uma divisão de 90% a 10% já é somente de 0,59 e para 99% a 1% é de 0,27. Por isso há que interpretar à luz do máximo possível (Breaugh, 2003, p. 85).

Coeficiente Fi. Este coeficiente é outro caso especial da correlação de Pearson e consiste na correlação entre duas variáveis dicotómicas (Glass & Hopkins, 1995; MacCallum et al., 2002). Cohen (1988) designou-o ainda por coeficiente de correlação ponto quádrupla.

Por exemplo, no PTE poder-se-ia usar para o coeficiente Fi a medição da relação entre o sexo e a prática ou não de atividade física ( f = 0,08), revelando-se um valor muito pequeno segundo os critérios de Cohen (1988). De acordo com este autor, este coeficiente varia entre 0 e 1, com os valores mais altos a indicarem uma relação mais forte: entre 0,10 e 0,29 é pequeno; médio entre 0,30 e 0,49 e grande acima de 0,50.

Se as duas variáveis dicotómicas tiverem subjacentes variáveis contínuas, então usam-se as correlações tetracóricas (para o efeito consultar Glass & Hopkins, 1995; MacCallum et al., 2002).

Como o Fi é uma medida de correlação, ele é ainda uma medida do tamanho do efeito para o teste do qui-quadrado da independência (Gravetter & Wallnau, 2013).

Finalmente, para as limitações no uso do Fi, veja-se a revisão de Breaugh (2003, pp. 82-83)

Coeficiente V de Cramér. Consiste numa modificação do Fi e utiliza-se quando as duas variáveis são nominais (Gravetter & Wallnau, 2013). Para a classificação dos valores do V de Cramér praticam-se os mesmos critérios do coeficiente Fi (Cohen, 1988).

Ainda, tal como o coeficiente Fi, o V de Cramér usa-se para representar a força da associação na análise do qui-quadrado (Ferguson, 2009).

Eta. O rácio de correlação ou Eta foi definido por Pearson (1905) como a medida de associação entre variáveis independentes (categorial ou ordinal) e dependentes (contínua ou de intervalo/razão) e varia entre 0 e 1.  Vogt (1999, p. 99) definiu o Eta como um coeficiente de correlação que não pressupõe que a relação entre as duas variáveis seja linear. Deste modo, aplica-se especialmente quando a relação entre as duas variáveis é curvilínea e nos casos em que não é adequado usar o coeficiente de correlação de Pearson (e.g., ansiedade e desempenho num teste[5]; ver Figura 1) (Brogden, 1949).

O Eta tanto é uma estimativa de correlação como um critério preditor para uma dada pontuação num teste, no entanto não é desejável selecionar um grupo com uma determinada pontuação, mas um grupo acima de uma determinada pontuação (Brogden, 1949). Aplica-se também quando uma das variáveis é nominal e a outra é contínua.

 

TOP

CONCLUSÃO

Concentrámo-nos neste artigo nos tamanhos do efeito referentes a uma das partes da família r — as magnitudes da correlação —, reservando para um próximo número a proporção da variância que também permite estimar a força da relação entre as duas variáveis.

Um desses índices foi já discutido neste artigo, o coeficiente de determinação, mas falta então rever os tamanhos do efeito relativos à regressão múltipla, regressão logística, ANOVA, ANCOVA e MANOVA.

Face à revisão efetuada, sublinhamos de novo aqui a importância de não tomar decisões dicotómicas de aceitar ou rejeitar um resultado com base no p, mas também de não o fazer com base no valor de um coeficiente de correlação e seus pontos de corte.

Recorde-se, todos os resultados devem ser interpretados à luz do contexto do estudo e ser contrastado com os valores de outras investigações.

Em conclusão, as diretrizes que fomos enunciando ao longo do artigo pretendem estimular a apresentação dos tamanhos do efeito, sem terem de se considerar regras absolutas. Esta prática é essencial para a comunicação e contraste de resultados dentro da comunidade científica, desde que devidamente enquadrada e refletida.

 

Conflito de interesses: nenhum.

Fontes de financiamento: nenhuma.

 

 

 

TOP

REFERÊNCIAS

Abrami, P. C., Cholmsky, P., & Gordon, R. (2001). Statistical analysis for the social sciences: An interactive approach. Boston: Allyn and Bacon. [Google Scholar]

 

Bartlett, J. W., Seaman, S. R., White, I. R., & Carpenter, J. R. (2015). Multiple imputation of covariates by fully conditional specification: Accommodating the substantive model. Statistical Methods in Medical Research, 24(4), 462-487. [Google Scholar]  [CrossRef]

 

Beranuy, M., Oberst, U., Carbonell, X., & Chamarro, A. (2009). Problematic Internet and mobile phone use and clinical symptoms in college students: The role of emotional intelligence. Computers in Human Behavior, 25(5), 1182-1187. [Google Scholar]  [CrossRef]

 

Berben, L., Sereika, S. M., & Engberg, S. (2012). Effect size estimation: Methods and examples. International Journal of Nursing Studies, 49(8), 1039-1047. [Google Scholar]  [CrossRef]

 

Bezeau, S., & Graves, R. (2001). Statistical power and effect sizes of clinical neuropsychology research. Journal of Clinical and Experimental Neuropsychology, 23(3), 399-406. [Google Scholar]  [CrossRef]

 

Breaugh, J. A. (2003). Effect size estimation: Factors to consider and mistakes to avoid. Journal of Management, 29(1), 79-97. [Google Scholar]  [CrossRef]

 

Brogden, H. E. (1949). A new coefficient: Application to biserial correlation and to estimation of selective efficiency. Psychometrika, 14(3), 169-182. [Google Scholar]  [CrossRef]

 

Butters, M. A., Young, J. B., Lopez, O., Aizenstein, H. J., Mulsant, B. H., Reynolds, C. F., . . . Becker, J. T. (2008). Pathways linking late-life depression to persistent cognitive impairment and dementia. Dialogues in Clinical Neuroscience, 10(3), 345-357.  [Google Scholar]  [Pmc]

 

Carroll, J. B. (1961). The nature of the data, or how to choose a correlation coefficient. Psychometrika, 26(4), 347-372. [Google Scholar]  [CrossRef]

 

Chiu, S. I., Hong, F. Y., & Chiu, S. L. (2013). An analysis on the correlation and gender difference between college students' internet addiction and mobile phone addiction in Taiwan. ISRN Addiction, 2013, 10-1155. [Google Scholar]  [CrossRef]

 

Cohen, B. H. (2001). Explaining psychological statistics (2nd ed.). New York, NY: Wiley. [Google Scholar]

 

Cohen, J. (1983). The cost of dichotomization. Applied Psychological Measurement, 7(3), 249-253. [Google Scholar]  [CrossRef]

 

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). New York, NY: Lawrence Erlbaum Associates. [Google Scholar]

 

Cohen, J. (1992). A power primer. Psychological Bulletin, 112(1), 155-159. [Google Scholar]  [CrossRef]

 

Cohen, J., & Cohen, P. (1983). Applied multiple regression/correlation analysis for the behavioral sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates. [Google Scholar]

 

Cohen, J., Cohen, P., West, S. G., & Aiken, L. S. (2003). Applied multiple correlation/regression analysis for the behavioral sciences. Mahwah, NJ: Lawrence Erlbaum Associates. [Google Scholar]

 

Costa, M. D., Espirito-Santo, H., Simões, S. C., Correia, A. R., Almeida, R., Ferreira, L., Conde, Â., . . . Lemos, L. (2013). 1549 - Correlates of elderly loneliness [Abstract]. European Psychiatry, 28(1), 1-6. [Google Scholar]  [CrossRef]

 

Cumming, G. (2012). Understanding the new statistics. New York, NY: Routledge. [Google Scholar]

 

Durlak, J. A. (2009). How to select, calculate, and interpret effect sizes. Journal of Pediatric Psychology, 34(9), 917-928. [Google Scholar]  [CrossRef]

 

Ellis, P. D. (2010). The essential guide to effect sizes: Statistical power, meta-analysis, and the interpretation of research results. Cambridge: Cambridge University Press. [Google Scholar]  [CrossRef]

 

Enders, W. (2015). Applied econometric time series (4th ed.). Hoboken, NJ: Wiley & Sons, Inc. [Google Scholar]

 

Espirito-Santo, H., & Daniel, F. B. (2015). Calcular e apresentar tamanhos do efeito em trabalhos científicos (1): As limitações do p < 0,05 na análise de diferenças de médias de dois grupos [Calculating and reporting effect sizes on scientific papers (1): p < 0.05 limitations in the analysis of mean differences of two groups]. Revista Portuguesa de Investigação Comportamental e Social, 1(1), 3-16. [Google Scholar]  [CrossRef]

 

Ezekiel, M. (1929). The application of the theory of error to multiple and curvilinear correlation. Journal of the American Statistical Association, 24(165A), 99-104. [Google Scholar]  [CrossRef]

 

Ferguson, C. J. (2009). An effect size primer: A guide for clinicians and researchers. Professional Psychology: Research and Practice, 40(5), 532-538. [Google Scholar]  [CrossRef]

 

Fermino, S., Espirito-Santo, H., Matreno, J., Daniel, F., Pena, I., Maia, S., . . . Gaspar, A. (2012). Diferenças sintomáticas, neuropsicológicas e sociodemográficas entre idosos com doença de Alzheimer e idosos com depressão [Symptomatic, neuropsychological, and sociodemographic differences between older people with Alzheimer's disease and older people with depression]. In Asociación Española de Psicología Conductual. (Ed.), Libro de Resúmenes de los Trabajos Aceptados en el V Congreso Internacional Y X Nacional de Psicología Clínica (p. 551).  [Google Scholar] [Handle]

 

Fisher, R. A. (1915). Frequency distribution of the values of the correlation coefficient in samples from an indefinitely large population. Biometrika, 10(4), 507-521. [Google Scholar]  [CrossRef]

 

Fisher, R. A. (1921). On the “probable error” of a coefficient of correlation deduced from a small sample. Metron, 1, 3-32.   [Google Scholar] [Handle]

 

Fisher, R. A. (1924). The distribution of the partial correlation coefficient. Metron, 3, 329-332.  [Google Scholar] [Handle]

 

Fortenbaugh, F. C., DeGutis, J., Germine, L., Wilmer, J. B., Grosso, M., Russo, K., & Esterman, M. (2015). Sustained attention across the life span in a sample of 10000: Dissociating ability and strategy. Psychological Science, 26(9), 1497-1510. [Google Scholar]  [CrossRef]

 

Glass, G. V., & Hopkins, K. D. (1995). Statistical methods in education and psychology (3rd ed.). Needham Heights, MA: Allyn & Bacon. [Google Scholar]

 

Goodwin, L. D., & Leech, N. L. (2006). Understanding correlation: Factors that affect the size of r. The Journal of Experimental Education, 74(3), 251-266. [Google Scholar]  [CrossRef]

 

Granger, C. W. J., & Newbold, P. (1974). Spurious regressions in econometrics. Journal of Econometrics, 2(2), 111-120. [Google Scholar]  [CrossRef]

 

Gravetter, F. J., & Wallnau, L. B. (2013). Statistics for the behavioral sciences (9th ed.). Belmont, CA: Cengage Learning. [Google Scholar]

 

Gupta, D. S. (1960). Point biserial correlation coefficient and its generalization. Psychometrika, 25(4), 393-408. [Google Scholar]  [CrossRef]

 

He, Y., Zaslavsky, A. M., Landrum, M. B., Harrington, D. P., & Catalano, P. (2010). Multiple imputation in a large-scale complex survey: A practical guide. Statistical Methods in Medical Research, 19(6), 653-670. [Google Scholar]  [CrossRef]

 

Hedges, L. V. (1981). Distribution theory for Glass's estimator of effect size and related estimators. Journal of Educational and Behavioral Statistics, 6(2), 107-128. [Google Scholar]  [CrossRef]

 

Hinkle, D. E., Wiersma, W., & Jurs, S. G. (2002). Applied statistics for the behavioral sciences (5th ed.). Boston: Houghton Mifflin. [Google Scholar]

 

Horton, N. J., & Kleinman, K. P. (2007). Much ado about nothing. The American Statistician, 61(1), 79-90. [Google Scholar]  [CrossRef]

 

Huff, D. (1993). How to lie with statistics. New York, NY: W. W. Norton & Company.  [Google Scholar]  [Url]

 

IBM. (2013). IBM SPSS modeler 16 algorithms guide. IBM Corporation. [Url]

 

Kendall, M. G. (1938). A new measure of rank correlation. Biometrika, 30(1/2), 81-93. [Google Scholar]  [CrossRef]

 

Kline, R. B. (2013). Beyond significance testing: Reforming data analysis methods in behavioral research (2nd ed.). Washington, DC: American Psychological Association. [Google Scholar]

 

Lipsey, M. W., Puzio, K., Yun, C., Hebert, M. A., Steinka-Fry, K., Cole, M. W., . . . Busick, M. D. (2012). Translating the statistical representation of the effects of education interventions into more readily interpretable forms. National Center for Special Education Research, Institute of Education Sciences. [Google Scholar]

 

MacCallum, R. C., Zhang, S., Preacher, K. J., & Rucker, D. D. (2002). On the practice of dichotomization of quantitative variables. Psychological Methods, 7(1), 19-40. [Google Scholar]  [CrossRef]

 

Matthews, R. (2000). Storks deliver babies (p = 0.008. Teaching Statistics, 22(2), 36-38. [Google Scholar]  [CrossRef]

 

Mendonca, J. D., & Holden, R. R. (1996). Are all suicidal ideas closely linked to hopelessness?. Acta Psychiatrica Scandinavica, 93(4), 246-251. [Google Scholar]  [CrossRef]

 

Nakagawa, S., & Freckleton, R. P. (2008). Missing inaction: The dangers of ignoring missing data. Trends in Ecology and Evolution, 23(11), 592-596. [Google Scholar]  [CrossRef]

 

Napoleão, M., Monteiro, B., & Espirito-Santo, H. (2016). Qualidade subjetiva do sono, sintomas depressivos, sentimentos de solidão e institucionalização em pessoas idosas [Subjective sleep quality, depressive symptoms, feelings of loneliness, and institutionalization in elderly people]. Revista Portuguesa de Investigação Comportamental e Social, 2(2), 12-24. [Google Scholar]  [Medra]

 

Nelsen, R. B. (2012). Kendall tau metric. In M. Hazewinkel (Ed.), Encyclopedia of mathematics.  [Google Scholar]  [Url]

 

Nunnally, J. C., & Bernstein, I. H. (1994). Psychometric theory (3rd ed.). New York, NY: McGraw-Hill. [Google Scholar]

 

Olejnik, S., & Algina, J. (2000). Measures of effect size for comparative studies: Applications, interpretations, and limitations. Contemporary Educational Psychology, 25(3), 241-286. [Google Scholar]  [CrossRef]

 

Pallant, J. (2011). SPSS survival manual: A step by step guide to data analysis using SPSS for Windows (4th ed.). Crows Nest, NSW: Allen and Unwin. [Google Scholar]

 

Pearson, K. (1904). Report on certain enteric fever inoculation statistics. British Medical Journal, 2(2288), 1243-1246. [Google Scholar]  [CrossRef]

 

Pearson, K. (1905). Mathematical contributions to the theory of evolution XIV: On the general theory of skew correlation and non-linear regression. Draper’s Company Research Memoirs, Biometric Series II. London: Dulau & Co.  [Google Scholar]  [Url]

 

Pituch, K. A., & Stevens, J. P. (2015). Applied multivariate statistics for the social sciences (6th ed.). New York, NY: Routledge. [Google Scholar]

 

Rodgers, J. L., & Nicewander, W. A. (1988). Thirteen ways to look at the correlation coefficient. The American Statistician, 42(1), 59-66. [Google Scholar]  [CrossRef]

 

Rosenthal, R. (1991). Meta-analytic procedures for social research (Revised edition). Newbury Park, California: Sage publications. [Google Scholar]

 

Rosenthal, R., & DiMatteo, M. R. (2001). Meta-analysis: Recent developments in quantitative methods for literature reviews. Annual Review of Psychology, 52(1), 59-82. [Google Scholar]  [CrossRef]

 

Rosenthal, R., & Rubin, D. B. (1982). A simple, general purpose display of magnitude of experimental effect. Journal of Educational Psychology, 74(2), 166-169. [Google Scholar]  [CrossRef]

 

Rosnow, R. L., & Rosenthal, R. (1996). Computing contrasts, effect sizes, and counternulls on other people's published data: General procedures for research consumers. Psychological Methods, 1(4), 331-340. [Google Scholar]  [CrossRef]

 

Rovine, M. J., & Von Eye, A. (1997). A 14th way to look at a correlation coefficient: Correlation as the proportion of matches. The American Statistician, 51(1), 42-46. [Google Scholar]  [CrossRef]

 

Rubin, D. B. (1996). Multiple imputation after 18+ Years. Journal of the American Statistical Association, 91(434), 473-489. [Google Scholar]  [CrossRef]

 

Shieh, G. (2010). Estimation of the simple correlation coefficient. Behavior Research Methods, 42(4), 906-917. [Google Scholar]  [CrossRef]

 

Simões, S., Ferreira, J. J., Braga, S., & Vicente, H. T. (2015). Bullying, vinculação e estilos educativos parentais em adolescentes do 3º ciclo do ensino básico [Bullying, attachment and parental rearing styles in adolescents from the 3rd cycle of basic school]. Revista Portuguesa de Investigação Comportamental e Social, 1(1), 30-41. [Google Scholar]  [Medra]

 

Smith, B. B. (1923). Handbook of statistical terms and methods. Bureau of Agricultural Economics. [Google Scholar]

 

Snyder, P., & Lawson, S. (1993). Evaluating results using corrected and uncorrected effect size estimates. The Journal of Experimental Education, 61(4), 334-349. [Google Scholar]  [CrossRef]

 

Sprinthall, R. C. (2003). Basic statistical analysis (7th ed.). Boston: Pearson Allyn & Bacon. [Google Scholar]

 

Steiger, J. H. (1980). Tests for comparing elements of a correlation matrix. Psychological Bulletin, 87(2), 245-251. [Google Scholar]  [CrossRef]

 

Tabachnick, B. G., & Fidell, L. S. (2007). Using multivariate statistics (5th ed.). Boston: Pearson. [Google Scholar]

 

Templeton, G. F. (2011). A two-step approach for transforming continuous variables to normal: Implications and recommendations for IS research (Vol. 28, pp. 41–58). Paper presented at the Communications of the Association for Information.  [Google Scholar]  [Url]

 

Thompson, B. (2006). Research synthesis: Effect sizes. In J. Green, G. Camilli & P. B. Elmore (Eds.), Handbook of complementary methods in education research (pp. 583-603). Washington, DC: Routledge. [Google Scholar]

 

Thompson, B. (2007). Effect sizes, confidence intervals, and confidence intervals for effect sizes. Psychology in the Schools, 44(5), 423-432. [Google Scholar]  [CrossRef]

 

Vogt, W. P. (1999). Dictionary of statistics and methodology: A nontechnical guide for the social sciences (2nd ed.). Thousand Oaks, CA: Sage. [Google Scholar]

 

Wang, Z., & Thompson, B. (2007). Is the Pearson r2 biased, and if so, what is the best correction formula?. The Journal of Experimental Education, 75(2), 109-125. [Google Scholar]  [CrossRef]

 

 

 

 

 

 

 

 

 

 



PhD. Elaboração do trabalho. Instituto Superior Miguel Torga, Coimbra. Centro de Investigação do Núcleo de Estudos e Intervenção Cognitivo-Comportamental, Universidade de Coimbra, Portugal.

PhD. Elaboração do trabalho. Instituto Superior Miguel Torga, Coimbra, Portugal.

[1] Para uma revisão alargada sobre as limitações e cuidados a ter com o valor do p veja-se a nossa revisão anterior (Espirito-Santo e Daniel, 2015).

[2] Ao usar o SPSS pode verificar-se o tipo de relação seguindo os passos seguintes: Gráficos [Graphs] > Diálogos anteriores [Legacy Dialogs] > Dispersão/Ponto [Scatter] > Dispersão simples [Simple Scatter] > Definir [Define] > Eixo Y [Y-axis] (inserir a Variável 1) e Eixo X [X-axis] (inserir a Variável 2). O gráfico de Dispersão/Ponto [scatterplot] permite também verificar se existem valores atípicos [outliers] (Pallant, 2011).

[3] Adaptação do exemplo de (Tabachnick e Fidell, 2007, p. 85) a um estudo real.

[4] O modelo proposto pelos autores é mais complexo do que aqui exposto, mas que serve a finalidade da ilustração do argumento.

[5] Abrami et al. (2001) descrevem esta relação como um dos exemplos mais famosos de uma relação curvilínea nas ciências sociais, recordando que os níveis moderados de ansiedade otimizam o desempenho num teste.