Ciao a Tutti, vorrei chiedervi un consiglio riguardo il confronto tra 2 correlazioni (di Pearson) tra variabili continue, relative a 2 gruppi con numerosità simile (28 e 24); una delle 2 è fortemente significativa (p<10^-5), l'altra no (p=0.3). Il problema è che i coefficienti di correlazione si sovrappongono entro l'intervallo di confidenza del 95% (uso R). C'è un test che mi permetta di dimostrare che sono (o non sono) significativamente diversi tra loro? Grazie. 

Visualizzazioni: 128

Rispondi

Risposte a questa discussione

Ciao Ros,

se provi a "googlare", per esempio:

two sample correlation coefficients comparison test

Trovi sicuramente nelle primissime posizioni (prima pagina) suggerimenti utili in merito.

Quasi certamente anche R avrà già qualcosa di "precotto"; tuttavia, se non trovi soluzione, la cosa può essere risolta anche senza fare uso di strumenti fatti da terzi.

Ciao

Enrico

Ciao Enrico e grazie per la risposta.

Qualche giorno fa ho riscritto in R una funzione trovata in rete che si basa su z:

dati: n1, n2, corr1, corr2;

z1 = 1/2 log[(1+corr1)/(1-corr1)], idem per 2 

Z = (z1-z2) / sqrt[1/(n1-3)+1/(n2-3)]

p=2*min(pnorm(Z))

Però non sono sicuro se questo è l'unico test o se ne esistono altri...

Per completezza, ho anche provato a verificare con un modello lineare (anche a effetti misti) l'interazione della variabile continua indipendente (usata per la correlazione) con la variabile dicotomica che caratterizza i 2 gruppi, ma non risulta significativa. Questa verifica può considerarsi corretta o ci può essere un altro metodo?

Grazie ancora!

 

Ciao Ros,

che quello che mi hai mostrato sia l'unico test, sinceramente non lo so. Mi sembra sia quello proposto nelle pagine che ho trovato goooooooglando..

Per quanto riguarda l'uso dei modelli lineari, non è esattamente equivalente a verificare se i coefficienti di correlazione sono uguali, perché il "modello" sottostante è diverso (nel caso delle correlazioni si cerca se due variabili si "muovono insieme", nel caso del modello lineare si verifica se una variabile influenza l'altra; nel primo caso, quindi, il modello è simmetrico, nel secondo è asimmetrico); tuttavia penso che possa avere senso usare anche quello, se le condizioni di contorno lo permettono.

Non capisco solo perché mi dici che hai usato modelli misti: cosa intendi per misti? Ad effetti fissi e random? Quindi i livelli della variabile dicotomica sarebbero in realtà livelli di un fattore random?

Ciao

Enrico

Ciao Enrico,

riguardo i modelli lineari sono d'accordo. Infatti non c'è simmetria, perché se scambio le 2 variabili continue (dipendente con indipendente) non ottengo la stessa significatività. Questo, credo, perché variabile dipendente e dicotomica sono "legate" tra loro...

I modelli misti (fissi e random) li ho utilizzati perché ho 3 misure a tempi diversi, con numerosità diversa (inserita come variabile random). Nel tempo accade che la correlazione di cui parlavo all'inizio passa da non significativa al limite di significatività, fino a fortemente significativa per uno solo dei gruppi.

Volendo creare un modello generale per questi dati, con il mixed pensavo di trovare un'interazione tra la dicotomica e la dipendente, ma non c'è (e neanche come effetto principale la dicotomica risulta significativa); invece, se faccio un modello annidato dicotomica(continua) risulta significativa per entrambi i gruppi e dovrebbe essere solo per un gruppo (o no?), ovviamente la dicotomica continua a non essere significativa come effetto principale...

So che non da tutti è accettato il p-value nel mixed, ma nel mio caso non posso evitarlo (utilizzo il pacchetto nlme). 

Ciao e grazie,

Ros

 

Ciao Ros,

ho paura ci sia un po' di confusione nelle tue analisi: hai definito qual è il modello comportamentale dei tuoi dati? Perché scegli prima un modello ad effetti fissi e poi uno ad effetti random? Hai compreso il significato dei coefficienti dei modelli?

Da come mi comunichi le cose mi sembra (ma potrei essere io che non capisco!) non sia tutto chiarissimo. In tal caso temo dovrai prima approfondire..

Ciao

Enrico

Ciao Enrico,

Si tratta di un'analisi retrospettiva con 3 serie di misure ripetute nel tempo.

Ho innanzitutto testato la correlazione tra 2 variabili continue ad ogni tempo. Ho verificato che per 2/3 set di misure c'è significatività e questa è totalmente spiegata da uno solo di 2 gruppi che posso definire per caratteristiche intrinseche (post correlazione).

Ho quindi testato un  modello lineare a effetti fissi per ognuno dei singoli casi con correlazione significativa, mettendo insieme i 2 gruppi con la variabile dicotomoca che li caratterizza in interazone con la dicotomica (modello generale).

Per completezza ho testato anche un modello generale longitudinale; ho preferito un mixed perché il numero di misure non è costante nel tempo.

Se è chiaro e hai consigli ti sono grato.

Saluti

Ros

Ciao Ros.
Cerco di riepilogare quello che ho capito: ci sono una variabile dipendente e una variabile indipendente continue.
Ciascuna di queste è stata misurata in 3 istanti di tempo (corretto?).
Le unità analizzate (persone?) sono le stesse nei 3 momenti diversi, visto che è uno studio retrospettivo (è corretto?)
Hai quindi valutato la relazione tra le 2 variabili nei 3 momenti (corretto?).
È giusto quello che ho compreso?
Ciao
Enrico

Ciao Enrico,

Ecco le risposte in sequenza:

- si, 3 misure

- si sono le stesse persone, ma il numero di esse varia tra i 3 tempi di misura

- si, a tempo fissato (e poi anche longitudinalmente tutti insieme)

Ciao

Ros

Ciao Ros.
Ora ho capito.
Quello che probabilmente non c'entra in questa tua analisi (se ho ben compreso) è considerare effetto random il tempo: effetto random non è un effetto che fa variare il numero di osservazioni, ma un effetto i cui livelli possono essere considerati un sottoinsieme di un numero virtualmente infinito di livelli.
In sostanza, nel tuo caso, possono essere considerati "effetti random" i soggetti analizzati, ciascuno con una sua "curva di relazione nel tempo" tra variabile dipendente e indipendente che può variare, come no, tra soggetti.
Spero d'aver compreso bene e di averti dato indicazioni corrette.
Scusa se magari sono stato poco chiaro, ma sto scrivendo col cellulare..
Ciao
Enrixo

Ciao Enrico,

grazie per la precisazione.

Vorrei giusto tornare all'interazione tra variabile dipendente e dicotomica (attraverso la quale spiego tutta la correlazione presente sul campione intero, osservata ad alcuni tempi).

Secondo te è corretto nel modello lineare (almeno a tempo fissato) inserire tale interazione (oppure l'annidamento) per "ritrovare il fatto che c'è una correlazione" tra le 2 variabili?

Saluti,

Ros

Ciao Ros.
Allora, tralasciando tutte le altre discussioni sui modelli ad effetti random, se noi abbiamo X e Y variabili indipendente e dipendente, e una variabile di gruppo A, e si vuole testate una differenza di pendenze tra i gruppi, si può usare un modello (in formula):
Y ~ A + X + A:X
da confrontare col modello
Y ~ A + X
tramite anova().

Il modello annidato non dovrebbe far cambiare molto le cose, in questo caso (ma dovrei vedere i dati e la struttura dell'esperimento).

Spero di essere stato utile.
Ciao
Enrico

Ciao Enrico,

questa tecnica di confronto tra modelli l'ho testata... Generalmente è consigliata quando non viene calcolato il p-value (ad es. pacchetto lmer in R).

Ma in generale, se i 2 modelli (con e senza interazione) risultano differenti all'anova posso affermare di poter "dimostrare" in maniena generale che c'è una relazione tra A ed X? Anche se l'interazione non è significativa e nemmeno l'effetto principale di A?

Grazie.

Saluti

Rod

RSS

Social

 

Gruppi

© 2017   Creato da Duccio Schiavon.   Tecnologia

Badge  |  Segnala un problema  |  Politica sulla privacy  |  Termini del servizio