Home Forum Statistica con R Valutare la riproducibilità di una risposta nel tempo

This topic contains 6 replies and has 3 voices.

Viewing 7 posts - 1 through 7 (of 7 total)
  • Author
    Posts
  • #4581

    L_
    Participant

    Ciao a tutti,

    dovrei valutare se dei soggetti sottoposti a dei test di riconoscimento diano o meno la stessa risposta (in termini di attributi), nel corso delle varie sessioni di valutazione, quando gli viene presentato lo stesso prodotto.

    Qualche suggerimento?
    Grazie mille a chiunque risponderà.
    Ciao

    #4583
    Davide Massidda
    Davide Massidda
    Moderator

    Ciao, una domanda: quante sono le sessioni di valutazione?

    #4584

    L_
    Participant

    Ciao,

    grazie mille per la pronta risposta. Comunque, le sessioni sono 9.

    #4585
    Davide Massidda
    Davide Massidda
    Moderator

    Quindi viene riproposta la stessa domanda per nove volte alle stesse persone. Dimenticavo di chiederti una cosa imprtante: la riposta di che tipo è?

    Potresti adattare un modello per vedere se è possibile prevedere la risposta a partire dalla variabile tempo; se la risposta non è prevedibile, significa che non è influenzata dal tempo. Questo non significa che i soggetti non cambino la risposta nelle diverse sessioni, ma significa che la variabilità della loro risposta non è influenzata dallo scorrere del tempo, ma da qualcos’altro.

    In ogni caso, partirei con qualche tipo di visualizzazione, ma bisogna prima di tutto capire di che natura è la risposta.

    #4593

    L_
    Participant

    Ciao,

    perdonami se non ho formulato il quesito dando tutti i dettagli.
    In sostanza, i soggetti devono riconoscere delle sostanze chimiche (odori) che devono associare ad un nome.
    Dal momento che nelle varie valutazioni sono state, a volte, riproposte le stesse sostanze, volevo vedere se, nel corso del tempo, i soggetti avessero o meno definito la stessa sostanza con lo stesso nome.
    Spero di esser stato un pò più chiaro.
    Ringrazio chiunque mi possa aiutare.

    Ciao

    #4594
    MADARA
    MADARA
    Participant

    precedo Davide;
    Se ho capito il problema, tu vuoi verificare che le deduzioni degli osservatori/tester siano attendibili, giusto?
    Quindi gli si sottopongono per 9 volte ciascuno, gli stessi test per disattendere l’ipotesi nulla, ovvero che le *risposte dei raters siano inaffidabili, ovvero che ci sia una concordanza significativa sul loro responso;

    Guarda, per questi propositi solitamente si va di Choen’s k coefficient; puoi considerare ogni osservazione come un tester differente , come se ci fossero 9 differenti osservatori, dai quali ci si aspetta una risposta significativamente concordante.

    ad esempio c’è pure una libreria ad oc: “obs.agree”.
    ti faccio un esempio veloce; ci creiamo una demo matrice che per *colonne ha gli osservatori e per *righe i loro giudizi relativamente ai vari prodotti, che abbiamo posto essere variabili nominali, non ordinali (essendo odori…);
    quindi se le misurazioni sono 9 per soggetto, per ognuno di essi ti crei una matrice:

    –> (il nuemro di oggetti da testare) X 9 (misurazioni); te al faccio piu semplice: per ogni osservatore hai 9 vettori con le relative risposte.
    Poniamo che i prodotti da testare siano 15, avremo una matrice 15 X 9 su cui operare.
    Esempio demo:

    
    library(obs.agree)
    # creaiamo risposte a random, quindi ci attendiamo un basso coefficiente di #concordanza, intorno allo 0.1
    m1   <- t(replicate(15, sample(LETTERS[seq(from = 1, to = 9)], 
                                   replace = TRUE)))
    coef <- RAI(m1, conf.levels = 0.95) # default
    
    # questo ti ritorna il coeffciiente di concordanza generale, con anche l'intervallo di 
    # confidenza che ti puoi impostare manualmente, di default è il classico .95
    coef$Overall_agreement
    
    # puoi anche vedere i parziali, ovvero il coeffciente per ogni osseravtore (nel tuo caso per ogni  misurazione)
    coef$Specific_agreement$value
    

    C’è inoltre una libreria “psy”, che solitamente da valori un po piu conservativi..e ti potrebbe essere utile per un confronto:

    library(psy)
    lkappa(m1) # -1 totale disaccordo /+1 totale accordo

    ps. puoi chiamare –> kappa(m1) e non lkappa, solo se gli osservatori sono 2.

    • This reply was modified 2 months ago by MADARA MADARA.
    • This reply was modified 2 months ago by MADARA MADARA.
    • This reply was modified 2 months ago by MADARA MADARA.
    #4598

    L_
    Participant

    Grazie mille MADARA!!
    Molto utile!!

    Ciao

Viewing 7 posts - 1 through 7 (of 7 total)

You must be logged in to reply to this topic.