Risposte al Forum Create

Stai vedendo 15 articoli - dal 1 a 15 (di 206 totali)
  • Autore
    Articoli
  • in risposta a: Conteggio valori univoci con filtri #7525

    pdeninis
    Partecipante

    Guarda qui:

    > A<-c("pane","pane","latte","acqua",NULL)
    > A
    [1] "pane"  "pane"  "latte" "acqua"
    > length(A)
    [1] 4
    > unique(A)
    [1] "pane"  "latte" "acqua"
    > length(unique(A))
    [1] 3
    
    • Questa risposta è stata modificata 3 settimane, 2 giorni fa da  pdeninis.
    in risposta a: Problema con function #7523

    pdeninis
    Partecipante

    Ciao Inuraghe.

    Il problema potrebbe stare nel fatto che la sintassi for (i in 1:n) fa già da sé l’incremento di i ad ogni ciclo, sicché il tuo codice potrebbe darle fastidio.

    Prova per esempio:

    
    > for (i in 1:5){print (i)}
    [1] 1
    [1] 2
    [1] 3
    [1] 4
    [1] 5
    

    Non ho il tuo database altrimenti avrei corretto il tuo codice per verificare

    • Questa risposta è stata modificata 3 settimane, 2 giorni fa da  pdeninis.
    in risposta a: Read_html e importazioni dati da url #7500

    pdeninis
    Partecipante

    Premetto che non ho mai usato quelle funzioni.
    Prova così:

    elenco_completo<-NULL
    for ( i in c ) {
    url<-paste0(i)
    page<- read_html(url)
    posizione<-html_nodes(page, “.number”)
    posizione<-html_text(posizione)
    elenco_completo<-c(elenco_completo,posizione)}

    Ora la variabile da consultare è elenco_completo.

    Paolo

    • Questa risposta è stata modificata 2 mesi fa da  pdeninis.
    • Questa risposta è stata modificata 2 mesi fa da  pdeninis.
    • Questa risposta è stata modificata 2 mesi fa da  pdeninis.
    • Questa risposta è stata modificata 2 mesi fa da  pdeninis.
    in risposta a: Tabella di contingenza e valori attesi – Test chi-uadro #7490

    pdeninis
    Partecipante

    Devo aggiornare la mia risposta sull’opportunità di preferire il test di Fisher al Chi quadrato.

    Secondo F. Harrell (che a sua volta cita I. Campbell (2007) il test di Fisher è comunque conservativo ed è preferibile il Chi quadrato di Pearson evitando sempre la correzione di Yates ed applicandovi invece quella N-1/N.

    Anche il requisito di avere frequenze attese > 5 in ogni cella è arbitrario e invece quello che garantisce la validità è > 1.0

    Sembra che il motivo sia che l’assunzione di totali marginali fissi sia irrealistica nella maggior parte dei casi. Il test resta esatto nel senso che la p reale non eccede 0.05 ma è conservativo nel senso che essa è < 0.035.

    • Questa risposta è stata modificata 2 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 2 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 2 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 2 mesi, 1 settimana fa da  pdeninis.
    in risposta a: contrasti lmer; emmeans #7470

    pdeninis
    Partecipante

    Visto che non hai ancora ricevuto altre risposte, ti aggiorno sulle mie ultime ricerche per fare un po’ di chiarezza.

    Come pensavo, esistono diverse possibilità di modellare questo tipo di dati longitudinali. In particolare, è possibile includere la variabile a T0 come covariata rispetto ad una risposta che può essere sia il Tfinale e sia la variabile con i Changes.
    Questo configura un modello in cui la variabile baseline è un effetto fisso.

    Un’altra possibilità è di utilizzare la variabile T0 come parte del vettore risposta all’interno di un modello ad effetti random (Liang and Zeger (2000) Longitudinal Data Analysis of Continuous and Discrete Responses for Pre-Post Designs).

    Quest’ultimo approccio a sua volta si divide in due metodi, LDA (Longitudinal Data Analysis) e cLDA (constrained Longitudinal Data Analysis).

    Le analisi rispondono a quesiti di ricerca diversi e come è ovvio c’è una stretta relazione con il disegno sperimentale.

    Naturalmente i dati vanno conseguentemente ristrutturati.

    Una piccola trattazione dell’argomento la puoi trovare nel capitolo 9 di Lipkovich, Ilya_ Mallinckrodt, Craig H – Analyzing Longitudinal Clinical Trial Data_ A Practical Guide-Chapman and Hall_CRC (2017).

    Nel testo trovi anche esempi in R su come calcolare gli effetti delle variabili e delle loro interazioni con lsmeans.

    Esistono molti testi per affrontare il tema dati longitudinali. Purtroppo la mia impressione è che non trattino i vari e complessi problemi in modo organico, sicché si è costretti a leggere tutto e poi ricostruirsi una mappa concettuale da sé.

    Mi chiedo se qualcuno può suggerire per lo meno un approccio ordinato…

    • Questa risposta è stata modificata 6 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 6 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 6 mesi, 3 settimane fa da  pdeninis.
    in risposta a: contrasti lmer; emmeans #7457

    pdeninis
    Partecipante

    Se non lo conosci già forse può aiutarti nel capire come gestire il formato long:
    Sinossi di analisi con lmer

    Se può esserti utile, io in presenza di interazioni di solito uso:

    con fattore trasformato in numerico
    JN<-probemod::jn(model, dv='y',iv='x',mod='mod');JN
    che ha anche una funzione per grafico

    probemod::plot(JN, axlwd = 2, celwd = 2,cblwd = 1, ylab="ylabel", xlab="xlabel",title="Johnson-Neyman plot")

    La funzione ha un bug per cui riporta 5 valori della covariata che possono essere fuori range. (questo è l’originale) Siccome è utile (assomiglia al metodo pick-a-point) ho modificato la riga che non funziona bene. Questo è il listato corretto (non è provato per tutti i tipi di covariate, ma dovrebbe andare bene, o comunque meglio. In ogni caso, ora che ho investito tempo per individuare la riga responsabile, correggerla ulteriormente per adattarla a ciascuna situazione specifica richiede 1 secondo! Nel listato è commentata per cui la individui più facilmente):

    jn <- function(model,dv,iv,mod,mrange,alpha, yas) UseMethod("jn")
    jn <- floodlight <- function(model,dv,iv,mod,mrange,alpha =.05, yas='none'){
      jnret <- list()
    
      #run checks on params
      if(!is.character(dv) || !is.character(iv) || !is.character(mod)){
        stop('params dv/iv/mod incorrectly specified')
      }
      if(!is.numeric(alpha)){
        stop('param alpha has to be numeric')
      }
      if(is(model,'list')){
        if(is.null(model$coefficients)){
          stop("list model does not contain 'coefficients'")
        } else {
          beta.hat <- model$coefficients
        }
        if(is.null(model$vcov)){
          stop("list model does not contain 'vcov'")
        } else {
          cov <- model$vcov
        }
      } else if(is(model,'glm')){
        if(model$family$link == 'log' | model$family$link == 'logit'){
          beta.hat <- coef(model)
          cov <- vcov(model)
          jnret$link <- model$family$link
        } else {
          stop('this function currently supports only glm models with link == log or logit')
        }
      } else if(is(model,'lm')){
        beta.hat <- coef(model)
        cov <- vcov(model)
      } else{
        stop('this method currently supports only the lm, glm(yas == log or logit) & custom list objects')
      }
    
      jnret$plot <- list()
      jnret$plot$sline <- 0
      if(missing(yas)){
        jnret$yas <- 'none'
      } else {
        if(yas == 'ratio'){
          jnret$yas <- yas
          jnret$plot$sline <- 1
        } else if(yas == 'prob' | yas == 'probability'){
            jnret$yas <- 'prob'
            jnret$plot$sline <- 0.5
        } else if(yas == 'percentage' | yas == 'percent'){
          jnret$yas <- 'percent'
          jnret$plot$sline <- 0
        } else {
          stop("only 'ratio' or 'prob' ('probability') or 'percent' ('percentage') is supported in the current version")
        }
      }
      yasfunc <- function(jn,value){
        if(jn$yas == 'ratio') return(exp(value))
        else if(jn$yas == 'prob') return(exp(value) / (1 + exp(value)))
        else if(jn$yas == 'percent') return(100*(exp(value) - 1))
        else return(value)
      }
    
      data <- model$model
      jnret$iv <- iv
      jnret$dv <- dv
      jnret$mod <- mod
      jnret$n <- nrow(model$model)
      df <- nrow(data) - (length(beta.hat) + 1)
      tcrit <- qt(p=alpha/2,df=df,lower.tail = FALSE)
    
      if(length(jnret$mod) > 1){
        jnret$error <- 'The current version supports only one moderator'
      } else {
        interactionterm <- paste(jnret$iv,jnret$mod,sep=':')
    
        jna <- tcrit^2*cov[interactionterm, interactionterm] - beta.hat[interactionterm]^2
        jnb <- 2 * (tcrit^2*cov[jnret$iv, interactionterm] - beta.hat[iv]*beta.hat[interactionterm])
        jnc <- tcrit^2*cov[jnret$iv, jnret$iv] - beta.hat[iv]^2
    
        jnret$plot$summary <- list()
        jnret$plot$summary$upper <- list()
        jnret$plot$summary$lower <- list()
        rs <- c( (-jnb - sqrt(jnb^2 - 4*jna*jnc)) / (2 * jna), (-jnb + sqrt(jnb^2 - 4*jna*jnc)) / (2 * jna))
        jnret$plot$summary$upper$x <- max(rs)
        jnret$plot$summary$upper$y <- beta.hat[jnret$iv] + beta.hat[interactionterm]*jnret$plot$summary$upper$x
        jnret$plot$summary$upper$se <- sqrt(cov[jnret$iv, jnret$iv] + jnret$plot$summary$upper$x^2*cov[interactionterm, interactionterm] + 2*jnret$plot$summary$upper$x*cov[jnret$iv, interactionterm])
        jnret$plot$summary$upper$t <- jnret$plot$summary$upper$y/jnret$plot$summary$upper$se
        jnret$plot$summary$upper$p <- round(2*pt(-abs(jnret$plot$summary$upper$t),df=df),digits=4)
        jnret$plot$summary$upper$llci <- jnret$plot$summary$upper$y - tcrit*jnret$plot$summary$upper$se
        jnret$plot$summary$upper$ulci <- jnret$plot$summary$upper$y + tcrit*jnret$plot$summary$upper$se
    
        jnret$plot$summary$lower$x <- min(rs)
        jnret$plot$summary$lower$y <- beta.hat[jnret$iv] + beta.hat[interactionterm]*jnret$plot$summary$lower$x
        jnret$plot$summary$lower$se <- sqrt(cov[jnret$iv, jnret$iv] + jnret$plot$summary$lower$x^2*cov[interactionterm, interactionterm] + 2*jnret$plot$summary$lower$x*cov[jnret$iv, interactionterm])
        jnret$plot$summary$lower$t <- jnret$plot$summary$lower$y/jnret$plot$summary$lower$se
        jnret$plot$summary$lower$p <- round(2*pt(-abs(jnret$plot$summary$lower$t),df=df),digits=4)
        jnret$plot$summary$lower$llci <- jnret$plot$summary$lower$y - tcrit*jnret$plot$summary$lower$se
        jnret$plot$summary$lower$ulci <- jnret$plot$summary$lower$y + tcrit*jnret$plot$summary$lower$se
    
        if(jnret$yas != 'none') {
          jnret$plot$summary$upper$llci <- yasfunc(jnret,jnret$plot$summary$upper$llci)
          jnret$plot$summary$upper$ulci <- yasfunc(jnret,jnret$plot$summary$upper$ulci)
          jnret$plot$summary$upper$y <- yasfunc(jnret, jnret$plot$summary$upper$y)
          jnret$plot$summary$upper$se <- sqrt(jnret$plot$summary$upper$y^2 * jnret$plot$summary$upper$se)
    
          jnret$plot$summary$lower$llci <- yasfunc(jnret,jnret$plot$summary$lower$llci)
          jnret$plot$summary$lower$ulci <- yasfunc(jnret,jnret$plot$summary$lower$ulci)
          jnret$plot$summary$lower$y <- yasfunc(jnret, jnret$plot$summary$lower$y)
          jnret$plot$summary$lower$se <- sqrt(jnret$plot$summary$lower$y^2 * jnret$plot$summary$lower$se)
        }
    
        if(jnret$plot$summary$upper$x > max(data[[jnret$mod]]) & jnret$plot$summary$lower$x < min(data[[jnret$mod]])) {
          warning('Conditional effects beyond the range of moderator values')
        }
    
        jnret$printsummary <- list()
        jnret$printsummary$x <- if (missing(mrange)) {seq(min(floor(data[[jnret$mod]])),max(ceiling(data[[jnret$mod]])),(max(ceiling(data[[jnret$mod]]))-min(floor(data[[jnret$mod]])))/4)} else {mrange} #riga modificata
        jnret$printsummary$y <- beta.hat[jnret$iv] + beta.hat[interactionterm]*jnret$printsummary$x
        jnret$printsummary$se <- sqrt(cov[jnret$iv, jnret$iv] + jnret$printsummary$x^2*cov[interactionterm, interactionterm] + 2*jnret$printsummary$x*cov[jnret$iv, interactionterm])
        jnret$printsummary$llci <- jnret$printsummary$y - tcrit*jnret$printsummary$se
        jnret$printsummary$ulci <- jnret$printsummary$y + tcrit*jnret$printsummary$se
        jnret$printsummary$t <- jnret$printsummary$y/jnret$printsummary$se
        jnret$printsummary$p <- round(2*pt(-abs(jnret$printsummary$t),df=df),digits=4)
        if(jnret$yas != 'none') {
          jnret$printsummary$ulci <- yasfunc(jnret,jnret$printsummary$ulci)
          jnret$printsummary$llci <- yasfunc(jnret,jnret$printsummary$llci)
          jnret$printsummary$y <- yasfunc(jnret, jnret$printsummary$y)
          jnret$printsummary$se <- sqrt(jnret$printsummary$y^2 * jnret$printsummary$se)
        }
        jnret$plot$data <- list()
        #conditional effect line
        if(missing(mrange)){
          jnret$plot$data$x <- seq(min(data[[jnret$mod]]), max(data[[jnret$mod]]), length.out = 1000)
        } else {
          jnret$plot$data$x <- seq(min(mrange), max(mrange), length.out = 1000)
        }
        jnret$plot$data$y <- beta.hat[jnret$iv] + beta.hat[interactionterm]*jnret$plot$data$x
        jnret$plot$data$se <- sqrt(cov[jnret$iv, jnret$iv] + jnret$plot$data$x^2*cov[interactionterm, interactionterm] + 2*jnret$plot$data$x*cov[jnret$iv, interactionterm])
        jnret$plot$data$llci <- jnret$plot$data$y - tcrit*jnret$plot$data$se
        jnret$plot$data$ulci <- jnret$plot$data$y + tcrit*jnret$plot$data$se
        if(jnret$yas != 'none') {
          jnret$plot$data$llci <- yasfunc(jnret,jnret$plot$data$llci)
          jnret$plot$data$ulci <- yasfunc(jnret,jnret$plot$data$ulci)
          jnret$plot$data$y <- yasfunc(jnret, jnret$plot$data$y)
          jnret$plot$data$se <- sqrt(jnret$plot$data$y^2 * jnret$plot$data$se)
        }
    
        jnret$plot$signintervals <- vector()
        trackstartpoly <- 0
        trackstartvalpoly <- vector()
        for(i in 1:length(jnret$plot$data$x)) {
          if(jnret$plot$data$ulci[i] >= jnret$plot$sline & jnret$plot$data$llci[i] >= jnret$plot$sline) {
            if(trackstartpoly == 0) {
              trackstartpoly <- 1
              trackstartvalpoly <- i
            }
          } else if(jnret$plot$data$ulci[i] <= jnret$plot$sline & jnret$plot$data$llci[i] <= jnret$plot$sline) {
            if(trackstartpoly == 0) {
              trackstartpoly <- 1
              trackstartvalpoly <- i
            }
          } else if(trackstartpoly == 1){
            trackstartpoly <- 0
            jnret$plot$signintervals <- rbind(jnret$plot$signintervals,c(trackstartvalpoly,i-1))
            trackstartvalpoly <- vector()
          }
        }
        #wrap up poly calulations
        if(trackstartpoly == 1){
          trackstartpoly <- 0
          jnret$plot$signintervals <- rbind(jnret$plot$signintervals,c(trackstartvalpoly,i))
          trackstartvalspoly <- vector()
        }
      }
      jnret$call <- match.call()
      class(jnret) <- "jn"
      jnret
    }
    

    Oppure:
    sempre con fattore trasformato in numerico

    interactions::johnson_neyman(model, pred = fattore_numerico, modx = mod, control.fdr=TRUE, alpha = .05, title="Johnson-Neyman plot adjusted for FDR",sig.color="black",insig.color="grey")

    jtools::probe_interaction(model = model, pred = x, modx = fattore_numerico, robust=T, interval=TRUE, int.type=confidence, x.label="xlabel", y.label="ylabel", main.title = "title", modx.labels=c("factor_level1","factor_level2"))

    (questo accetta 2 moderatori)
    jtools::interact_plot(model, pred=x, modx=factor1, mod2=covariate, param....)

    che usano la grafica di ggplot.

    Trovo utile anche questa funzione per interazioni complesse a 2 vie:
    HH::interaction2wt()

    Per la diagnostica delle interazioni uso:
    interflex

    Naturalmente tutto questo non servirà in questo caso specifico se puoi escludere l’esistenza di una interazione (come sembra di capire dal tuo modello iniziale).

    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    in risposta a: contrasti lmer; emmeans #7444

    pdeninis
    Partecipante

    Allora era solo un problema di formato (long o wide).

    Anch’io avrei fatto la trasformazione che hai fatto tu, anche se non escludo che si trovino funzioni che richiedono espressamente l’altro formato. Credo che Davide sia esperto di questo tipo di analisi.

    Il modello originario in formato long poteva essere questo?
    aov(agreement ~ correction (between) * time (within) + Error(subject|time))

    Credo che un modo di ottenere quello che interessa a te esista anche partendo da questo formato.

    A me capita spesso di dover stimare interazioni tra predittori ed ho usato talvolta la tecnica di Johnson-Neyman (un fattore * 1 covariata continua) e la funzione

    effect("predittore1:predittore2", model)

    che funziona bene se i predittori sono discreti ed hanno poche modalità o sono fattori.

    Questa per ottenere i grafici:
    plot(effects::predictorEffects(model))
    oppure:

    emmeans::emmip(model, ~ predittore1 | predittore2&fattore, at=list(predittore2=c(1,1.5,2,2.5), predittore1=4:8, fattore=c("Lev1","lev2")), CIs=TRUE)

    La Tecnica di Johnson-Neyman è indispensabile se l’interazione covariata*fattore è significativa (il parallelismo degli iperpiani di regressione non è più sostenibile), per stimare la regione di significatività.

    Se ti va, facci sapere qual era l’obiettivo vero e come hai condotto l’analisi: è proprio un argomento che mi piacerebbe approfondire!

    Un saluto e grazie per l’interessante domanda.

    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    in risposta a: contrasti lmer; emmeans #7437

    pdeninis
    Partecipante

    Una regola che ho imparato è che prima di pensare di fare un’analisi qualsiasi bisogna aver capito cosa rappresentano i dati. Siccome non avevo capito ti ho chiesto delucidazioni.

    In questo caso il problema dipende dal fatto che non abbiamo idea di che dati siano…
    Normalmente le covariate temporali non sono fattori, ma misure quantitative prese al tempo X. Un tempo, quando si usava ancora l’ANOVA per misure ripetute, le variabili t0, t1 e t2 etc. erano le variabili dipendenti. La forma minima, con due soli tempi, era analizzabile con un t-test per dati dipendenti. Quindi parliamo di dati quantitativi continui, non fattori.

    Credo che fai bene a pensare che è necessario ristrutturare il database per dare alle variabili nomi rispondenti al loro reale contenuto secondo le consuetudini del disegno sperimentale. Quando parleremo una lingua comune sarà più facile trovare una soluzione.

    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    in risposta a: contrasti lmer; emmeans #7429

    pdeninis
    Partecipante

    Ciao Francesco,
    in attesa che qualcuno ti risponda stavo provando a capire la tua domanda.

    Correction è un fattore a tre livelli mentre Time sono tre variabili continue (t1, t2 e t3). Giusto?
    Se è così non capisco cosa vuol dire “sarebbe come un ANCOVA al tempo t3 con punteggi baseline da tempo t1 come misura continua”.
    Per una ANCOVA al tempo t3, non dovrebbe essere t3 la variabile dipendente in un modello
    t3 ~ correction * t1? E agreement?

    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 1 settimana fa da  pdeninis.
    in risposta a: Problema con il plot #7423

    pdeninis
    Partecipante

    I dati e il grafico li vedi solo tu: immaginare qual è il risultato sapendo solo che secondo te è “strano” non è facile.

    Io posso ipotizzare che il problema sia nei valori della variabile x ovvero data e ora. Per questo ti suggerisco di dare un’occhiata alla risposta di Davide qui sotto:
    http://www.insular.it/forum/topic/come-creare-una-colonna-data-anno-mese-giorno-ricavandola-da-un-file-csv/

    • Questa risposta è stata modificata 7 mesi, 4 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 4 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 7 mesi, 4 settimane fa da  pdeninis.
    in risposta a: convertire data.frame in numeric matrix #7422

    pdeninis
    Partecipante

    Sei sicuro di averne bisogno?

    Se hai un dataframe, la funzione summary(dataframe) ti darà le informazioni che chiedi.

    in risposta a: Heatmap #7400

    pdeninis
    Partecipante

    Il messaggio dice che il parametro passato a colMeans() deve essere numerico.

    Dal tuo codice però non riesco a capire cosa è assegnato alla tua variabile x…

    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.

    pdeninis
    Partecipante

    Sono contento che sia stato utile!


    pdeninis
    Partecipante

    Per aggiungere una colonna ad un dataframe il codice dovrebbe essere:

    
    df<-cbind(get(paste0("client",e)), "Pasqua"=p)
    assign(paste0("client",e),df)
    

    (da ricontrollare, vado a memoria)

    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    • Questa risposta è stata modificata 8 mesi, 3 settimane fa da  pdeninis.
    in risposta a: Creazione istogramma #7379

    pdeninis
    Partecipante
Stai vedendo 15 articoli - dal 1 a 15 (di 206 totali)