Examinando por Materia "Estadística"
Mostrando 1 - 13 de 13
Resultados por página
Opciones de clasificación
- PublicaciónAcceso abiertoBayesian methods in psychological research: the case of IRT(Editorial Bonaventuriana, 2010) González Burgos, JorgeLos métodos bayesianos se han vuelto cada vez más populares en las ciencias sociales debido a su flexibilidad para acomodar numerosos modelos de diferentes campos. El dominio de la teoría de la respuesta al ítem es un buen ejemplo de investigación fructífera, que incorpora en los últimos años nuevos desarrollos y modelos, que se están estimando utilizando el enfoque bayesiano. Esto se debe en parte a la disponibilidad de software libre como WinBUGS y R, que ha permitido a los investigadores explorar nuevas posibilidades. En este artículo describimos la inferencia bayesiana para algunos modelos de IRT. Se explica brevemente cómo funciona el método bayesiano. Se discute la implementación de la estimación bayesiana en software convencional y se proporcionan conjuntos de códigos para ejecutar los análisis. Todas las aplicaciones se ejemplifican utilizando conjuntos de datos simulados y reales
- PublicaciónAcceso abiertoCluster analysis for test-retest Reliability(Editorial Bonaventuriana, 2010) Dutta Roy, DebdulalModelos estadísticos convencionales para evaluar la fiabilidad de procedimientos de prueba-reprueba (P-Rp) en cuestionarios buscan comparar puntuaciones combinadas de subpruebas pareadas o partes del cuestionario en la fase de prueba y la fase de reprueba. El presente artículo examina la fiabilidad de P-Rp en términos de subpruebas y comparaciones al nivel de partes del cuestionario a través de la pruebas t pareada. Datos de un cuestionario sobre motivación de la lectura tomados durante la prueba y la reprueba de 72 estudiantes, con un intervalo de 8 meses entre la prueba y la reprueba, se usan para ejemplificar el análisis de conglomerados (Dutta Roy, 2003). El cuestionario incluye 3 subpruebas intrínsecas y 3 subpruepas extrínsecas. Se propone un método de conglomerado de componentes del cuestionario para mostrar inconsistencias en las comparaciones entre las subpruebas y preguntas específicas que hacen parte del cuestionario.
- PublicaciónAcceso abiertoExploratory data analysis in the context of data mining and resampling(Editorial Bonaventuriana, 2010) Ho Yu, ChongEn la actualidad, existen bastantes conceptos erróneos generalizados sobre el análisis de datos exploratorios (EDA). Una de estas percepciones erróneas es que se dice que EDA se opone al modelado estadístico. En realidad, la esencia de EDA no consiste en dejar de lado todos los modelos y preconceptos; más bien, se insta a los investigadores a no comenzar el análisis solo con una fuerte preconcepción, por lo que el modelado sigue siendo legítimo en EDA. Además, la naturaleza de EDA ha ido cambiando debido a la aparición de nuevos métodos y la convergencia entre EDA y otras metodologías, como la extracción de datos y el remuestreo. Por lo tanto, los marcos conceptuales convencionales de EDA podrían ya no ser capaces de hacer frente a esta tendencia. En este artículo, la EDA se introduce en el contexto de la extracción y remuestreo de datos con un énfasis en tres objetivos: detección de conglomerados, selección de variables y reconocimiento de patrones. La agrupación de dos pasos, los árboles de clasificación y las redes neuronales, que son técnicas poderosas para lograr los objetivos anteriores, respectivamente, se ilustran con ejemplos concretos.
- PublicaciónAcceso abiertoGaining confidence with intervals: Practical guidelines, advices and tricks of the trade to face real-life situations(Editorial Bonaventuriana, 2010) Beaulieu-Prévost, DominicLos intervalos de confianza (IC) y las medidas de tamaño de efecto están convirtiéndose gradualmente en la forma estándar de reportar resultados de análisis estadísticos en artículos de investigación, en lugar de, o además de, los valores p. Sin embargo, tal cambio en las prácticas de investigación se ha comunicado poco en la enseñanza de la estadística. Este artículo es el tercero en una serie escritos que sirven como referencia general sobre el use de los IC en las ciencias sociales. Este artículo tiene como propósito proveer guías, consejos, y trucos útiles que le permitan al lector (a) enfrentar la mayoría de problemas estadísticos que suceden en situaciones reales de investigación y (b) mejorar su conocimiento sobre los IC y contestar más eficientemente las preguntas de interés. La primera parte del artículo presenta brevemente los elementos básicos acerca del uso de los IC: cómo computarlos, cómo interpretarlos, y cómo usarlos en las pruebas de hipótesis. La segunda parte presenta algunos de los asuntos más importantes (aunque algunas veces negados) acerca de los IC: representaciones gráficas, distribuciones complejas, encuestas nacionales, la familia de la estadística de los intervalos (e.g., intervalos de predicción), y la aproximación Bayesiana a las probabilidades
- PublicaciónAcceso abiertoHow to factor-analyze your data right: do’s, don’ts, and how-to’s.(Editorial Bonaventuriana, 2010) Matsunaga, MasakiEl presente artículo provee una guía para conducir análisis factorial, una técnica usada para estimar la estructura de las variables a nivel de la población que subyacen a los datos de la muestra. Primero, se hace una distinción entre análisis factorial exploratorio (AFE) y análisis factorial confirmatorio (AFC) junto con una discusión de la noción de análisis de componentes principales y por qué este no reemplaza el análisis de factores. Luego, se presenta una guía acerca de cómo hacer análisis factorial y que incluye decisiones que deben tomarse durante el análisis factorial. En especial, se presentan ejemplos en SPSS y LISREL acerca de cómo llevar a cabo procedimientos preliminares, AFE y AFC. Finalmente, se discuten asuntos clave en relación con el uso apropiado del análisis de factores y practicas recomendables.
- PublicaciónAcceso abiertoHow to fit models of recognition memory data using maximum likelihood(Editorial Bonaventuriana, 2010) Dunn, John CEl propósito de este artículo es proveer un tutorial sobre cómo ajustar diferentes modelos de la memoria de reconocimiento usando estimación de máxima verosimilitud. El artículo presenta cuatro partes. Primero se describe cómo se analizan y obtienen datos en experimentos sobre la memoria de reconocimiento. En segundo lugar se presentan cuatro modelos recientes que serán ajustados a los datos. La tercera parte describe en detalle cómo se ajusta un modelo usando el procedimiento de estimación de máxima verosimilitud. Por último se examina cómo el modelo ajustado pueden ser evaluado y qué pruebas estadísticas pueden aplicarse para ello.
- PublicaciónAcceso abiertoMeta-analysis in psychological research(Editorial Bonaventuriana, 2010) Sánchez-Meca, Julio; Marín-Martínez, FulgencioEl meta-análisis es una metodología de investigación que pretende integrar cuantitativamente los resultados de un conjunto de estudios empíricos sobre un determinado problema. Con este propósito, se calculan índices del tamaño del efecto y se codifican las características de los estudios con objeto de examinar su relación con los tamaños del efecto. El análisis estadístico en meta-análisis requiere ponderar cada estimación del efecto en función de su precisión asumiendo un modelo de efectos fijos o de efectos aleatorios. En este trabajo se presentan las etapas necesarias para realizar un metaanálisis, los diferentes modelos estadísticos que pueden asumirse y las consecuencias de asumir dichos modelos en la interpretación de sus resultados. Finalmente, los análisis estadísticos se ilustran con datos de un ejemplo real.
- PublicaciónAcceso abiertoModelo para gestión y análisis de datos estadísticos en investigación aplicada(2012) Montoya Gómez, Nilton Edu; Castro Castro, Carlos ArturoEn todos los cursos de metodología de la investigación que enseñan el enfoque cuantitativo positivista, reiteran los en términos: problema, pregunta, objetivos generales, específicos y metodología entre otros. Para desarrollar la metodología y el plan de análisis se propone un modelo basado en el método científico y apoyado en las TIC. Esta combinación permite brindar asesoría en el desarrollo de procesos investigativos y de análisis de datos estadísticos, a los investigadores que no tienen las destrezas en el uso en métodos estadísticos y tampoco no cuentan con profesionales calificados en el área para la formulación y en muchos casos para la ejecución de su proyecto de investigación cuantitativa.
- PublicaciónAcceso abiertoOutliers detection and treatment: a review(2010) Cousineau, Denis; Chartier, SylvainLos valores extremos son observaciones o medidas que son sospechosas en tanto que son mucho menores o mucho mayores que el resto de las observaciones. Estas observaciones son problemáticas en tanto que puede que no sean causadas por los procesos mentales que están siendo estudiados o puede que no reflejen la habilidad que se está estudiando. El problema es que unas pocas observaciones extremas son suficientes para distorsionar los resultados (alterando el desempeño medio, incrementando la variabilidad, etc.). En este artículo se revisan varias técnicas diseñadas para detectar observaciones extremas. Estas técnicas se subdividen en dos clases, aquellas relacionadas con datos univariados y aquellas relacionadas con datos multivariados. Dentro de estas dos clases, se consideran casos en que la distribución de la población es asumida como normal, casos en que la distribución es normal pero no conocida, o casos en que la población es desconocida. Para cada escenario se proponen algunas recomendaciones.
- PublicaciónAcceso abiertoPositively Skewed Data: Revisiting the Box-Cox Power Transformation.(Editorial Bonaventuriana, 2010) Olivier, Jake; Norberg, Melissa MAunque la distribución normal es la piedra angular de las aplicaciones estadísticas, los datos no siempre se ajustan a los criterios de la distribución normal. En tales casos, los investigadores a menudo transforman los datos no normales en datos que siguen una distribución aproximadamente normal. Las transformaciones de potencia constituyen una familia de transformaciones que incluye las transformaciones logarítmicas y fraccional exponente. El método de Box-Cox ofrece un método simple para elegir la transformación de potencia más apropiada. Otra opción que usa cuando los datos son positivamente asimétricos, e.g., los tiempos de reacción, es la distribución Ex-Gaussiana que es una combinación de las distribuciones exponenciales y normal. En este artículo, se discuten la transformación de potencia Box-Cox y la distribución Ex-Gaussiana en relación con datos positivamente asimétricos. La discusión demuestra que la transformación Box-Cox es más sencilla de aplicar e interpretar que la distribución Ex-Gaussiana.
- PublicaciónAcceso abiertoRobust analysis of the central tendency, simple and multiple regression and ANOVA: a step by step tutorial.(Editorial Bonaventuriana, 2010) Courvoisier, Delphine S.; Renaud, OlivierDespués de mucho esfuerzo y cuidado para realizar un experimento en ciencias sociales, el análisis de datos no debe ser arruinado por un análisis inadecuado. A menudo, los métodos clásicos, como la media, las regresiones lineales simples y múltiples usuales, y el ANOVA requieren normalidad y ausencia de valores atípicos, lo que rara vez ocurre en los datos provenientes de experimentos. Para paliar este problema, los investigadores a menudo utilizan algunos métodos ad hoc como la detección y eliminación de valores atípicos. En este tutorial, mostraremos las deficiencias de tal enfoque. En particular, mostraremos que los valores atípicos a veces pueden ser muy difíciles de detectar y que el procedimiento inferencial completo está algo distorsionado por dicho procedimiento. Un enfoque más apropiado y moderno es usar un procedimiento robusto que proporcione una estimación, inferencia y pruebas que no estén influenciadas por observaciones externas, pero que describan correctamente la estructura de la mayor parte de los datos. También puede dar un diagnóstico de la distancia de cualquier punto o tema en relación con la tendencia central. Los procedimientos robustos también se pueden ver como métodos para verificar la idoneidad de los métodos clásicos. Para proporcionar un tutorial paso a paso, presentamos análisis descriptivos que permiten a los investigadores realizar una comprobación inicial de las condiciones de aplicación de los datos. A continuación, comparamos alternativas clásicas y robustas a ANOVA y regresión y discutimos sus ventajas y desventajas. Finalmente, presentamos índices y gráficos que se basan en los residuos del análisis y se pueden utilizar para determinar si se respetan las condiciones de las aplicaciones de los análisis. Los ejemplos de datos de investigación psicológica ilustran cada uno de estos puntos y para cada análisis y gráfico, se proporciona el código R para permitir a los lectores aplicar las técnicas presentadas a lo largo del artículo.
- PublicaciónAcceso abiertoThe best of both worlds: a joint modeling approach for the assessment of change across repeated measurements(Editorial Bonaventuriana, 2010) Hsieh, Chueh An; Von Eye, AlexanderLa utilidad de los métodos Bayesianos en la estimación de modelos estadísticos complejos es innegable. Desde un punto de vista Bayesiano, el presente artículo busca demostrar la capacidad de los métodos Bayesianos y proponer un modelo exhaustivo que combina un modelo de medición y un modelo estructural. La utilidad de este método combinado se investiga usando datos reales tomados de una encuesta sobre actitudes sociales. El método combinado permite extraer las características de las respuestas a los ítems como de los errores en la medición para el análisis individual de trayectorias del desarrollo. Tales resultados permiten resolver asuntos que se presentan en investigación en psicología del desarrollo, e.g., tamaños de muestra pequeños, evaluaciones repetidas, etc.
- PublicaciónAcceso abiertoThe shifting boxplot. A boxplot based on essential summary statistics around the mean.(Editorial Bonaventuriana, 2010) Marmolejo-Ramos, Fernando; Siva Tian, TianLos diagramas de caja son una técnica gráfica útil y ampliamente usada para explorar datos y así entender mejor la información con la que se está trabajando. Los diagramas de caja muestran el primer, segundo, y tercer cuartil como también la amplitud intercuartil y los valores extremos de un grupo de datos. La información mostrada en los diagramas de caja, y en varias de sus variaciones, está basada en la mediana de los datos. Sin embargo, la gran mayoría de las aplicaciones científicas analizan y reportan datos usando la media. En este artículo se propone una variación del diagrama de caja que presenta información alrededor de la media de los datos. La presente variación también presenta alguna información acerca de la mediana de los datos.