Artículos

1.2: Comparaciones de números usando <,> y =


1.2: Comparaciones de números usando <,> y =

Máximo y mínimo de una matriz utilizando el número mínimo de comparaciones en C

Se nos da una matriz de números enteros. La tarea es encontrar el elemento mínimo y máximo de la matriz en el número mínimo de comparaciones.

Explicación & minus Aquí, para minimizar el número de comparaciones, inicializaremos el elemento máximo y mínimo con Arr [0]. Y a partir del segundo elemento, compare cada valor con el mínimo y el máximo y actualice en consecuencia.

Explicación & menos Aquí también, para minimizar el número de comparaciones, inicializaremos el elemento máximo y mínimo con Arr [0]. Y a partir del segundo elemento, compare cada valor con el mínimo y el máximo y actualice en consecuencia.


1.2: Comparaciones de números usando y =

Compare dos fracciones con diferentes numeradores y diferentes denominadores, por ejemplo, creando denominadores o numeradores comunes, o comparando con una fracción de referencia como 1/2. Reconoce que las comparaciones son válidas solo cuando las dos fracciones se refieren al mismo todo. Registre los resultados de las comparaciones con los símbolos & gt, = o & lt y justifique las conclusiones, por ejemplo, utilizando un modelo de fracción visual. (Estándar #: MAFS.4.NF.1.2)

Tutoriales originales

Use & # 160fracciones equivalentes & # 160 para comparar fracciones en estos tutoriales interactivos con temas de jardín. Esta es la Parte 2 en una serie de dos partes. Haga clic para abrir la Parte 1, & # 160 "Pizza de mamá, mariposas y comparación de fracciones".

Área (s) temática: Matemáticas

Tipo de recurso principal: Tutorial original

Ayude a una familia a resolver una discusión sobre quién obtuvo la mayor cantidad de pizza y qué mariposa fue más larga comparando fracciones utilizando puntos de referencia y modelos de área, en este tutorial interactivo.

Área (s) temática: Matemáticas

Tipo de recurso principal: Tutorial original

Otros recursos

Este es un juego divertido e interactivo que ayuda a los estudiantes a practicar el orden de números racionales, incluidos decimales, fracciones y porcentajes. Estás plantando y cosechando flores por dinero en efectivo. ¡Deja que la abeja polinice y podrás multiplicar tus cosechas y recompensas en efectivo!


1.2: Comparaciones de números usando y =

Leer y escribir números enteros de varios dígitos usando numerales de base diez, nombres de números y forma expandida. Compare dos números de varios dígitos según el significado de los dígitos de cada lugar, utilizando los símbolos & gt, = y & lt para registrar los resultados de las comparaciones. (Estándar #: MAFS.4.NBT.1.2)

Tutoriales originales

¡Aprenda a comparar números usando los símbolos mayor que y menor que en este tutorial interactivo que compara algunas cosas muy interesantes!

Área (s) temática: Matemáticas

Tipo de recurso principal: Tutorial original

Lea y escriba números enteros de varios dígitos usando números de base diez y nombres de números usando el sistema de valor posicional de base 10 en este tutorial interactivo. Nota: este tutorial excede los límites de número del punto de referencia.

Área (s) temática: Matemáticas, Matemáticas (B.E.S.T. -.

Tipo de recurso principal: Tutorial original

Aprenda a escribir números usando el valor posicional en diferentes formas como notación estándar, de palabra y expandida en este tutorial interactivo.

Área (s) temática: Matemáticas, Matemáticas (B.E.S.T. -.

Tipo de recurso principal: Tutorial original

Otros recursos

Este es un juego divertido e interactivo que ayuda a los estudiantes a practicar el orden de números racionales, incluidos decimales, fracciones y porcentajes. Estás plantando y cosechando flores por dinero en efectivo. ¡Deja que la abeja polinice y podrás multiplicar tus cosechas y recompensas en efectivo!


Actividades de fracciones de referencia

Una forma sencilla de comenzar una lección sobre fracciones de referencia es mostrar a los estudiantes una imagen como la que se muestra a continuación y hacer preguntas como, & # 8220 ¿Qué rosquilla está aproximadamente a la mitad? ¿Qué rosquilla está casi entera y cuál casi se ha acabado? & # 8221 ¡Este ejemplo ayuda a los estudiantes a ver que en realidad usamos puntos de referencia en la vida real!

Comience con visuales y manipuladores de fracciones

Para empezar, recomiendo modelar problemas usando una recta numérica y manipulativos como círculos de fracciones y mosaicos de fracciones. Estos elementos visuales ayudan a que las fracciones de referencia sean más concretas a medida que presenta esta habilidad.

Me gusta comenzar comparando fracciones con 0 y 1. Esto es un poco más fácil para los estudiantes. Por ejemplo, podría mostrar fracciones como 1/9 y 10/12 y preguntarles a los estudiantes si están más cerca de 0 o de 1.

Después de un poco de práctica, podemos abordar la comparación de fracciones con la mitad, nuevamente usando rectas numéricas y manipulativos.

Después de que los estudiantes hayan anotado esto, podemos pasar a comparar fracciones el uno al otro comparando ambos con los puntos de referencia.

Al comparar 4/10 y 6/7, los estudiantes pueden usar los puntos de referencia de 1/2 y 1. Dado que 1 es mayor que 1/2, los estudiantes pueden estimar que 6/7 es mayor que 4/10.

Fracciones de referencia con matemática mental

El siguiente paso es probar esta estrategia. sin ayudas visuales. Deberá haber enseñado ya las fracciones equivalentes antes de comenzar con esto.

Es bastante fácil para los estudiantes comparar fracciones con 0 y 1 comparando el numerador con el denominador. Comparar fracciones a 1/2 requiere un poco más de matemática mental. Les pido a los estudiantes que miren el denominador de la fracción y determinen qué fracción (usando ese denominador) sería equivalente a 1/2. Una forma sencilla de hacer esto es dividir el denominador entre 2.

Por ejemplo, dejemos que & # 8217s use la fracción 4/10. 5/10 es equivalente a 1/2. Entonces, si tenemos una fracción con 10 como denominador, sabemos que 5/10 es exactamente la mitad. Cuando comparamos 4/10 con 5/10, lo vemos & # 8217 a solo 1/10 de distancia. Está mucho más cerca de 5/10, o 1/2, que de 0 o 1.

¡Los estudiantes definitivamente necesitan práctica repetida con esto! Es más difícil con denominadores impares, por lo que recomiendo comenzar con denominadores pares de 12 o menos.

En nuestro ejemplo anterior de 3/11 y 6/7, 3/11 está más cerca de 0 y 6/7 está más cerca de 1. 0 & lt1, por lo que sabemos que 3/11 & lt 6/7. Si elige usar también 1/4 y 3/4 como puntos de referencia, eso puede ayudar a los estudiantes a llegar a una respuesta más específica.

Recursos de fracciones de referencia

Una actividad de clasificación es una excelente manera de evaluar si los estudiantes están adquiriendo esta habilidad.

Espero que esta publicación te ayude a ver por qué las fracciones de referencia son una gran estrategia para comparar y ordenar fracciones. Si desea ahorrar tiempo, puede tomar mi paquete de fracciones de referencia. ¡Asegúrese de informarme qué otras estrategias utiliza para enseñar esta lección!

Esta publicación incluye enlaces de afiliados de Amazon. Gano una pequeña comisión por los artículos comprados a través de estos enlaces sin costo adicional para usted.


Cómo comparar oraciones numéricas usando signos mayor y menor que

Cada signo se elige en una oración numérica para que el símbolo apunte al lado que tiene el valor más pequeño.

Luego, cada símbolo se abre hacia el lado que tiene el mayor valor.

Podemos usar una recta numérica para decidir qué lado de una oración numérica tiene el mayor valor.

Al enseñar a comparar el tamaño de los números, una recta numérica es útil para ayudar a visualizar el tamaño de cada valor.

Aquí están los múltiplos de 10 del 0 al 100 que se muestran en una recta numérica.

Al comparar oraciones numéricas en KS1 y KS2 (hasta cuarto grado), se espera que la mayoría de los niños usen símbolos mayor o menor que para números hasta el 100.

En este ejemplo tenemos un símbolo que falta entre 30 + 10 y 80.

Primero evaluamos la suma de la suma a la izquierda del problema del símbolo que falta.

40 es menos que 80 porque está más a la izquierda en la recta numérica.

Podemos usar el símbolo menor que & # 8216 & # 8217 para escribir esta comparación matemáticamente.

60 es menor que 94 y, por lo tanto, la flecha apuntará a 64. La & # 8216mouth & # 8217 se abrirá al valor mayor de 94.

Podemos escribir 94> 60 para decir que 94 es mayor que 60.

Como 94> 60, también podemos escribir 90 + 4> 60.

En el siguiente ejemplo de comparación de una oración de resta tenemos un símbolo que falta entre 15 y 20 & # 8211 2.

Primero evaluamos la resta de 20 & # 8211 2.

20 & # 8211 2 = 18, que está a la derecha del 15 en la recta numérica.

18 es mayor que 15, por lo que el símbolo se abre al 18 y apunta al 15.


1.2: Comparaciones de números usando y =

Las técnicas de análisis de varianza (ANOVA) prueban si un conjunto de medias de grupo (efectos del tratamiento) son iguales o no. El rechazo de la hipótesis nula lleva a la conclusión de que no todas las medias de los grupos son iguales. Este resultado, sin embargo, no proporciona más información sobre qué medias de grupo son diferentes.

Realizando una serie de t-No se recomienda realizar pruebas para determinar qué pares de medias son significativamente diferentes. Cuando realiza varios t-pruebas, la probabilidad de que las medias parezcan significativas y los resultados de diferencias significativas pueden deberse a un gran número de pruebas. Estas t-las pruebas utilizan los datos de la misma muestra, por lo que no son independientes. Este hecho hace que sea más difícil cuantificar el nivel de significancia para múltiples pruebas.

Supongamos que en un solo t-prueba, la probabilidad de que la hipótesis nula (H0) se rechaza cuando en realidad es cierto es un valor pequeño, digamos 0,05. Suponga también que lleva a cabo seis t-pruebas. Si el nivel de significancia para cada prueba es 0.05, entonces la probabilidad de que las pruebas no rechacen correctamente H0, cuando h0 es cierto para cada caso, es (0,95) 6 = 0,735. Y la probabilidad de que una de las pruebas rechace incorrectamente la hipótesis nula es 1 & # 8211 0,735 = 0,265, que es mucho más alta que 0,05.

Para compensar varias pruebas, puede utilizar varios procedimientos de comparación. La función multcompare de la caja de herramientas de estadísticas y aprendizaje automático realiza múltiples comparaciones por pares de las medias del grupo o los efectos del tratamiento. Las opciones son el criterio de diferencia honestamente significativa de Tukey (opción predeterminada), el método de Bonferroni, el procedimiento de Scheffe, el método de diferencias mínimas significativas de Fisher (lsd) y el enfoque de Dunn & amp Sidák para t-prueba.

Para realizar múltiples comparaciones de medias de grupo, proporcione las estadísticas de la estructura como entrada para multcompare. Puede obtener estadísticas de una de las siguientes funciones:

Para conocer varias opciones de procedimientos de comparación para medidas repetidas, consulte multcompare (RepeatedMeasuresModel).

Comparaciones múltiples usando ANOVA unidireccional

MPG representa las millas por galón de cada automóvil y Cilindros representa la cantidad de cilindros en cada automóvil, ya sea de 4, 6 u 8 cilindros.

Pruebe si la media de millas por galón (mpg) es diferente entre automóviles que tienen diferentes números de cilindros. También calcule las estadísticas necesarias para múltiples pruebas de comparación.

El pequeño pag -El valor de aproximadamente 0 es una fuerte indicación de que la media de millas por galón es significativamente diferente entre automóviles con diferentes números de cilindros.

Realice una prueba de comparación múltiple, utilizando el método Bonferroni, para determinar qué número de cilindros marcan la diferencia en el rendimiento de los automóviles.

En la matriz de resultados, 1, 2 y 3 corresponden a automóviles de 4, 6 y 8 cilindros, respectivamente. Las dos primeras columnas muestran qué grupos se comparan. Por ejemplo, la primera fila compara los autos con 4 y 6 cilindros. La cuarta columna muestra la diferencia media de mpg para los grupos comparados. Las columnas tercera y quinta muestran los límites superior e inferior para un intervalo de confianza del 95% para la diferencia en las medias del grupo. La última columna muestra el pag -valores para las pruebas. Todos pag -los valores son cero, lo que indica que la media de mpg para todos los grupos difiere entre todos los grupos.

En la figura, la barra azul representa el grupo de coches de 4 cilindros. Las barras rojas representan los otros grupos. Ninguno de los intervalos de comparación rojos para el mpg medio de los automóviles se superpone, lo que significa que el mpg medio es significativamente diferente para los coches de 4, 6 u 8 cilindros.

La primera columna de la matriz de medias tiene las estimaciones de mpg promedio para cada grupo de automóviles. La segunda columna contiene los errores estándar de las estimaciones.

Comparaciones múltiples para ANOVA de tres vías

y es el vector de respuesta y g1, g2 y g3 son las variables de agrupación (factores). Cada factor tiene dos niveles y cada observación en y se identifica mediante una combinación de niveles de factor. Por ejemplo, la observación y (1) está asociada con el nivel 1 del factor g1, el nivel 'hi' del factor g2 y el nivel 'may' del factor g3. De manera similar, la observación y (6) está asociada con el nivel 2 del factor g1, el nivel 'hi' del factor g2 y el nivel 'junio' del factor g3.

Pruebe si la respuesta es la misma para todos los niveles de factor. También calcule las estadísticas necesarias para múltiples pruebas de comparación.

El pag -valor de 0,2578 indica que las respuestas medias para los niveles "mayo" y "junio" del factor g3 no son significativamente diferentes. El pag -valor de 0.0347 indica que las respuestas medias para los niveles 1 y 2 del factor g1 son significativamente diferentes. Del mismo modo, el pag -valor de 0,0048 indica que las respuestas medias para los niveles 'hi' y 'lo' del factor g2 son significativamente diferentes.

Realice múltiples pruebas de comparación para averiguar qué grupos de factores g1 y g2 son significativamente diferentes.

multcompare compara las combinaciones de grupos (niveles) de las dos variables de agrupación, g1 y g2. En la matriz de resultados, el número 1 corresponde a la combinación del nivel 1 de g1 y el nivel hi de g2, el número 2 corresponde a la combinación del nivel 2 de g1 y el nivel hi de g2. De manera similar, el número 3 corresponde a la combinación del nivel 1 de g1 y el nivel lo de g2, y el número 4 corresponde a la combinación del nivel 2 de g1 y el nivel lo de g2. La última columna de la matriz contiene el pag -valores.

Por ejemplo, la primera fila de la matriz muestra que la combinación del nivel 1 de g1 y el nivel hi de g2 tiene los mismos valores de respuesta media que la combinación del nivel 2 de g1 y el nivel hi de g2. El pag -El valor correspondiente a esta prueba es 0.0280, lo que indica que las respuestas medias son significativamente diferentes. También puede ver este resultado en la figura. La barra azul muestra el intervalo de comparación para la respuesta media para la combinación del nivel 1 de g1 y el nivel hi de g2. Las barras rojas son los intervalos de comparación para la respuesta media para otras combinaciones de grupos. Ninguna de las barras rojas se superpone con la barra azul, lo que significa que la respuesta media para la combinación del nivel 1 de g1 y el nivel hi de g2 es significativamente diferente de la respuesta media para otras combinaciones de grupos.

Puede probar los otros grupos haciendo clic en el intervalo de comparación correspondiente para el grupo. La barra en la que hace clic se vuelve azul. Las barras de los grupos que son significativamente diferentes son rojas. Las barras de los grupos que no son significativamente diferentes son grises. Por ejemplo, si hace clic en el intervalo de comparación para la combinación del nivel 1 de g1 y el nivel lo de g2, el intervalo de comparación para la combinación del nivel 2 de g1 y el nivel lo de g2 se superpone y, por lo tanto, es gris. Por el contrario, los otros intervalos de comparación son rojos, lo que indica una diferencia significativa.

Procedimientos de comparación múltiple

Para especificar el procedimiento de comparación múltiple que desea que multcompare realice, utilice el argumento de par nombre-valor 'CType'. multcompare proporciona los siguientes procedimientos:

Procedimiento de diferencia honestamente significativo de Tukey

Puede especificar el procedimiento de diferencia honestamente significativa de Tukey utilizando el argumento de par nombre-valor 'CType', 'Tukey-Kramer' o 'CType', 'hsd'. La prueba se basa en la distribución del rango studentizado. Rechazar H0:αI = αj Si

| t | = | y ¯ i - y ¯ j | M S E (1 norte yo + 1 norte j) & gt 1 2 q α, k, N - k,

donde q α, k, N - k es el 100 superior * (1 & # 8211 α) el percentil de la distribución del rango estudentizado con parámetro k y nortek grados de libertad. k es el número de grupos (tratamientos o medias marginales) y norte es el número total de observaciones.

El procedimiento de diferencia honestamente significativa de Tukey es óptimo para ANOVA unidireccional equilibrado y procedimientos similares con tamaños de muestra iguales. Se ha demostrado que es conservador para ANOVA unidireccional con diferentes tamaños de muestra. Según la conjetura no probada de Tukey-Kramer, también es precisa para problemas en los que las cantidades que se comparan están correlacionadas, como en el análisis de covarianza con valores de covariables no equilibrados.

Método Bonferroni

Puede especificar el método Bonferroni utilizando el par nombre-valor 'CType', 'bonferroni'. Este método utiliza valores críticos de Student t-distribución después de un ajuste para compensar múltiples comparaciones. La prueba rechaza H0:αI = αj en el nivel de significancia α / 2 (k 2), donde k es el número de grupos si

| t | = | y ¯ i - y ¯ j | M S E (1 norte yo + 1 norte j) & gt t α 2 (k 2), N - k,

donde norte es el número total de observaciones y k es el número de grupos (medias marginales). Este procedimiento es conservador, pero generalmente menos que el procedimiento de Scheffé.

El enfoque de Dunn & amp Sidák

Puede especificar el enfoque de Dunn & amp Sidák utilizando el argumento de par nombre-valor 'CType', 'dunn-sidak'. Utiliza valores críticos de la t-distribución, después de un ajuste por comparaciones múltiples que fue propuesto por Dunn y probado por Sidák. Esta prueba rechaza H0:αI = αj Si

| t | = | y ¯ i - y ¯ j | M S E (1 norte yo + 1 norte j) & gt t 1 - η / 2, v,

y k es el número de grupos. Este procedimiento es similar, pero menos conservador, al procedimiento de Bonferroni.

Diferencia menos significativa

Puede especificar el procedimiento de diferencia de menor significación utilizando el argumento de par nombre-valor 'CType', 'lsd'. Esta prueba usa la estadística de prueba

t = y ¯ i - y ¯ j M S E (1 norte yo + 1 norte j).

| y ¯ i - y ¯ j | & gt t α 2, N - k M S E (1 norte yo + 1 norte j) ︸ L S D.

Fisher sugiere una protección contra las comparaciones múltiples al realizar LSD solo cuando la hipótesis nula H0: α1 = α2 = . = αk es rechazado por ANOVA F-prueba. Incluso en este caso, el LSD podría no rechazar ninguna de las hipótesis individuales. También es posible que ANOVA no rechace H0, incluso cuando existen diferencias entre las medias de algunos grupos. Este comportamiento se produce porque la igualdad de las medias del grupo restante puede provocar la F-La estadística de la prueba no es significativa. Sin ninguna condición, el LSD no proporciona ninguna protección contra el problema de la comparación múltiple.

Procedimiento de Scheffe

Puede especificar el procedimiento de Scheffe utilizando el argumento de par nombre-valor 'CType', 'scheffe'. Los valores críticos se derivan de la F distribución. La prueba rechaza H0:αI = αj Si

| y ¯ i - y ¯ j | M S E (1 norte yo + 1 norte j) & gt (k - 1) F k - 1, N - k, α

Este procedimiento proporciona un nivel de confianza simultáneo para las comparaciones de todas las combinaciones lineales de las medias. Es conservador para las comparaciones de diferencias simples de pares.


Algoritmos / Código de recursión HS Test Q's

privado void doSort (int lowerIndex, int mayorIndex)
<
if (índice más bajo & lt índice más alto)
<
int middle = lowerIndex + (upperIndex - lowerIndex) / 2
doSort (índice inferior, medio)
doSort (medio + 1, índice superior)
doSomething (índice inferior, índice medio, índice superior)
>
>

public static int lolUthought (int [] matriz, clave int)
<
int n = array.length
int primero = 0
int último = n - 1
int middle = (primero + último) / 2

while (primero & lt = último)
<
if (matriz [medio] & tecla lt)
<
primero = medio + 1
>
else if (matriz [medio] == clave)
<
volver al medio
>
demás
<
último = medio - 1
>

I - La ordenación por selección es siempre más rápida que la ordenación por inserción

II - La ordenación por inserción es siempre más rápida que la ordenación por selección

III - Cuando la clasificación por selección coloca un elemento en la parte ordenada de la matriz, ese elemento está en su posición final, mientras que la clasificación por inserción puede mover el elemento más adelante si encuentra un elemento más pequeño. La ordenación por selección crea una matriz absolutamente ordenada a medida que avanza, mientras que la ordenación por inserción crea una matriz relativamente ordenada a medida que avanza.


Clasificación (o tipo) de comparación múltiple: procedimientos de un solo paso versus procedimientos por pasos

Como se mencionó anteriormente, las pruebas repetidas con grupos dados dan como resultado el grave problema conocido como inflación & # x003b1. Por lo tanto, se han desarrollado numerosos métodos de MCT en las estadísticas a lo largo de los años. 2) La mayoría de los investigadores en el campo están interesados ​​en comprender las diferencias entre los grupos relevantes. Estos grupos pueden ser todos pares en los experimentos, o un control y otros grupos, o más de dos grupos (un subgrupo) y otro grupo de experimentos (otro subgrupo). Independientemente del tipo de pares que se comparen, todos los métodos de comparación de subgrupos post hoc deben aplicarse bajo la significación del resultado ANOVA completo. 3)

Por lo general, los MCT se clasifican en dos clases, procedimientos de un solo paso y procedimientos por pasos. Los procedimientos escalonados se dividen a su vez en métodos ascendentes y descendentes. Esta clasificación depende del método utilizado para manejar el error de tipo I. Como lo indica su nombre, el procedimiento de un solo paso supone una tasa de error hipotética de tipo I. Bajo este supuesto, casi todas las comparaciones por pares (múltiples hipótesis) se realizan (probadas usando un valor crítico). En otras palabras, cada comparación es independiente. Un ejemplo típico es la prueba de diferencia mínima significativa (LSD) de Fisher. Otros ejemplos son las pruebas de Bonferroni, Sidak, Scheff & # x000e9, Tukey, Tukey-Kramer, Hochberg & # x02019s GF2, Gabriel y Dunnett.

El procedimiento paso a paso maneja el error de tipo I de acuerdo con los resultados de la comparación seleccionados previamente, es decir, procesa las comparaciones por pares en un orden predeterminado, y cada comparación se realiza solo cuando el resultado de la comparación anterior es estadísticamente significativo. En general, este método mejora la potencia estadística del proceso al tiempo que conserva la tasa de error de tipo I en todo momento. Entre las estadísticas de la prueba de comparación, se identifica la prueba más significativa (para procedimientos de reducción) o la prueba menos significativa (para procedimientos de ampliación), y las comparaciones se realizan sucesivamente cuando el resultado de la prueba anterior es significativo. Si una prueba de comparación durante el proceso no rechaza una hipótesis nula, se rechazan todas las pruebas restantes. Este método no determina el mismo nivel de significancia que los métodos de un solo paso, sino que clasifica a todos los grupos relevantes en subgrupos estadísticamente similares. Los métodos escalonados incluyen las pruebas Ryan-Einot-Gabriel-Welsch Q (REGWQ), Ryan-Einot-Gabriel-Welsch F (REGWF), Student-Newman-Keuls (SNK) y Duncan. Estos métodos tienen diferentes usos, por ejemplo, la prueba SNK se inicia para comparar los dos grupos con las diferencias más grandes, los otros dos grupos con las segundas diferencias más grandes se comparan solo si hay una diferencia significativa en la comparación anterior. Por lo tanto, este método se denomina métodos de reducción porque la extensión de las diferencias se reduce a medida que avanzan las comparaciones. Se observa que el valor crítico para la comparación varía para cada par. Es decir, depende del rango de diferencias medias entre grupos. Cuanto menor es el rango de comparación, menor es el valor crítico del rango, por lo tanto, aunque la potencia aumenta, la probabilidad de error de tipo I.

Todos los métodos antes mencionados se pueden usar solo en la situación de suposición de varianza igual. Si la suposición de varianza igual es violenta durante el proceso ANOVA, las comparaciones por pares deben basarse en las estadísticas de las pruebas de Tamhane & # x02019s T2, Dunnett & # x02019s T3, Games-Howell y Dunnett & # x02019s C.

Método Tukey

Esta prueba utiliza pruebas post-hoc por pares para determinar si existe una diferencia entre la media de todos los pares posibles utilizando una distribución de rango estudentizado. Este método prueba todos los pares posibles de todos los grupos. Inicialmente, la prueba de Tukey se denominó prueba & # x02018Honestamente diferencia significativa & # x02019, o simplemente prueba & # x02018T, & # x02019 4) porque este método se basaba en la distribución t. Cabe señalar que la prueba de Tukey se basa en los mismos recuentos de muestras entre grupos (datos equilibrados) que ANOVA. Posteriormente, Kramer modificó este método para aplicarlo en datos no balanceados, y se conoció como la prueba de Tukey-Kramer. Este método utiliza la media armónica del tamaño de celda de las dos comparaciones. Los supuestos estadísticos de ANOVA también deben aplicarse al método de Tukey. 5)

La Fig. 2 muestra los resultados de ejemplo de ANOVA unidireccional y prueba de Tukey para comparaciones múltiples. De acuerdo con esta figura, la prueba de Tukey se realiza con un nivel crítico, como se describió anteriormente, y los resultados de todas las comparaciones por pares se presentan en una tabla en la sección & # x02018post-hoc test. & # X02019 Los resultados concluyen que los grupos A y B son diferentes, mientras que los grupos A y C no son diferentes y los grupos B y C tampoco son diferentes. Estos resultados extraños continúan en la última tabla llamada & # x02018 Subconjuntos homogéneos. & # X02019 Los grupos A y C son similares y los grupos B y C también son similares, sin embargo, los grupos A y B son diferentes. Una inferencia de este tipo es diferente con el razonamiento silogístico. En matemáticas, si A = B y B = C, entonces A = C. Sin embargo, en estadística, cuando A = B y B = C, A no es lo mismo que C porque todos estos resultados son resultados probables basados ​​en estadísticas. Estos resultados contradictorios pueden tener su origen en un poder estadístico inadecuado, es decir, un tamaño de muestra pequeño. La prueba de Tukey es un método generoso para detectar la diferencia durante la comparación por pares (menos conservador) para evitar este resultado ilógico, se debe garantizar un tamaño de muestra adecuado, lo que da lugar a errores estándar menores y aumenta la probabilidad de rechazar la hipótesis nula.

Un ejemplo de un resultado de análisis de varianza unidireccional (ANOVA) con la prueba de Tukey para comparación múltiple realizada con IBM & # x024c7 SPSS & # x024c7 Statistics (ver 23.0, IBM & # x024c7 Co., EE. UU.). Se comparan los grupos A, B y C. La prueba de diferencia honestamente significativa (HSD) de Tukey se realizó bajo el resultado significativo de ANOVA. Los resultados de comparaciones múltiples presentaron diferencias estadísticas entre los grupos A y B, pero no entre los grupos A y C y entre los grupos B y C. Sin embargo, en la última tabla & # x02018 Subconjuntos homogéneos & # x02019, hay un resultado contradictorio: las diferencias entre los grupos A y C y los grupos B y C no son significativos, aunque existió una diferencia significativa entre los grupos A y B. Esta interpretación inconsistente podría haberse originado por evidencia insuficiente.

Método Bonferroni: & # x00251 división (método Dunn & # x02019s)

El método de Bonferroni se puede utilizar para comparar diferentes grupos en la línea de base, estudiar la relación entre variables o examinar uno o más criterios de valoración en ensayos clínicos. Se aplica como una prueba post-hoc en muchos procedimientos estadísticos como ANOVA y sus variantes, incluyendo análisis de covarianza (ANCOVA) y ANOVA multivariante (MANOVA) múltiples pruebas t y análisis de correlación de Pearson & # x02019s. También se utiliza en varias pruebas no paramétricas, incluida la prueba de Mann-Whitney. U prueba, prueba de rango con signo de Wilcoxon y prueba de Kruskal-Wallis por rangos [4], y como prueba para datos categóricos, como la prueba de Chi-cuadrado. Cuando se usa como una prueba post hoc después de ANOVA, el método de Bonferroni usa umbrales basados ​​en la distribución t, el método de Bonferroni es más riguroso que la prueba de Tukey, que tolera errores de tipo I, y más generoso que el muy conservador Scheff & # x000e9 & # x02019s método.

Sin embargo, también tiene desventajas, ya que es innecesariamente conservador (con un poder estadístico débil). El & # x003b1 ajustado suele ser más pequeño de lo necesario, especialmente si hay muchas pruebas y / o las estadísticas de las pruebas están correlacionadas positivamente. Por lo tanto, este método a menudo no detecta diferencias reales. Si el estudio propuesto requiere que se evite el error de tipo II y no se deben pasar por alto los posibles efectos, no debemos utilizar la corrección de Bonferroni. Más bien, deberíamos utilizar un método más liberal como Fisher & # x02019s LSD, que no controla la tasa de error familiar (FWER). 6) Otra alternativa a la corrección de Bonferroni para obtener resultados demasiado conservadores es utilizar el método escalonado (secuencial), para el que son adecuados los métodos de Bonferroni-Holm y Hochberg, que son menos conservadores que la prueba de Bonferroni [5].

Método Dunnett

Este es un método particularmente útil para analizar estudios que tienen grupos de control, basados ​​en t-Estadísticas de prueba (distribución t de Dunnett & # x02019s). Es una estadística poderosa y, por lo tanto, puede descubrir diferencias relativamente pequeñas pero significativas entre grupos o combinaciones de grupos. Los investigadores interesados ​​en probar dos o más grupos experimentales contra un solo grupo de control utilizan la prueba de Dunnett. Sin embargo, la prueba de Dunnett tiene la desventaja de que no compara los grupos distintos del grupo de control entre ellos en absoluto.

Como ejemplo, suponga que hay tres grupos experimentales A, B y C, en los que se usa un fármaco experimental, y un grupo de control en un estudio. En la prueba de Dunnett, se realiza una comparación del grupo de control con A, B, C, o sus combinaciones, sin embargo, no se hace ninguna comparación entre los grupos experimentales A, B y C. Por lo tanto, la potencia de la prueba es mayor porque la El número de pruebas se reduce en comparación con la & # x02018 comparación por pares. & # x02019

Por otro lado, el método Dunnett es capaz de realizar pruebas & # x02018twotailed & # x02019 o & # x02018one-tailed & # x02019, lo que lo diferencia de otros métodos de comparación por pares. Por ejemplo, si no se conoce en absoluto el efecto de un nuevo fármaco, se debe utilizar la prueba de dos colas para confirmar si el efecto del nuevo fármaco es mejor o peor que el de un control convencional. Posteriormente, se requiere una prueba unilateral para comparar el nuevo fármaco y el control. Dado que la prueba de una o dos caras se puede realizar según la situación, el método de Dunnett se puede utilizar sin restricciones.

Método Scheff & # x000e9 & # x02019s: método exploratorio post-hoc

El método de Scheff & # x000e9 & # x02019s no es una simple prueba de comparación por pares. Basado en la distribución F, es un método para realizar comparaciones por pares conjuntas simultáneas para todas las combinaciones posibles por pares de la media de cada grupo [6]. Controla el FWER después de considerar todas las posibles combinaciones por pares, mientras que la prueba de Tukey controla el FWER cuando solo se realizan todas las comparaciones por pares. 7) Esta es la razón por la que el método Scheff & # x000e9 & # x02019s es muy conservador que otros métodos y tiene poca potencia para detectar las diferencias. Dado que el método de Scheff & # x000e9 & # x02019s genera hipótesis basadas en todas las comparaciones posibles para confirmar la significación, se prefiere este método cuando no se dispone de antecedentes teóricos para las diferencias entre grupos o cuando los estudios previos no se han implementado por completo (análisis de datos exploratorios). Las hipótesis generadas de esta manera deben ser probadas por estudios posteriores diseñados específicamente para probar nuevas hipótesis. Esto es importante en el análisis de datos exploratorios o en el proceso de prueba teórico (por ejemplo, si es probable que ocurra un error de tipo I en este tipo de estudio y las diferencias deben identificarse en estudios posteriores). Se deben utilizar estudios de seguimiento que prueben contrastes de subgrupos específicos descubiertos mediante la aplicación del método de Scheff & # x000e9 & # x02019s. Métodos de Bonferroni que son apropiados para estudios de prueba teóricos. Cabe señalar además que los métodos de Bonferroni son menos sensibles a los errores de tipo I que el método de Scheff & # x000e9 & # x02019s. Finalmente, el método de Scheff & # x000e9 & # x02019s permite comparaciones de promedios simples o complejas en datos balanceados y no balanceados.

Violación del supuesto de equivalencia de varianza

El ANOVA de una vía se realiza solo en los casos en que se cumple el supuesto de equivalencia de varianza. Sin embargo, es una estadística robusta que se puede utilizar incluso cuando existe una desviación del supuesto de equivalencia. In such cases, the Games-Howell, Tamhane’s T2, Dunnett’s T3, and Dunnett’s C tests can be applied.

The Games-Howell method is an improved version of the Tukey-Kramer method and is applicable in cases where the equivalence of variance assumption is violated. It is a t-test using Welch’s degree of freedom. This method uses a strategy for controlling the type I error for the entire comparison and is known to maintain the preset significance level even when the size of the sample is different. However, the smaller the number of samples in each group, the it is more tolerant the type I error control. Thus, this method can be applied when the number of samples is six or more.

Tamhane’s T2 method gives a test statistic using the t-distribution by applying the concept of ‘multiplicative inequality’ introduced by Sidak. Sidak’s multiplicative inequality theorem implies that the probability of occurrence of intersection of each event is more than or equal to the probability of occurrence of each event. Compared to the Games-Howell method, Sidak’s theorem provides a more rigorous multiple comparison method by adjusting the significance level. In other words, it is more conservative than type I error control. Contrarily, Dunnett’s T3 method does not use the t-distribution but uses a quasi-normalized maximum-magnitude distribution (studentized maximum modulus distribution), which always provides a narrower CI than T2. The degrees of freedom are calculated using the Welch methods, such as Games-Howell or T2. This Dunnett’s T3 test is understood to be more appropriate than the Games-Howell test when the number of samples in the each group is less than 50. It is noted that Dunnett’s C test uses studentized range distribution, which generates a slightly narrower CI than the Games-Howell test for a sample size of 50 or more in the experimental group however, the power of Dunnett’s C test is better than that of the Games-Howell test.


Containment operators

The containment operators ( -contains , -notcontains , -in , and -notin ) are similar to the equality operators, except that they always return a Booleano value, even when the input is a collection. These operators stop comparing as soon as they detect the first match, whereas the equality operators evaluate all input members. In a very large collection, these operators return quicker than the equality operators.

-contains and -notcontains

These operators tell whether a set includes a certain element. -contains returns True when the right-hand side (test object) matches one of the elements in the set. -notcontains returns False instead. When the test object is a collection, these operators use reference equality, i.e. they check whether one of the set's elements is the same instance of the test object.

-in and -notin

The -in and - notin operators were introduced in PowerShell 3 as the syntactic reverse of the of contains and -notcontain operators. -in returns Cierto when the left-hand side <test-object> matches one of the elements in the set. -notin returns Falso en lugar de. When the test object is a set, these operators use reference equality to check whether one of the set's elements is the same instance of the test object.

The following examples do the same thing that the examples for -contain and -notcontain do, but they are written with -in and -notin instead.


Ver el vídeo: Comparación de números (Noviembre 2021).