MÉTODOS ESTADÍSTICOS. UN ESPACIO EN EL DERECHO

Editorial:
FONTAMARA
Año de edición:
ISBN:
978-607-736-578-5
Páginas:
153
Encuadernación:
Rústica

Disponible en:

  • OFICINA Y ALMACÉN CENTRALEn stock
  • EXCLUSIVOS EN dijuris.com 12En stock
$195.00 MXN
10.61 $ 9,32 €
En stock
Comprar

PRÓLOGO

RESUMEN

INTRODUCCIÓN

BASES CONCEPTUALES

DEFINICIONES ESTADÍSTICAS FUNDAMENTALES

MODELOS PARAMÉTRICOS

PRUEBA DE X²

PRUEBA DE F DE FISHER

MODELO DE BARTLETT

PRUEBA DE T STUDENT PARA UNA MUESTRA (T1)

PRUEBA DE T STUDENT PARA DOS MUESTRAS (T2)

ANÁLISIS DE VARIANZA (ANOVA)

DISEÑO COMPLETAMENTE ALEATORIO (DCA)

DISEÑO DE BLOQUES AL AZAR (DBA)

DISEÑO DE CUADRO LATINO (DCL)

ANÁLISIS DE VARIANZA ANIDADA (ANOVA ANIDADA)

ANÁLISIS DE COVARIANZA (ANCOVA)

ANÁLISIS FACTORIAL (ANOVA FACTORIAL)

DETECTAR METAPOBLACIONES

CORRELACIÓN Y REGRESIÓN LINEAL SIMPLE: ANÁLISIS

CORRELACIÓN DE SPEARMAN (1904)

COEFICIENTE TAU (T) DE KENDALL (1938)

COEFICIENTE DE CONCORDANCIA (W) DE KENDALL

COEFICIENTE DE CORRELACIÓN (Rbs) BISERAL DE PUNTOS

PRUEBA DE CONFIABILIDAD DE KAPPA

ANEXO

REFERENCIAS

La vida está caracterizada por tomar decisiones. En todas las actividades hay que de alguna manera estar relativamente seguro sobre las decisiones, ya que los costos de errar pueden ser catastróficos, particularmente, si se trata de asuntos financieros y emocionales. ¿Cómo garantizamos que las decisiones están a nuestro favor? El hombre durante los últimos 70 milenios ha pasado por cuatro revoluciones impactantes que han generado un éxito magnífico (como ningún otro ser vivo) con consecuente de controlar los factores del medio. Estas revoluciones son: Cognitiva (hace 70,000 años), Agrícola (hace 12,000 años), Científica (a partir de 1627) e Industrial (a partir de 1776); todos y cada uno con su relevancia meritoria. Sin embargo, la revolución científica ha marcado una pauta para ser capaz, por vez primera, de cuantificar y también de reducir la magnitud de errores en la toma de decisiones. Con excepción de la muerte o el pago de impuesto, todos los demás eventos, fenómenos o procesos son estocásticos; es decir, ocurren con cierto nivel de probabilidad entre un 0% y 99.99% (el 0% y el 100% se trata de determinismo o la ocurrencia o no ocurrencia exacta sin probabilidad alguna), y para esto se requiere conocer la estadística. La estadística se trata de estudios de las probabilidades, y la probabilidad es el grado de “incertidumbre” asociado con la ocurrencia de cualquier cosa. La estadística nos permite entender cómo al desechar parte de la información, en realidad podemos describirla mejor; cómo aumenta la información con el mayor número de observaciones; cómo se usa la probabilidad para cuantificar la precisión de una medida; cómo la varianza interna de la muestra es suficiente para estudiarla; y cómo lo ya observado permite imaginar lo que aún no ha sucedido. Aquí se tratan algunos de los modelos estadísticos de tipo paramétrico (tienen parámetros y con distribución conocida) para manejar la diferencia y similitud entre grupos de datos, tales como prueba de t de una muestra, t de dos muestras, X2, la prueba de F, Modelo Bartlett, el análisis de la varianza (ANOVA) y sus ramificaciones (Diseño Completamente Aleatorio, Diseño de Bloques al Azar, Diseño de Cuadro Latino, Diseño Factorial). También se presentan modelos para detectar patrones entre variables, tales como regresión y algunos modelos de correlación para distintas condiciones específicas. Modelo de Análisis de Covarianza (ANCOVA) para poder quitar el efecto de una variable auxiliar cuando existe; además se presenta el modelo de Ji cuadrada heterogénea para detectar la existencia de clusters homogéneos.