CENTRO DE ESTUDIOS SUPERIORES DEL ORIENTE DE MICHOACÁN
{
OBJETIVO LICENCIATURA: ASIGNATURA: CATEDRÁTICO: TEMÁTICA: NOMBRE DEL ALUMNO:
Analizar los problemas pedagógicos desde el punto de vista del análisis de regresión
Pedagogía CUATR.: 8 SISTEMA: Investigación Participativa CLAVE DE LA ASIGNATURA: Ing. Luis Alberto Resendiz Quintana FECHA LÍMITE DE ENTREGA: Análisis de Varianza y Covarianza GUÍA No:
LPEG-849 3
MATRÍCULA:
I. Instrucciones. La guía didáctica que tienes en tus manos, tiene el objetivo de ser un andamiaje para desarrollar en ti los conocimientos, habilidades y actitudes necesarios para acreditar la asignatura de Investigación Participativa. Esto mediante comprensión de lectura y actividades que registrarás al final de este documento. A su vez, es necesario que te apoyes en las sesiones clase, láminas y material adicional disponible en la plataforma educativa. II. Temas y Subtemas. 3. Análisis de Varianza y Covarianza. 3.1 Regresión. 3.2 Aplicación a la investigación. III. Introducción. Dado que la Investigación Participativa es un tipo de investigación mixta, la cual está orientada a responder problemáticas sociales con programas de acción desarrollados por un colectivo, a través del enfoque experimental, es necesario desarrollar este enfoque con de la mano de la estadística inferencial. La estadística es una rama de las matemáticas encargada de la gestión de datos para la toma de decisiones con cierto grado de confiabilidad, a través de sus dos ramas: descriptiva e inferencial. Esta segunda rama de la estadística es la que involucra la utilización de los datos de un grupo (muestra), para obtener alguna conclusión sobre un universo (población), lo que comúnmente conocemos como un proceso de inferir datos. En el campo de la pedagogía no es muy común emplear la estadística inferencial en el proceso de investigación, a diferencia como puede usarse en la psicología y las ciencias económico administrativas. Pero esto no es una limitante para poder aplicarla. Cuatro de las aplicaciones de la estadística inferencial en el contexto pedagógico es primeramente el muestreo tipo probabilístico, que nos sirve para eliminar el grado de error en la selección de los sujetos con el fin de llevar a cabo una investigación, el segundo de ellos conocido como análisis de regresión cuyo fin es determinar tanto la naturaleza como la fuerza de una relación entre dos variables. La cuarta aplicación, conocida como Análisis de la Varianza, la cual es una técnica que se utiliza con el fin de realizar uno o más experimentos, comúnmente conocidos como factores, en varios grupos sometidos a diversas condiciones del experimento, esto con el objeto de conocer cuál es la condición experimental que más predomina en los grupos analizados. Dicho análisis de la varianza suele clasificarse en análisis de la varianza de un factor (comúnmente conocido como ANOVA) y análisis de la varianza de múltiples factores (conocido como MANOVA). Por último, el análisis de la covarianza, es el procedimiento menos utilizado de todos los diseños experimentales, emplea en análisis de regresión y el análisis de la varianza con el fin de Página 1 de 12
eliminar la variabilidad que existe en la variable independiente, esta variable se considera como covariable cuando existe en ella otra que interfiera. VI. Teoría. 3.1 Regresión. 3.2 Aplicación a la investigación. Día con día, tomamos decisiones personales y profesionales basadas en predicciones de sucesos futuros. Para hacer estos pronósticos, se basan en la relación (intuitiva y calculada) entre lo que ya se sabe y lo que se debe estimar, esto mediante dos objetos estadísticos conocidos como variables1. Si los responsables de la toma de decisiones pueden determinar cómo lo conocido se relaciona con el evento futuro, pueden ayudar considerablemente al proceso de toma de decisiones, en términos sencillos, cómo determinar la relación entre variables. Esto se puede interpretar diciendo que una variable depende de la otra. Podemos decir que X e Y son dos variables cualesquiera, por ejemplo el coeficiente intelectual y la edad respectivamente. Por lo que Y es la variable dependiente y X es la variable independiente. En el análisis de regresión, es importante identificar cuál es la variable dependiente y cuál es la variable independiente, esto depende de la lógica del investigador y de lo que se quiere medir. Tomando otro ejemplo, un catedrático de una universidad desea analizar la relación entre las calificaciones de sus estudiantes y el tiempo que pasan estudiando, recolectándose datos sobre ambas variables. Es lógico decir que las calificaciones dependen de la cantidad y calidad de tiempo que los estudiantes pasan con sus apuntes y libros. Por lo tanto, “la calificación” es la variable dependiente y “el tiempo” es la variable independiente. De lo anterior podemos concluir que la variable dependiente es aquella que se desea predecir o explicar; mientras que la variable independiente es aquella que ya conocemos. Cabe mencionar que a la variable dependiente también se le denomina “regresando” o “variable de respuesta”, por lo que la variable independiente X se utiliza para explicar Y. A la variable independiente suele denominársele “variable explicativa” o “regresar”, que índice que Y está regresando por X. De ahí que se le conozca a este estudio como análisis de regresión, aunque también suele encontrarse en algunos escritos simplemente como regresión y predicción. De esta forma, aprendemos a pronosticar, con cierta precisión, el valor de una variable desconocida basándonos en observaciones anteriores de ésta y otras variables. El término regresión fue utilizado por primera vez como un concepto estadístico en 1877 por sir Francis Galton, quien llevó a cabo un estudio que mostró que la estatura de los niños nacidos de padres altos tiende a retroceder o “regresar” hacia la estatura media de la población. Designó la palabra regresión como el nombre del proceso general de predecir una variable (la estatura de los niños) a partir de otra (la estatura del padre o de la madre). Cabe mencionar que la regresión y la correlación2 son las herramientas estadísticas más poderosas y versátiles empleadas para solucionar problemas. La correlación sirve principalmente para averiguar si existe una relación y para determinar su magnitud y dirección, mientras que la regresión se refiere principalmente al hecho de utilizar la relación para hacer una predicción. Podemos describir mejor la relación entre dos variables si la representamos gráficamente. Una gráfica de dispersión o dispersigrama, es una gráfica de pares de valores X y Y. Se dice que una relación es positiva si existe una relación directa entre las variables, es decir, que si una variable aumenta la otra hará lo mismo y viceversa, lo que se conoce como directamente proporcional. Por otro lado, si una relación es negativa se da por hecho que hay una relación inversa entre ambas variables, es decir que si una variable aumenta la otra disminuye y viceversa, lo que se conoce como inversamente proporcional.
1
Aquella que puede cambiar su valor de una persona a otra, como por ejemplo la estatura. Se aconseja ver los tipos y clasificación de las variables estadísticas en pedagogía. 2 El análisis de correlación es una herramienta estadística que podemos usar para describir el grado en el que una variable está linealmente relacionada con otra. Con frecuencia, el análisis de correlación se utiliza junto con el de regresión para medir y explicar los cambios de la variable dependiente. Sin embargo, la correlación también se puede usar sola para medir el grado de asociación entre dos variables.
Página 2 de 12
Figura 3.1: Diagrama de dispersión de las calificaciones de estudiantes en exámenes de admisión graficadas contra el promedio general acumulado (Weebster, A. L., 2010).
Otro tipo de relación entre variables es la relación perfecta, la cual es aquella en la cual existe una relación positiva o negativa para la cual todos los puntos forman una línea recta. Caso contrario, la relación imperfecta es aquella en la cual existe una relación, pero no todos los puntos se localizan sobre la recta, o bien, no forman una línea recta.
Figura 3.2: Relaciones directas e inversas entre la variable independiente X y la variable dependiente Y (Weebster, A. L., 2010).
Como ya se ha mencionado, la correlación es un tema que se centra en la dirección y el grado de la relación. La dirección de la relación se refiere a si ésta es positiva o negativa. El grado de la relación se refiere a la magnitud o fuerza. El grado de la relación puede variar entre inexistente y perfecto. Cuando la relación es perfecta, la correlación es máxima y podemos predecir con exactitud una variable a partir de la otra. En este situación, cuando X cambia también Y presenta un cambio. Además, el mismo valor de X siempre conduce al mismo valor de Y. en forma alternativa, el mismo valor de Y siempre conduce al mismo valor de X. cuando la relación es inexistente, la correlación alcanza su mínimo, y el hecho de conocer el valor de una de las variables no ayuda en nada a predecir el valor de la otra. Las relaciones imperfectas tienen niveles intermedios de correlación y la predicción es aproximada. Un diagrama de dispersión nos puede dar dos tipos de información. Visualmente, podemos identificar patrones que indiquen que las variables están relacionadas. Si esto sucede, podemos ver qué tipo de línea (imaginaria), o ecuación de estimación, describe esta relación. Desarrollaremos y utilizaremos un diagrama de Página 3 de 12
dispersión específico. Supongamos que el director de admisiones de una universidad nos pide determinar si existe una relación entre las calificaciones de un estudiante en su examen de admisión y su promedio general al graduarse. El director ha reunido una muestra aleatoria de datos de los registros de la universidad. La tabla 3.1 contiene esta información. Tabla 3.1: Calificaciones de estudiantes en exámenes de admisión y promedios de generales acumulados al graduarse (Weebster, A. L., 2010).
Para comenzar, debemos transferir la información de la tabla 3.1 a una gráfica. Puesto que el director desea utilizar las calificaciones de los exámenes para pronosticar éxitos en la universidad, se ha colocado el promedio de calificaciones acumulado (la variable dependiente) en el eje vertical o Y, y la calificación del examen de admisión (la variable independiente) en el eje horizontal o X. La figura 3.3 nos muestra el diagrama de dispersión completo.
Figura 3.3: Diagrama de dispersión de las calificaciones de estudiantes en exámenes de admisión graficadas contra el promedio general acumulado (Weebster, A. L., 2010).
A primera vista se sabe por qué llamamos así al diagrama de dispersión. El patrón de puntos resulta al registrar cada par de datos de la tabla 3.1 como un punto. Cuando vemos todos estos puntos juntos, podemos visualizar la relación que existe entre las dos variables. Como resultado, podemos trazar, o “ajustar” una línea recta a través de nuestro diagrama de dispersión para representar la relación; la figura 3.4 ilustra esto. Es común intentar trazar estas líneas de forma tal que un número igual de puntos caiga en cada lado de la línea. En este caso, la línea trazada a través de los puntos representa una relación directa, porque Y se incrementa al aumentar X. Como los puntos están relativamente cerca de esta línea, podemos decir que existe un alto grado de asociación entre las calificaciones de exámenes y el promedio de calificaciones acumulativo. En la figura anterior, podemos ver que la relación descrita por los puntos está bien descrita por una línea recta. Por tanto, podemos decir que es una relación lineal.
Página 4 de 12
Figura 3.4: Diagrama de dispersión en donde la línea recta representa la relación entre X y Y “ajustada” (Weebster, A. L., 2010).
La relación entre las variables X y Y también puede tomar la forma de una curva. Los especialistas en estadística la llaman relación curvilínea. Los empleados de muchas industrias, por ejemplo, experimentan lo que se denomina “curva de aprendizaje”, es decir, al fabricar un nuevo producto, el tiempo requerido para producir una unidad se reduce en alguna proporción fija al duplicarse el número total de unidades. La dirección de la curva puede indicar si la relación curvilínea es directa o inversa. La curva de la figura siguiente describe una relación inversa porque Y disminuye al aumentar X. Para repasar las relaciones posibles en un diagrama de dispersión, examinemos las gráficas (a) y (b), que muestran relaciones lineales directas e inversas. Las gráficas (c) y (d) son ejemplos de relaciones curvilíneas que indican asociaciones directas e inversas entre variables, respectivamente. La gráfica (e) ilustra una relación lineal inversa con un patrón de puntos ampliamente disperso. Esta mayor dispersión indica que existe menor grado de asociación entre las variables independiente y dependiente que el existente en la gráfica (b). El patrón de puntos en la gráfica (f) parece indicar que no existe relación entre las dos variables; por tanto, conocer el pasado referente a una variable no nos permitirá pronosticar ocurrencias futuras de la otra. Cabe mencionar que en este texto sólo se consideran las relaciones lineales, así como la relación simple o relación bivariada, dejando a un lado las relaciones curvilíneas y las relaciones multiples.
Figura 3.5: Relaciones posibles entre X y Y en diagramas de dispersión (Weebster, A. L., 2010). Página 5 de 12
El siguiente proceso que debemos aprender en nuestro estudio del análisis de regresión es cómo medir la confiabilidad de la ecuación de estimación desarrollada. Aludimos a este tema cuando introdujimos los diagramas de dispersión; en ese punto, nos dimos cuenta intuitivamente de que una línea será más exacta como estimador cuando los datos puntuales caen cerca de la línea que cuando los puntos están alejados de la línea. Para medir la confiabilidad de la ecuación de estimación, los especialistas en estadística han desarrollado el error estándar de la estimación (se). Este error estándar es similar a la desviación estándar estadística, en cuanto a que ambas son medidas de dispersión. Recordaremos que la desviación estándar se utiliza para medir la dispersión de un conjunto de observaciones respecto a la media. El error estándar de la estimación, por otra parte, mide la variabilidad, o dispersión, de los valores observados alrededor de la recta de regresión. En la ecuación del error estándar, la suma de las desviaciones al cuadrado se divide entre n - 2 y no entre n. Esto sucede porque perdimos dos grados de libertad al estimar la recta de regresión. Podemos razonar que, dado que los valores de a y b se obtuvieron de una muestra de datos puntuales, perdemos dos grados de libertad cuando usamos estos puntos para estimar la recta de regresión. Como ocurría en el caso de la desviación estándar, mientras más grande sea el error estándar de la estimación, mayor será la dispersión de los puntos alrededor de la línea de regresión. De manera inversa, si se = 0, esperamos que la ecuación de estimación sea un estimador “perfecto” de la variable dependiente. En ese caso, todos los puntos caerían directamente sobre la línea de regresión y no habría puntos dispersos alrededor.
Figura 3.6: Grados contrastantes de dispersión de datos puntuales y el efecto resultante en la precisión de la recta de regresión (Weebster, A. L., 2010).
Los estadísticos han desarrollado dos medidas para describir la correlación entre dos variables: el coeficiente de determinación (r) y el coeficiente de correlación (r2). El primero de ellos proporciona qué porcentaje del cambio en la variable dependiente Y se explica por un cambio en la variable independiente X. Mientras que el segundo sólo indica el tipo de relación entre dos variables y el grado de la misma. Si r = 0.6, es incorrecto afirmar que la ecuación de regresión “explica” el 60% de la variación total en Y. Más bien, si r = 0.6, entonces r2 debe ser 0.6 X 0.6 = 0.36. Sólo el 36% de la variación total se explica por la recta de regresión. Ambos coeficientes pueden asumir cualquier valor entre -1 y +1, un valor de -1indica una relación negativa perfecta entre X y Y, como se observa en la figura 3.7a, puesto que todas las observaciones quedan en una línea recta perfecta con una pendiente negativa, por lo que X y Y se moverán en direcciones opuestas. La figura 3.7b muestra una relación positiva perfecta entre X y Y con un valor de +1. En toda relación entre dos variables, como ya se ha mencionado, existe la posibilidad de que exista alguna variación alrededor de la recta de regresión. Esto se observa en las figuras 3.7c y 3.7d, las cuales muestran relaciones fuertes pero menos Página 6 de 12
perfectas, donde en ambos casos el valor se aproxima a +1 y -1 respectivamente. Por último, en la figura 3.7e se muestra muy poca o ninguna relación entre X y Y, por lo que el valor de la correlación se aproxima a cero.
Figura 3.7: Grados de correlación de dos variables (Weebster, A. L., 2010).
Un coeficiente de correlación es empleado para comprobar que existe una relación lineal entre dos variables, antes de proceder el análisis de regresión. Por el contrario, nunca debe utilizarse para establecer relaciones causales entre dos variables, suplantar el análisis de regresión y/o analizar la coherencia entre mediciones. Para llevar a cabo una correlación es necesario que mínimo se tengan dos observaciones por individuo3, el conjunto de observaciones (muestra), deberá ser representativo de la población y con grupos grupos heterogéneos, por ejemplo el incluir individuos jóvenes y ancianos en la misma muestra para estudiar la relación entre la edad y el aprendizaje puede resultar inapropiada.
3
Dos variables se dice que es correlación simple, más de dos variables de considera correlación múltiple.
Página 7 de 12
El conjunto de observaciones no debe contener datos extremos, es decir datos que tengan o valores muy grandes o valores muy pequeños, ya que el coeficiente de correlación es muy sensible a su presencia. Las observaciones no deben contener errores de medición o éste ha de ser relativamente mínimo, ya que la baja fiabilidad de las observaciones atenúa el valor del coeficiente. Las variables deben estar relacionadas linealmente, es decir el gráfico de dispersión sigue una diagonal, puesto que las relaciones curvilíneas pueden producir coeficientes de correlación no significativos. La forma de la distribución de las variables debe ser igual, esto se puede comprobar con ayuda de un histograma. Si no tienen la misma distribución, aunque el ajuste sea perfecto, se observará un r < 1, y cuanto menos se parezcan las distribuciones más se atenuará el coeficiente. Este efecto es importante cuando se correlaciona una variable en escala de intervalo con otra ordinal o dicotomizada (se aconseja indagar acerca de los tipos de variables estadísticas y su clasificación). La distribución de cada uno de las parejas de daos debe ser normal, ya que si la distribución no es normal, el intervalo del coeficiente puede que no sea entre -1 y +1. Sin embargo, el teorema del límite central demuestra que para muestras grandes los índices implicados en las pruebas se distribuyen normalmente incluso cuando las propias variables no lo sean. De cualquier forma, cuando se prefiera evitar este tipo de conflicto, puede recurrirse a utilizar un cálculo no paramétrico como el coeficiente ρ (rho) de Spearman o un estadístico no paramétrico como el coeficiente τ (tau) de Kendall. Además, la varianza de las variables debe ser homogénea y no restringida. Si la varianza es truncada o restringida en una o varias variables, por ejemplo por un muestreo deficiente, el coeficiente de correlación puede verse afectado. La siguiente tabla muestra los tipos de coeficientes de correlación y las condiciones en cuanto a variables se refiere para poderlos aplicar. Tabla 3.2: Coeficientes de correlación (Castellan, S. S.). ESCALA
INTERVALO
INTERVALO
Pearson (r)
ORDINAL
NOMINAL
ORDINAL
Biseral (rb)
ρ (rho) de Spearman τ (tau) de Kendall
NOMINAL
Biseral Puntual (rbp)
Biseral Ordenado (rbr)
C de Contingencia, γ (Gamma), λ (Lambda)
DICOTÓMICO NATURAL
Biseral Puntual (rbp)
Biseral Puntual (rbp)
V de Cramer
DICOTÓMICO ARTIFICIAL
Biseral (rb)
DICOTÓMICO NATURAL
DICOTÓMICO ARTIFICIAL
Φ (Phi)
Tetracórico (rtet)
V. Fórmulas y expresiones. a. Recta de regresión de mejor ajuste (regresión de Y sobre X, predecir Y conociendo X).
Página 8 de 12
Donde: = (Y gorro) Valores individuales de la variable dependiente Y de los puntos estimados, esto Y es, los puntos que están en la línea de estimación. a = Ordenada Y de la recta de regresión de mejor ajuste para un conjunto de puntos de dos variables. b = Pendiente de la recta de regresión de mejor ajuste para cualquier conjunto de puntos de dos variables. X = Valores de la variable independiente. b. Ordenada Y de la recta de regresión de mejor ajuste para un conjunto de puntos de dos variables.
Donde: Y = Media aritmética de todos los valores de la variable dependiente. = Media aritmética de todos los valores de la variable independiente. X b = Pendiente de la recta de regresión de mejor ajuste para cualquier conjunto de puntos de dos variables. c. Pendiente de la recta de regresión de mejor ajuste para cualquier conjunto de puntos de dos variables.
Donde: Y = Media aritmética de todos los valores de la variable dependiente. = Media aritmética de todos los valores de la variable independiente. X ΣXY = Sumatoria del producto de las cada pareja de datos. n = Tamaño del grupo a analizar. d. Error estándar de estimación al predecir Y dado X.
\ = Donde:
−
∑ ∑ −2
∑ −
SCY = Suma de los cuadrados de la variable independiente = = ∑ −
SCX = Suma de los cuadrados de la variable independiente = = ∑ − N = Número de parejas de datos.
Página 9 de 12
∑
∑
e. Regresión de X sobre Y, predicción del valor de X. = +
Donde: = (X gorro) Valores individuales de la variable independiente X de los puntos estimados, esto X es, los puntos que están en la línea de estimación. ax = Ordenada X de la recta de regresión de mejor ajuste para un conjunto de puntos de dos variables. bx = Pendiente de la recta de regresión de mejor ajuste para cualquier conjunto de puntos de dos variables. Y = Valores de la variable dependiente. f. Ordenada X de la recta de regresión de mejor ajuste para un conjunto de puntos de dos variables.
= ! − !
Donde: = Media aritmética de todos los valores de la variable dependiente. Y X = Media aritmética de todos los valores de la variable independiente. bx = Pendiente de la recta de regresión de mejor ajuste para cualquier conjunto de puntos de dos variables. g. Pendiente de la recta de regresión de mejor ajuste para cualquier conjunto de puntos de dos variables.
h. Coeficiente de correlación.
i. Coeficiente de determinación.
=
"=
∑ −
∑ ∑
∑ ∑
∑ −
R = r2 VI. Conceptos y Palabras Clave. Los conceptos que se enlistan enseguida te ayudarán a identificar aspectos específicos de la lectura anterior, por ello, es importante que investigues el significado de cada uno de ellos en el contexto estricto de la asignatura, anotando dichas definiciones en una hoja independiente, indicando a su vez la(s) fuente(s) bibliográfica(s) en donde consultaste la información preferentemente en formato APA. - Pronóstico. - Estimación. - Correlación. - Relación directa. - Relación inversa. Página 10 de 12
VII. Preguntas de Repaso. Las preguntas que se formulan enseguida te ayudarán a comprender de mejor manera la temática del bloque, por ello, es importante que respondas a cada una de ellas con tus propias palabras. Si lo requieres, puedes apoyarte en la tercera y cuarta sección de tu guía. Anota tus respuestas en una hoja independiente. 1. ¿Qué es la regresión y cómo se puede aplicar en la pedagogía? 2. ¿Qué es un dispersigrama? 3. ¿En qué consiste un análisis de regresión? 4. ¿Cuáles son los tres tipos de relación que pueden existir en una gráfica? 5. ¿En qué consiste un análisis de correlación? 6. ¿Qué es un diseño factorial? 7. ¿En qué consiste el error de estándar de estimación? 8. ¿Cuál es la diferencia entre el coeficiente de correlación y el coeficiente de determinación? 9. Menciona en qué casos podemos aplicar un coeficiente de correlación. 10. Menciona en qué casos no podemos aplicar un coeficiente de correlación. VIII. Actividades. Las actividades mencionadas a continuación te serán de ayuda para asentar los conocimientos adquiridos durante el segundo bloque de la asignatura, por esta razón es importante que completes cada una de ellas con la información y datos que se te piden. 1. Un profesor intenta mostrar a sus estudiantes la importancia de los exámenes cortos, aun cuando el 90% de la calificación final esté determinada por los exámenes parciales. Él cree que cuanto más altas sean las calificaciones de los exámenes cortos, más alta será la calificación final. Seleccionó una muestra aleatoria de 15 estudiantes de su clase con los siguientes datos:
a) Establece la variable dependiente (Y) y la variable independiente (X). b) Dibuja un diagrama de dispersión para estos datos. c) ¿La relación entre las variables parece lineal o curvilínea? d) ¿Parece justificarse la idea del profesor? Explique su razonamiento. 2. La siguiente tabla muestra los puntos del coeficiente intelectual (CI) y de los promedios de calificaciones de una muestra de 12 estudiantes universitarios. Determina la ecuación de la regresión, calculando el promedio de calificaciones que tendría un alumno con 123 puntos de CI.
Página 11 de 12
3. El gobierno estudiantil en la universidad local intenta determinar si el precio de admonición al salón de juegos del centro estudiantil tiene un impacto en el número de estudiantes que utilizan las instalaciones. El costo de admisión y el número de estudiantes que ingresan al salón se registran durante 12 viernes seguidos y se muestran en la siguiente tabla. Diseña e interpreta el modelo de regresión.
4. Doce distritos escolares en área de una ciudad están interesados en saber si el incremento en las tasas de impuesto predial podrían relacionarse con el número de alumnos en clase de las escuelas locales. ¿Parece ser este el caso con base en los datos que se muestra a continuación?
a. Si se piensa que más alumnos requieren impuestos más elevados, ¿Cuál es la variable dependiente? Calcula e interpreta el modelo de regresión. b. Calcula e interpreta el coeficiente de correlación y el coeficiente de determinación ¿parece ser útil el modelo? c. Determina el error estándar de estimación. IX. Referencias Bibliográficas. -
Kazmier, L. J. (2008). Estadística Aplicada a la Administración y la Economía. México D.F.: McGraw Hill. Levin, J. (2008). Fundamentos de Estadística en la Investigación Social. México D.F.: Oxford. Pagano, R. R. (2008). Estadística para las Ciencias del Comportamiento. México D.F.: Cengage. Weebster, A. L. (2010). Estadística Aplicada a los Negocios y la Economía. México D.F.: McGraw Hill. Briones, G. (1992). Métodos y Técnicas de Investigación para las Ciencias Sociales. México: Trillas. Firma del Alumno ______________________________ Página 12 de 12