Popular Posts

Tuesday, September 9, 2008

Modelo Constructivista

El concepto de líder transformador o constructivista es desarrollado y definido por James Mcgregor Burns (1978). El liderazgo es una serie de procesos recíprocos que preparan a los participantes de una comunidad educativa a construir hacia un propósito común. El líder constructivista inspira confianza y apoya a los colaboradores para el logro de las metas de la organización. Cuando el líder expresa los estándares logra la unificación con sus seguidores-colaboradores y logra cambiar sus objetivos y creencias para alcanzar un nivel alto de ejecución. Otros colegas apoyan y argumentan de la teoría:

Bass – ayuda a elevar las aspiraciones del grupo

Bennis y Nanus – el ingrediente principal es el “empowerment” (apoderamiento o autonomía)

Sergiovani – respeto y fidelidad a los acuerdos del grupo. Compromiso y visión con el trabajo colectivo

Razik & Swason – No se basa en estructuras administrativas ni funcionales. El éxito es compartido.

Enfoques constructivistas en el aprendizaje nos lo presentan las teorías de Piaget y Vygostky. Piaget es de tipo cognitiva y Vygostky es constructivista social. Establece oportunidades para que el estudiante aprenda con el maestro y los pares en la construcción del conocimiento y la comprensión. Los maestros son facilitadores no directores. Piaget y Vygostky plantean la importancia de los factores sociales en la construcción del conocimiento y la comprensión del estudiante. En la cognición situada
Piaget plantea que el conocimiento esta situado o localizado y se construye en contextos sociales y físicos, no dentro de la mente del individuo o el estudiante. Mediante el andamiaje, según Vygostky hay que cambiar los niveles de apoyo en el salón de clases.
Son los estudiantes más hábiles quienes proporcionan la asesoría para mejorar el rendimiento del aprendizaje. El Aprendizaje cognitivo implica a un novato y un experto.
El experto apoya la comprensión y usa las habilidades culturales del novato. La tutoría involucra un aprendizaje cognitivo entre un experto y un novato. Los estudiantes tutores o voluntarios son excelentes colaboradores del maestro/a en el salón de clases. En las tutorías de pares ambos aprenden.

El Aprendizaje cooperativo ocurre cuando los estudiantes trabajan en grupos para ayudarse unos a otros a aprender. Ayuda a mejorar la motivación intrínseca, promueve la interdependencia y la responsabilidad individual de los estudiantes. Para los pequeños grupos de trabajo se recomienda grupos heterogéneos con diversidad de habilidades, etnicidad, estatus socioeconómico y género. Se asigna un líder por grupo. Hay que diseñar claramente los diferentes roles que ejecutará el líder.


Los modelos constructivistas sociales implican varias innovaciones para el aprendizaje dentro del salón de clases. Antes de estudiar estas innovaciones, consolidemos primero nuestros conocimientos acerca de diversas perspectivas constructivistas y el lugar en el que se ajustan los modelos construvistas sociales en el esquema constructivista general.

El constructivismo destaca que los individuos construyen sus conocimientos y entendimiento de manera activa. Las teorias del desarrollo de Piaget y Vygotsky, las cuales son constructivistas nos enfocamos principalmente en los modelos de procesamiento de la información del aprendizaje, e incluimos algunas ideas acerca de la manera en que utilizamos las habilidades de procesamiento de información para pensar de manera constructivista. Según todos estos modelos constructivistas, soos autores de sus propios conocimientos. En general, un modelo constructivista social enfatiza los contextos sociales de aprendizaje y el hecho de que el conocimiento se crea y se construye mutuamente (Bearison y Dorsal, 2002). Las relaciones con los demás crean oportunidades para que evalúemos y definamos la comprensión conforme nos vemos expuestos al pensamiento de otros y conforme participemos en la creación de un entendimiento compartido (Gauvain, 2001). De esta forma, las experiencias en los contextos sociales proporcionan un mecanismo importante para el desarrollo del pensamiento (Johnson y jonson, 2003).

El modelo de Vygotsky implica a una persona social inmerso en un contexto sociohistórico. Pasando de Piaget a Vygotsky, el cambio conceptual va de lo individual a la colaboración, a la interacción social y a la actividad sociocultural (Rogoff, 1998). En el modelo constructivista cognoscitivo de Piaget, se construyen los conocimientos al transformar, organizar y reorganizar conocimientos e información previa. Vygotsky destacó que se construyen los conocimientos a través de las interacciones sociales con los demás. El contenido de estos conocimientos se ve afectado por la cultura en que vivimos, la cual incluye el lenguaje, las creencias y las habilidades.

Piaget hizo hincapié en que los maestros o colaboradores deben apoyar a los estudiantes o colaboradores para que exploren y desarrollen su comprensión. Vygotsky consideró que los maestros deben brindar muchas oportunidades a los estudiantes para aprender con él y con los pares a construir los conocimientos (Kozulin, 2000). Tanto en el modelo de Piaget como en el de Vygotsky, los maestros funcionan como facilitadotes y guías, y no como directores y moldeadores del aprendizaje de los niños.

Observe que nos referimos a un énfasis más que a una diferencia completa. Con frecuencia no hay diferencias completas entre el modelo constructivista social y otros modelos construvistas (Marshall, 1996). Por ejemplo, cuando los profesores o colabordores sirven como guías para que todos descubren los conocimientos, existen dimensiones sociales en la construcción. Y lo mismo sucede con el procesamiento de la información. Si un maestro o colaborador planea una sesión de lluvia de ideas para desarrollar buenas estrategias de memoria, la interacción social está claramente involucrada.

Algunos modelos socioculturales, como el de Vygotsky, dan una gran importancia a la cultura en el aprendizaje; por ejemplo, la cultura puede determinar cuáles habilidades son importantes (como las habilidades para manejar una computadora, las habilidades de comunicación y las habilidades de trabajo en equipo) (Rowe y Wertsch, 2004). Otros modelos se enfocan de manera más exclusiva en las circunstancias sociales inmediatas del ambiente, como cuando todos colaboran para resolver un problema.

En un estudio reciente, con base en la teoría de Vygotsky, parejas de niños de dos escuelas públicas estadounidenses trabajaron en conjunto (Matusov, Bell y Rogoff, 2001). Un miembro de cada pareja provenía de una escuela tradicional que sólo ofrece oportunidades ocasionales a los niños de trabajar juntos mientras aprenden. El otro miembro de la pareja pertenecía a una escuela que da prioridad a la colaboración durante el día escolar. Los niños de la escuela colaborativa construían a partir de las ideas del compañero en colaboración con mayor frecuencia que los niños con la experiencia escolar tradicional. Estos últimos utilizaban de manera predominante un estilo de guía “interrogante”, basado en el planteamiento de preguntas cuya respuesta ya era conocida y reteniendo información para evaluar la comprensión del compañero. Los investigadores también han encontrado que el apendizaje colaborativo suele funcionar mejor en aulas que cuentan con metas de aprendizaje muy específicas (Gabriela y Montecinos, 2001).

En un análisis del modelo constructivista social, se describió que el maestro veía a través de los ojos de los niños (Oldfather y colaboradores, 1999). El mismo análisis también señaló las siguientes características de las aulas constructivistas sociales (Oldfather y colaboradores, 1999):

Una orientación importante hacia las metas de la clase es la construcción de significados colaborativos.
Los maestros supervisan con detalle las perspectivas, el pensamiento y los sentimientos de los estudiantes.
El maestro y los estudiantes aprenden y enseñan.
La interacción social invade el salón de clases.
El currículum y los contenidos físicos del aula reflejan los intereses de los estudiantes y están imbuidos con sus culturas.

Monday, September 8, 2008

Estadística descriptiva e inferencial

Introducción

Definimos estadística como el concepto dentro del campo de las matemáticas que la usamos para acopiar, recoger, analizar, interpretar y representar cantidad de información numérica. Es un acopio de información cuantitativa. Cuando hablamos de un dato estadístico se habla de una cantidad que se obtiene de una muestra. En la investigación, en la planificación, evaluación, presupuestación se usa la estadística. Veremos la información cuantitativa para X ó Y investigación. Manejamos dos tipos de información cualitativa y cuantitativa. Además existe información que describe lo que existe a esto le llamamos estadística descriptiva (lo que es y existe). Existe otra disciplina o rama que describe aquella que no conocemos como estadística inferencial. Hay buenas inferencias y malas inferencias. La estadística descriptiva se divide en Tendencia Central y Dispersión. La estadística inferencial es paramétrica o muestral. Un dato tomado de una muestra es un dato estadístico. Un dato tomado de la población (N) es un parámetro. En la medida que obtenemos datos sin el uso riguroso de la población o muestra son datos no paramétricos.
De acuerdo a Ary, Jacobs y Rozavieh los procedimientos estadicitos son, básicamente, métodos para manejar la información cuantitativa y hacer que tenga sentido; poseen dos ventajas principales: 1) permiten describir y resumir las observaciones y los que cumplen esta función se denominan estadística descriptiva; 2) ayudan a determinar la confiabilidad de la inferencia de que los fenómenos observados en un grupo limitado (la muestra) ocurrirán también en la población más vasta y no observada de donde se sacó esa muestra - es decir, sirven para estimar la eficacia del razonamiento inductivo con el cual se infiere que lo que se observa en una parte se observará también en el grupo entero. En problemas de esta clase se aplica la estadística inferencial. Es esencial que quienes van a realizar una investigación conozcan algunos de los procedimientos estadísticos fundamentales, pues solo así podrán analizar e interpretar los datos y comunicar sus descubrimientos. Lo mismo dígase de los educadores pues necesitan mantenerse al día en el campo de investigación y utilizar los datos que les aporte. Si no lo hacen no lograrán comprender ni evaluar los estudios realizados por otros; tampoco podrán administrar e interpretar correctamente las pruebas usadas en las escuelas. Los maestros que carezcan de un conocimiento sobre estas técnicas tendrán problemas al estimar las habilidades y el aprovechamiento de sus alumnos. Además les será difícil estudiar las investigaciones en sus áreas de especialización y adquirir información actualizada.

La disciplina de la estadística nos ayuda a representar numéricamente la información acopiada en cualquier estudio y/o investigación. Los datos o información recolectada se pueden clasificar de tipo cuantitativo o cualitativo. Los datos de tipo cuantitativo los podemos analizar o estudiar a base de la estadística descriptiva que nos ayuda a descubrir lo que es y lo que existe. Cuando utilizamos el método de análisis de la estadística descriptiva organizamos los datos de la investigación o estudio a través de la distribución de frecuencia y representación gráfica. La distribución de frecuencias es una distribución sistemática de mediciones individuales desde la más baja hasta la más alta (Ary, Jacob y Razavieh, 1989). Se colocan los datos en una columna sucesivamente hasta terminar con la más alta. La repetición de datos se acopia en una segunda columna para determinar la frecuencia por datos. Dicha distribución nos ayuda a examinar la configuración general de la distribución. Con dicha organización o configuración podemos determinar su dispersión, es decir, si se distribuyen uniformemente o si tienden a formar grupos y dónde ocurren estos. La organización de los datos en la distribución de frecuencia, facilita también el cálculo de varios instrumentos estadísticos de utilidad.

REPRESENTACIÓN GRÁFICA
Es muy útil presentar los datos de investigación o estudio en forma grafica. HAY DIVERSOS TIPOS DE GRÁFICAS. LOS DE MAYOR USO SON LOS POLÍGONOS DE FRECUENCIA E HISTOGRAMAS. Los pasos iniciales para construirlos son idénticos:
Pasos iniciales para construir una gráfica son;
COLOCAMOS LAS PUNTUACIONES O DATOS EN FORMA HORIZONTAL Y LE LLAMAMOS EL EJE DE (X) O ABSCISA DESDE EL VALOR MAS BAJO (A LA IZQUIERDA DE X) HASTA EL MAS ALTO (A LA DERECHA DE X)
COLOCAMOS LAS FRECUENCIAS DE LAS PUNTUACIONES O INTERVALOS EN FORMA VERTICAL Y LE LLAMAMOS EL EJE DE (Y) U ORDENADA, NUMERANDOLAS A PARTIR DE CERO (0)
COLOCAMOS UN PUNTO PARALELO CON CADA PUNTUACIÓN Y FRECUENCIA
CONCLUIDOS ESTOS PASOS HEMOS CONSTRUIDO UN POLÍGONO DE FRECUENCIAS O UN HISTOGRAMA

La representación gráfica nos ayuda a presentar los datos de la investigación o proyecto de forma gráfica (visual). Entre diversos tipos de gráficas las de mayor uso son el histograma o polígono de frecuencias.

MEDIDAS DE LA TENDENCIA CENTRAL
Las medidas de tendencia central son una forma útil de resumir los datos consistentes en encontrar un indicador que represente al conjunto de datos (Ary, Jacob y Razavieh, 1989). Los datos se agrupan hacia el promedio en estas técnicas. La estadística dispone de tres técnicas o indicadores que lo son el promedio aritmético, moda y mediana. Para la mayoría de los investigadores el término promedio significa la suma de las puntuaciones dividida entre el número de ellas. Desde el punto de vista estadístico, el promedio puede responder a esta medida, conocida también como media o una de las otras dos medidas de tendencia central denominadas moda y mediana. Las tres técnicas o medidas sirven de indicador para representar la totalidad de grupo. La moda es el valor que con una distribución aparece con mayor frecuencia. De las tres medidas de tendencia central es la más fácil de encontrar porque se obtiene por inspección y no por cómputo. Algunas veces hay más de una moda cuando se repiten los datos con la misma frecuencia. Esta clase de distribución se denomina bimodal y así sucesivamente de repetirse 3, 4 ó más veces. De acuerdo a Ary, Jacob y Razavieh señalan que la moda no puede constituir un indicador apropiado de valor central por dos razones: por su inestabilidad ya que dos (2) muestras aleatorias sacadas de la misma población podrían tener modas bastantes diferentes. En segundo lugar, una distribución a veces admite más de un modo. El modo es más legítimo en escalas nominales. La mediana se define como el punto de una distribución de medidas por debajo del cual se encuentra el 50% de los casos, o sea, que el otro 50% estará por encima. Para determinar la mediana se coloca los datos en orden jerárquico de menor a mayor en orden descendiente. Luego se busca el punto por debajo del cual se encuentra una mitad de los datos. La mediana es una técnica de estadísticas ordinal pues se basa en los rangos. Es factible calcular una mediana con los datos de intervalos o de razones, pero no se usa la característica de intervalo de los datos.
La técnica de tendencia central que más se emplea es la media, conocida vulgarmente como el promedio o promedio aritmético. Es la suma de todos los valores de la distribución dividido entre el número de los casos. No requiere organizar los datos en ningún orden particular. La media constituye un promedio aritmético y por ello se clasifica como una estadística de intervalo. Se usa en caso de datos de intervalo o de razones y no en datos ordinales ni nominales (Ary, Jacobs y Razavieh, 1989).Si comparamos las tres técnicas de tendencia central como la media es una estadística de intervalo o de razón, generalmente da una medición más exacta que la mediana (estadística nominal). Además toma en cuenta el valor de todas las puntuaciones. Suele usarse con más frecuencia en las investigaciones por ello. La media es el mejor indicador del rendimiento combinado de un grupo completo. No obstante, la mediana constituye el indicador más eficaz del rendimiento típico.
Veamos ahora los procedimientos para calcular moda, mediana y media o promedio aritmético.

MODA
Para calcular la moda aplicamos la definición; escogemos el dato de mayor frecuencia. En la distribución de frecuencias antes indicada el dato con mayor frecuencia es cincuenta (50) con una frecuencia de cuatro (4). Por lo tanto, la moda es 50.

MEDIANA
Para calcular mediana podemos aplicar la definición u obtenerla mediante fórmula. Si la obtenemos mediante la definición; una vez organizamos los datos en forma decreciente en la distribución de frecuencias nos ubicamos en el punto por debajo o por encima del cual se encuentra el 50 por ciento de los casos. En la distribución de datos que estamos analizando el dato 51 es la medida por debajo o por encima del cual pasa el 50 por ciento de los casos.

MEDIA O PROMEDIO ARITMÉTICO
Recordamos que definimos media o promedio aritmético como la suma total de los datos dividido entre el total de los casos. Lo expresamos mediante la siguiente fórmula: suma de X o datos / total de casos
X = media o promedio aritmético Z = suma de todos los datos o valores x = datos o valores de la distribución N = número de casos o sujetos

CONFIGURACIÓN DE LAS DISTRIBUCIONES
Si una distribución de frecuencia es simétrica, los resultados de la media y mediana coinciden. Cuando la distribución conste de una moda y coincide con la media y mediana, también será simétrica. Si la mediana y la moda son menores o mayores que la media la distribución es asimétrica.
Podemos clasificar la configuración de la distribución en tres tipos:

1. CONFIGURACIÓN SIMÉTRICA
Simétrica = cuando el resultado de la media, mediana y moda es el mismo o similar, o sea, X = 52, Md = 52 y Mo = 52 (Figura 4.1)

2. CONFIGURACIÓN ASIMÉTRICA NEGATIVA
Asimetría negativa = cuando el resultado de la media es menor que de la mediana y moda; X = 52, Md = 53 y Mo = 54 (Figura 4.2)

3. CONFIGURACIÓN ASIMÉTRICA POSITIVA
Asimetría positiva = cuando el l resultado de la media es mayor que el de la mediana y moda; X = 52, Md = 51 y
Mo = 50 (Figura 4.3)

4. CONFIGURACIÓN BIMODAL
Asimetría bimodal = cuando solo la media y la mediana son idénticas y tiene dos (2) modas.

5. CONFIGURACIÓN RECTANGULAR
Asimetría rectangular = cuando se observa una perfectamente rectangular no tiene moda, ya que todos los valores X tienen la misma frecuencia.

VARIABILIDAD / DISPERSION
Aunque los indicadores de la tendencia central ayudan a describir los datos desde el punto de vista del valor promedio o medida representativa, no dan el cuadro completo de una distribución. Los valores medios de dos distribuciones pueden ser idénticos, pero el grado de dispersión o variabilidad de sus puntuaciones pudiera ser bastante diferente. En una distribución las puntuaciones podrían acumularse alrededor del valor central, y en otra podrían estar diseminadas.
Se necesita un indicador que describa las distribuciones según la variación de las puntuaciones. En estadística se dispone de varios de ellos. Los más usados son el rango, la desviación cuartil, la varianza y la desviación típica o estándar.

RANGO
El rango es el más simple de todos los indicadores de variabilidad. Designa la distancia entre la puntuación más alta y la más baja de una distribución, y se obtiene restándole el valor mayor al menor como lo vimos en la Lección # 2 cuando trabajamos con distribución de frecuencia para datos agrupados. Repacemos:
El rango es un indicador de variabilidad poco confiable pues se basa en dos puntuaciones, la mayor y la menor. No constituye un indicador estable de la índole de la dispersión de las mediciones alrededor de valor central. Por esta razón cumple casi exclusivamente funciones de inspección. En algunos informes de investigación se menciona el rango de las distribuciones, pero suele ir acompañado de otras mediciones de variabilidad, como la desviación cuartil y la desviación estándar.

DESVIACIÓN CUARTIL
Podemos definir desviación cuartil como la mitad de la diferencia el cuartil más alto y más bajo de una distribución. El cuartil superior se denomina como Q3. Es el punto de una distribución por debajo o por encima del cual se encuentra el 75% de los casos. El cuartil inferior (Q1) es el punto por debajo o por encima del cual se encuentra el 25% de los casos.
El procedimiento para obtener el Q3 y Q1 es similar al de la fórmula de la mediana.

VARIANZA
La varianza y desviación estándar son mediciones muy útiles de la variabilidad. Se basan en la media como punto de referencia y toman en consideración la magnitud y la ubicación de cada puntuación. Su elemento fundamental consiste en la puntuación de la desviación. Esta puntuación (indicada por X) designa la diferencia que hay entre una puntuación en bruto y la media. Las puntuaciones de desviación negativa y las que se hallen por encima tendrán desviación positiva. Por definición, la suma de las puntuaciones de desviación en una distribución es siempre igual a cero (Ary, Jacob y Razavieh, 1989).
Por ello, si las puntuaciones es desviación suelen obtener un índice de variabilidad habrá que elevarlas al cuadrado. Si los cuadrados de los números positivos y negativos son positivos, la suma de los cuadrados de las puntuaciones de la desviación será mayor de cero. Esa suma puede emplearse para indicar la variabilidad de las puntuaciones en una distribución. La media de los cuadrados de las puntuaciones de la desviación, denominada varianza, sirve algunas veces como índice de variabilidad. Veamos el procedimiento para calcular varianza:
a2 = varianza Z = suma de x2 x = desviación de la media (X - X), conocida asimismo con el nombre puntuación de la desviación N = número de casos de la distribución

DESVIACIÓN ESTÁNDAR
Los educadores prefieren en muchos casos un índice que compendie los datos en la misma unidad de medición que los datos originales. La desviación estándar; la raíz cuadrada de la varianza, cumple esta función. Es la medición de variabilidad de mayor uso. Por definición, la desviación estándar es la raíz cuadrada de la media de los cuadrados de las puntuaciones de la desviación. La desviación estándar pertenece a la misma familia estadística que la media; es decir, constituye un instrumento de intervalo o de razón, y su cálculo se basa en la magnitud de las puntuaciones individuales de la distribución. Es sin duda la medición de variabilidad de uso más común y se utiliza junto con la media.
Por definición la desviación estándar es igual que la raíz cuadrada de la varianza. En la lección 2.2 calculamos la varianza igual a 4. La raíz cuadrada de 4 = 2. Por lo tanto la desviación estándar es igual a 2. Calculemos la desviación estándar mediante fórmula:
a = desviación estándar Zx2 = suma de los cuadrados de cada puntuación (Zx)2 = suma de los cuadrados de las puntuaciones N = numero de casos

PUNTUACIONES ESTÁNDAR
A veces deseamos comparar las posiciones relativas de un estudiante en dos pruebas distintas. Una puntuación estándar de gran uso e importancia en los análisis estadísticos es la puntuación Z. Se define como la distancia de una puntuación con la media, según una medición hecha con unidades de desviación estándar. La fórmula para obtenerla la veremos a continuación:
z = puntuación Z x = la media de la distribución X = puntuación en bruto a = desviación estándar de la distribución x- = puntuación de la desviación (X - x)
Por ejemplo un estudiante obtuvo en el examen de psicología 72% y 48% estadística. La media fue 78 y 51, respectivamente. La desviación fue 12y 6, respectivamente. Si aplicamos la fórmula:
Z = 72 - 78 / 12 48 - 51 / 6 Z = -.50 - Psicología -.50 - Estadística
En ambas prueba se obtuvo el mismo nivel de aprovechamiento.
En otro caso, si las puntuaciones fueran 81 (psicología) y 53 (estadísticas), con medias de 78 y 51; y desviaciones de 12 y 6, respectivamente:
Z = 81 - 78 / 12 53 - 51 / 6 Z = +0.25 - Psicología +0.33 - Estadística
Podemos concluir en este caso que el nivel de aprovechamiento en la prueba de Estadística fue ligeramente mejor que en la de Psicología, a pesar de obtener 81%.

CORRELACIÓN
Hasta el momento hemos examinado técnicas de estadista que nos sirven para describir distribuciones individuales de datos. Veremos a continuación otras técnicas para buscar la relación entre pares de datos o puntuaciones. Estas técnicas se denominan como procedimientos correlacionales. La relación entre pares de datos, puntuaciones o variables la vamos a describir utilizando los índices de correlación. Estos índices nos van a decir el grado de relación entre los pares de datos. Podemos ilustrar esta relación entre pares de datos a través de una grafica de dispersión. Esta grafica de dispersión nos muestra la dirección y la fuerza de la relación.
Si usamos como ejemplo los resultados de una prueba de ciencias de 30 estudiantes y la comparamos con sus índices de inteligencia podemos buscar la relación entre estas dos variables y describirla de una de las siguientes formas:
POSITIVA PERFECTA (+ 1.00)
POSITIVA ESTRECHA (+.93)
POSITIVA MODERADA (+ .67)
NEGATIVA PERFECTA (- 1.00)
NEGATIVA MODERADA (- .76)
NULA (no hay correlación)

COEFICIENTES DE CORRELACIÓN
Los coeficientes de correlación fueron ideados para señalar la dirección (negativa o positiva) y la fuerza de la relación entre variables. Con el cálculo de un coeficiente de correlación de dos variables se obtiene un valor que fluctúa entre -1.00 y +1.00. Un -1.00 describe una relación negativa perfecta y un +1.00 describe una relación positiva perfecta. El punto medio de esta relación fluctúa en cero (0) señalando ausencia de relación o nula.

LA CORRELACIÓN PRODUCTO-MOMENTO (PEARSON)
El estadístico ingles Karl Pearson ideo el coeficiente de correlación PRODUCTO-MOMENTO siendo el más usado en el campo de las estadísticas. Lo usamos cuando la escala de medición es de intervalo o de razón. Lo definimos como la media de los productos de las puntuaciones z, o sea, cada puntuación z en una variable X se multiplica por su puntuación z de una variable Y. Estos productos pareados de puntuaciones se suman y el resultado se divide entre el número de pares.

Estadística Inferencial

A veces la investigación necesita ir más allá de la descripción de datos. Después de hacer observaciones sobre una muestra, se aplica la inducción o inferencia para generalizar los descubrimientos a la población íntegra de donde se sacó la muestra. Para ello se requieren técnicas que permiten realizar inferencias válidas a partir de las muestras y aplicarlas a las poblaciones totales (Ary, Jacob y Razavieh, 1989).
Una característica importante de la estadística inferencial consiste en pasar de una parte al todo. Por ejemplo, un grupo seleccionado aleatoriamente y compuesto de 500 universitarios. Podría seleccionarse para hacer generalizaciones sobre la totalidad de la población estudiantil de esa universidad. El grupo pequeño que habrá de observarse se denomina muestra y el grupo mayor al que se aplicarán las generalizaciones constituye la población. Esta última se define así: "Todos los miembros de cualquier clase bien determinada de personas, eventos u objetos". Por ejemplo, en un estudio cuya población estuviera formada por los adolescentes estadounidenses sería posible definirla como todos los varones y mujeres estadounidenses cuya edad fluctúe entre los 12 y 21 años. Una muestra es parte de una población. Por ejemplo, los alumnos de la Washington High School de Indianápolis integran una muestra de los adolescentes estadounidenses. Son parte de una población más grande pues tienen la ciudadanía estadounidense y su edad oscila entre 12 y 21 años. La inferencia estadística es un procedimiento mediante el cual se estiman los parámetros, o sea las características de las poblaciones, a partir de las estadísticas, o caracteres de las muestras. Tales estimaciones se basan en las leyes de la probabilidad y se consideran meras estimaciones y no hechos absolutos. En cualquiera de estas inferencias existe cierto grado de error. En la medida que obtenemos datos sin el rigor de proceso de muestreo estos datos se consideran no paramétricos.
La teoría del muestreo indica que es parte esencial del enfoque científico, pues requiere hacer observaciones y sacar conclusiones de ellas. Si pueden observarse todos los casos de una población, es factible sacar conclusiones seguras acerca de ella a partir de las observaciones (inducción perfecta). Por otra parte, si sólo se observan algunos casos lo único que puede hacerse es inferir que esas observaciones serán válidas acerca de la población total (inducción imperfecta). Este es el concepto del muestreo: se toma una parte de la población, se hacen observaciones sobre ese grupo pequeño y luego los resultados se generalizan a la población total. El muestreo es indispensable para el investigador. Por lo general es imposible estudiar a todos los miembros de una población debido a problemas de tiempo, dinero y esfuerzo. Además, rara vez es necesario examinar todos los casos para entender el fenómeno en cuestión. El muestreo permite estudiar una parte de la población en lugar de su totalidad. El propósito de extraer una muestra de una población consiste en obtener información acerca de esta última; en consecuencia, es muy importante que los individuos incluidos en la muestra constituyan una sección representativa de los sujetos que componen la población. Es decir, las muestras han de ser representativas para que pueda generalizarse con seguridad de ellas a la población. Por ejemplo, el investigador podría suponer que los alumnos de la Washington High School son representativos de los adolescentes estadounidenses. Pero esta muestra quizá no fuese representativa si los que figuran en ella poseen ciertas características que difieren de la población originaria. El emplazamiento de su escuela, el ambiente socioeconómico, la situación familiar, las experiencias anteriores y muchas otras características de este grupo pueden restarle representatividad. Tendríamos entonces una muestra viciada. No es legítimo no podrían generalizarse a la población los datos que aporta este tipo de muestreo.
Es verdad que se corre un riesgo al estimar las características de la población si se parte de las observaciones de la muestra. La probabilidad de que tal inferencia sea correcta depende en gran parte del procedimiento de muestreo que se usa. Existen varios procedimientos para seleccionar un subgrupo de una población que la represente bien y que evita la parcialidad. El muestreo aleatorio es el procedimiento más conocido. Su característica básica es que todos los miembros de la población tienen una oportunidad igual e independiente de figurar en la muestra. Es decir, en cada par de elementos X y Y las oportunidades que posee el primero de ser seleccionado igualarán a las del segundo, y la selección X no afectará en absoluto a la probabilidad de selección de Y. He aquí etapas de este tipo de muestreo de acuerdo a Ary, Jacob y Razavieh (1989). 1. Definir la población 2. Enumerar a todos los miembros de la población 3. Seleccionar la muestra mediante un procedimiento en el cual tan sólo el azar determine qué miembros de la lista se escogen para figurar en la muestra. El procedimiento más sistemático para sacar una muestra aleatoria consiste en utilizar una tabla de números aleatorios que contiene columnas de dígitos generados mecánicamente - casi siempre por una computadora- para asegurar que se obtiene un orden aleatorio. Por desgracia, el muestreo aleatorio requiere enumerar a todos los individuos de una población limitada para extraer la muestra - requisito que a veces obstaculiza gravemente la aplicación a este método.
El muestreo estratificado se utiliza cuando la población la integre un número de subgrupos o estratos que difieran en las características que se pretende estudiar, es aconsejable valerse del muestreo estratificado. El muestreo estratificado permite al investigador determinar hasta qué punto cada estrato de la población está representado en la muestra. El muestreo estratificado, cuando pueda aplicarse, dará una muestra más representativa que el simple muestreo aleatorio. En este último, ciertos estratos corren el peligro de quedar subrepresentados o sobre representados en la muestra. La mayor ventaja del muestreo estratificado consiste en que garantiza la representación de grupos definidos de la población. Como ya se ha dicho, es muy difícil y a veces no imposible enumerar a todos los miembros de una población objetivo y entresacar una muestra. La población de estudiantes estadounidenses de enseñanza media, por ejemplo, es tan extensa que no hay manera de enumerar a todos sus miembros para extraer una muestra. Además, sería muy costoso emprender el estudio de una muestra que esté esparcida por todo el país. En este caso, es más fácil estudiar a sujetos en grupos que se presentan de manera espontánea. Es decir, el investigador escogerá aleatoriamente un número de escuelas de una lista e incluirá en la muestra a todos los que frecuentan esas escuelas de la muestra. A esta técnica se le llama muestreo por grupos porque la unidad elegida no es un individuo sino un grupo de personas que se encuentran juntas por causas naturales. El muestreo sistemático consiste en sacar una muestra tomando todos los casos k de una lista de población. Ante todo, se establece cuántos sujetos se quiere que tenga la muestra (n). Como se conoce el número total de miembros de la población (N), basta dividir N entre n para determinar el intervalo de muestreo (k) que se aplicará a la lista. El primer miembro se selecciona al azar entre los primeros miembros k de la lista y luego se escoge cada miembro k de la población para la muestra. Se comienza por la parte superior de la lista para que el primer caso pueda seleccionar aleatoriamente de entre los diez primeros y para que luego se escoja cada décimo caso. El muestreo sistemático difiere del muestreo aleatorio simple en el hecho de que las elecciones no son independientes. Una vez escogido el primer caso, todos los casos subsecuentes que habrán de figurar en la muestra determinan de modo automático. Si la lista original de la población sigue un orden aleatorio, el muestreo sistemático producirá una muestra que desde el punto de vista estadístico puede un substituto razonable de la muestra aleatoria. Recordemos que los diversos tipos de muestreo expuesto aquí no se incluyen mutuamente, sino que pueden usarse varias combinaciones. Por ejemplo, es posible aplicar el muestreo por grupos al estudiar una población más grande y dispersa. Al mismo tiempo, quizá se desee estratificar la muestra para responder los interrogantes sobre los estratos de que consta. En este caso se estratificaría la población de acuerdo con los criterios fijados de antemano y los grupos de sujetos se seleccionarían aleatoriamente de cada estrato.
El tamaño de la muestra es una de las primeras preguntas que es preciso plantear se refiere al número de sujetos que se deben incluir en la muestra. Técnicamente, el tamaño de la muestra depende de la precisión con que el investigador desea estimar el parámetro de la población en un nivel particular de confianza. No hay ninguna regla sencilla con la cual determinar esa dimensión. La estimación del tamaño requerido se obtiene con una operación algebraica si se define con exactitud la varianza de la población, la diferencia esperada y las probabilidades deseadas de un error. El método más seguro es usar una muestra tan grande como sea posible. Una muestra grande tiene mayores posibilidades de ser representativa de población. Además, es probable que los datos sean más exactos y precisos lo cual quiere decir que cuando mayor sea la muestra, menor será el error estándar. La técnica o estrategia de la estadística inferencial nos ayuda a tomar decisiones razonables con información limitada de acuerdo a Ary, Jacob y Razavieh (1989) se usa para describir aquello que no se conoce de la muestra para llegar a conclusiones y la recomendación sobre la población estudiada. Las técnicas o estrategias de esta estadística las clasifican en paramétricas o no paramétricas. En las paramétricas se es muy riguroso con los elementos de muestra y confiabilidad, mientras que en las no paramétricas se escoge la muestra por conveniencia, estratificado, sistemática, disponibilidad según se explica anteriormente.

Nuevos estilos de liderazgo (cont.)

En el artículo anterior les plantee la necesidad que tenemos de adoptar nuevos estilos de liderazgos para hacer frente a los cambios ineludibles que trajo la globalización y la tecnología en todas las instituciones tanto, de comercio, banca, industria o educativas. Estos nuevos estilos de liderazgo se basan en los conceptos planteados por Burns (1978), quien distinguió entre liderazgo transaccional y liderazgo transformacional. Bass describió los líderes transaccionales, conceptualizados por Burns, como líderes que reconocen lo que los asociados quieren obtener de su trabajo y tratan de ver que lo consigan, siempre y cuando sus ejecutorias así lo garanticen; estos líderes intercambian recompensas y promesas a cambio de niveles apropiados de esfuerzo de parte de los asociados y responden a las necesidades y deseos de estos asociados mientras cumplan con su trabajo.
Bass (1985) describe el líder transformacional como uno que aumenta el nivel de concienciación de la importancia que tiene el alcanzar los resultados valorados y las estrategias para alcanzar dichos resultados. Este líder estimula los asociados a trascender sus intereses propios por el bien del equipo, la organización y la política mayor y promueve el desarrollo de las necesidades de los asociados a niveles más altos en áreas tales como rendimiento, autonomía y afiliación, tanto las necesidades relacionadas, como las no relacionadas al trabajo.
Bass (1985) propone un nuevo paradigma basado en los efectos aumentativos (augmentation effects) del liderazgo transformacional. Contrario a Burns que sostenía que el liderazgo transaccional y el transformacional eran los extremos opuestos del mismo continuo, Bass propone un modelo que sugiere que el liderazgo transformacional aumenta los efectos del liderazgo transaccional en la satisfacción de los asociados y en otros efectos. El modelo original de Bass (1985) provee una base para liderazgo efectivo, pero se pueden lograr efectos mayores en términos de esfuerzo extra, de eficacia y de satisfacción aumentando el liderazgo transaccional con el transformacional.
Sostiene que un enfoque puramente transaccional no es suficiente como base para el desarrollo a largo plazo y para cambio individual y organizacional significativo. Los objetivos de orden menor están relacionados con alcanzar los objetivos de ejecución esperados. Para alcanzar objetivos de orden mayor, asociados con sistemas organizacionales altamente exitosos, se necesita operar en el nivel más alto del amplio recorrido de liderazgo. Estas fuerzas de liderazgo son las que motivan los asociados a ejecutar al potencial máximo, ya sea para el bien del individuo, del líder o del colectivo. El liderazgo transformacional se visualiza como un proceso de intercambio de orden mayor, no es una transacción simple sino un cambio fundamental en orientación con implicaciones para el desarrollo y ejecución, tanto a corto como a largo plazo.
A través de las dimensiones de liderazgo transaccional, gerencia-por-excepción (activa o pasiva) y recompensa contingente, los líderes transaccionales trabajan hacia el reconocimiento de los roles y tareas necesarias para que los asociados alcancen los resultados deseados. También reconocen lo que los asociados necesitan y desean, aclarando cómo serán satisfechas estas necesidades y deseos si el asociado ejerce el esfuerzo necesario requerido por la tarea. En este modelo el liderazgo transaccional es visto como un componente esencial del liderazgo efectivo de recorrido completo. En este nuevo paradigma se añade el liderazgo transformacional. Éste no reemplaza el liderazgo transaccional, sino que aumenta el liderazgo en el logro de las metas del líder, del asociado, el colectivo y la organización (Waldman y Bass (1996), Howell y Avolio (1993), Waldman, Bass y Yammarino (1990). El líder transformacional a través de su influencia idealizada, la motivación inspiradora, la consideración individualizada y la estimulación intelectual produce niveles más altos de esfuerzo extra, eficacia y satisfacción en otros, ejecutando más allá de lo esperado. El proceso resulta en asociados más capaces de auto dirigirse, de asumir responsabilidad por sus acciones y obtener recompensas a través del auto refuerzo. Los asociados se van pareciendo más a sus líderes, eventualmente modelan sus líderes y se convierten en líderes transformacionales.
En el próximo artículo vamos a explicar detalladamente las dimensiones que componen los estilos de liderazgo transformacional, transaccional y “leasser faire” y podrás percibir cuál estilo de liderazgo utilizas más en tu vida profesional y/o personal.

Nuevos estilos de liderazgo: Transformacional / Transaccional

Nuevos estilos de liderazgo: Transformacional / Transaccional

Todas las instituciones educativas, de comercio, la banca, las industrias enfrentan estructuras, procedimientos, tecnologías y mercados cambiantes y a cambios de más alto nivel en términos de actitudes, creencias, valores y necesidades, tanto de los consumidores como de la comunidad en general. A partir de 1990 se adoptaron políticas de liderazgo, administración y supervisión que van enfocadas hacia el cliente principalmente y dirigidas a atender las necesidades básicas de los empleados. Para ello se implanto el enfoque Calidad Total en la Gerencia. El propósito es transformar las instituciones comerciales, bancarias, educativas e industriales en centros de acceso a la información a través de Internet, Word Wide Web-site y aplicando la alta tecnología mediante redes locales, institucionales e internacionales.
El interés en la promoción de cambio de más alto nivel en los individuos, los grupos y las organizaciones trajo un nuevo paradigma centrado en la relación entre el liderazgo transaccional y el liderazgo transformacional. A través del liderazgo transformacional el líder ejerce influencia sobre los asociados para que éstos sean conscientes de lo que es importante y para moverlos a que se vean ellos mismos y las oportunidades y retos del ambiente de una manera diferente. Los líderes transformacionales son pro-activos y buscan optimizar el desarrollo de los individuos y grupos y el desarrollo y la innovación organizacional, más allá de la ejecución esperada, convencen a los asociados a buscar niveles más altos de potencial y de estándares morales y éticos. Los líderes transaccionales trabajan para que los asociados alcancen los resultados esperados, mientras que los líderes transformacionales trabajan para alcanzar niveles más altos de esfuerzo, para lograr más de lo esperado.
La literatura afirma que un estilo puramente transaccional no es suficiente para alcanzar cambios individuales y organizacionales significativos, ni para alcanzar a largo plazo el desarrollo institucional esperado (Bass y Avolio, 2004). Los resultados de algunas investigaciones demuestran que el modelo de liderazgo transaccional provee una base para el liderazgo eficaz, pero se generan niveles más altos de esfuerzo, satisfacción y eficacia en los empleados ( Bass y Avolio, 2004) aumentando el liderazgo transaccional con el transformacional. Bass (1985) sugiere que es mucho más probable que los líderes transformacionales emerjan en tiempos de crecimiento, cambio y crisis. La aceptación de este líder es mayor en organizaciones que se enfrentan a las nuevas tecnologías y los mercados cambiantes. Es importante, por lo tanto, que los líderes operen a niveles más altos de producción dentro del contexto descrito. Sin duda que las instituciones se beneficiaría con la aplicación del modelo de liderazgo transaccional y transformacional descrito lo cual facilitaría su desarrollo organizacional a largo plazo y para lograr cambios significativos, tanto a nivel individual como institucional.
En el próximo artículo sobre estilos de liderazgo les explicaré el Modelo de Liderazgo Transformacional / Transaccional de Bass & Avolio (2004) y las dimensiones de cada estilo que se deben atender para convertirnos en lideres de cambio en este nuevo milenio.

Investigación sobre Liderato Transformativo

Esta investigación tuvo como propósito identificar los estilos de liderazgo de los administradores, su eficacia y el impacto en los niveles de satisfacción y esfuerzo extra de los subalternos. Específicamente, el problema investigado es: ¿Cuán eficaces son los patrones de liderazgo transformacional y transaccional de los administradores y qué influencia ejercen en los niveles de satisfacción y de esfuerzo extra de los subalternos, según las percepciones de éstos y las de los administradores?
El marco teórico utilizado en esta investigación considera la conceptualización original de liderazgo de Bass (1985). Específicamente, éste consiste en el modelo Liderazgo de recorrido completo (Full Range Leadership Model, FRL), formulado por Avolio y Bass (1991).
Este estudio es de tipo descriptivo y de correlación. Las variables del estudio son los estilos de liderazgo de los administradores, la eficacia del estilo de liderazgo del administrador y los niveles de satisfacción y esfuerzo extra de los subalternos. La población de este estudio estuvo constituida por 311 sujetos, 68 administradores y 243 subalternos de cuatro Recintos Universitarios. Los mismos fueron seleccionados por tamaño de matricula, por estructura organizacional y ofrecimientos académicos. Participaron 54 administradores y 164 subalternos para un total de 218.
Los estilos de liderazgo de los administradores se midieron con una versión traducida al español del instrumento Cuestionario Liderazgo Multifactorial (MLQ, por sus siglas en inglés), diseñado por Bernard M. Bass y Bruce J. Avolio en el año 1995 y revisado en el año 2004. Se realizaron pruebas de validez de constructo y confiabilidad (alfa de Cronbach), cuyos resultados fueron aceptables.
A la luz de los hallazgos del estudio se concluyó que los administradores alternan el ejercicio de diferentes tipos de liderazgo combinando el liderazgo transaccional con el transformacional; ejercen el liderazgo transformacional con mayor frecuencia que el liderazgo transaccional y ambos con mayor frecuencia que el pasivo-evasivo. También se concluyó que ejercen el liderazgo transformacional más frecuentemente a través de motivación inspiradora y consideración individualizada, seguido de influencia idealizada por conducta, influencia idealizada por atributos y estimulación intelectual; ejercen el liderazgo transaccional a través de recompensa contingente y con menor frecuencia a través de gerencia-por-excepción (activa) y ejercen el liderazgo pasivo-evasivo a través de gerencia-por-excepción (pasiva) y con menor frecuencia a través del estilo ‘laissez faire’.
Los administradores y sus subalternos difieren significativamente en sus percepciones respecto a la frecuencia con la cual el administrador exhibe características y conductas en todas las dimensiones de liderazgo transformacional, excepto en la dimensión estimulación intelectual; difieren significativamente en sus percepciones respecto a la frecuencia con la cual el administrador exhibe características y conductas de liderazgo transaccional en la dimensión recompensa contingente y difieren significativamente en la intensidad de sus percepciones respecto a la eficacia de los estilos de liderazgo del administrador, y los niveles de satisfacción y de esfuerzo extra de los subalternos.
Finalmente, se concluye que existe relación significativa entre los estilos de liderazgo de los administradores y la eficacia de los estilos de liderazgo, los niveles de satisfacción y los niveles de esfuerzo extra de los subalternos.

Sunday, September 7, 2008

Bienvenida

Les doy una cordial bienvenida a mi blog sobre temas educativos que te ayudarán a vivir mejor y entender lo racional de la vida. Mientras más nos eduquemos mejor calidad de vida tenemos. El conocimiento te hace la vida más fácil, con calidad y la disfrutarás todo el tiempo. Recuerda que para prepararte y educarte no hay tiempo ni edad.