viernes, 8 de junio de 2012

UNIDAD IV - SEMANA 7

ANÁLISIS DE DATOS[1]

INVESTIGACIÓN CUALITATIVA E INVESTIGACIÓN CUANTITATIVA
El objetivo aquí es señalar la necesidad que nos motiva, el convencimiento de que el desarrollo de las ciencias reclama mayor rigor, precisión y exhaustividad en los análisis de datos sociales. Como una cantidad importante de ellos tienen como materia prima y como resultado final material discursivo (textos) la abundancia de datos hace que su procesamiento resulte una tarea que insume un tiempo desproporcionadamente grande con relación a la duración habitual de los proyectos de investigación, que ronda los dos años.
Esto produce que el investigador se sienta abrumado por la gran cantidad de información, o que restrinja en extremo la amplitud de su investigación por razones prácticas antes que teóricas. La alternativa de emprender proyectos de gran envergadura a largo plazo como para dar tiempo al análisis detallado de gran cantidad de información puede hacer que los resultados de ese estudio resulten obsoletos o inútiles a su conclusión.
La solución de que trabajen varias personas simultáneamente, multiplica la capacidad de trabajo de un investigador individual, pero también la disparidad de criterios para la toma de las decisiones técnicas de codificación, categorización, clasificación, etc. La computadora multiplica igualmente estas capacidades pero manteniendo la homogeneidad de criterios adoptada por una persona. Al automatizar las tareas más mecánicas y rutinarias el investigador ahorra tiempo para poder invertirlo en la toma de las decisiones más importantes, en la elaboración de interpretaciones de los datos y en la construcción de teoría, tareas en las que no puede ser sustituido por la máquina.
En la prosecución de estos objetivos los paquetes comerciales de software tipo "office" (procesador de texto, base de datos y planillas de cálculo) pueden ser de alguna utilidad, pero para un real aprovechamiento de las capacidades de la máquina es conveniente disponer de programas desarrollados especialmente para este tipo de análisis en ciencias sociales.
Los paquetes estadísticos también tienen una aplicación limitada, puesto que son aprovechables en la medida que nuestros datos cualitativos puedan ser cuantificados, o nuestro interés sea contabilizar la ocurrencia de determinadas categorías o establecer la ubicación relativa de alguna medida de tendencia central en una escala ordinal. El tratamiento estadístico de variables cualitativas obliga a transformarlas en variables por conteo por lo que la utilización exclusiva de estos paquetes fuerza o sesga la investigación hacia aquellos tipos de análisis que pueden ser realizados con esos programas, cuando son los programas los que deben estar hechos a la medida de las necesidades de las investigaciones y no las investigaciones diseñadas de acuerdo a las posibilidades del software.
Pero para disponer de programas de análisis que respondan a los intereses de nuestras investigaciones debemos disponer de técnicas de análisis con rutinas precisas y detalladas, en las que ningún procedimiento quede librado a la intuición. Y es un hecho que existe una desproporción muy grande entre la literatura sobre técnicas de recolección de datos, que es abundante y la de análisis de datos, que es exigua. Por este motivo un segundo objetivo de este ítem es repasar los aspectos característicos de la investigación cualitativa que el software especializado debe considerar. Si bien es cierto que en todas las ciencias (sean "blandas" o "duras") hay cierta cuota de "arte", de creatividad y de libertad individual, que es positiva y necesaria, y que no debe ser cercenada por procedimientos demasiado rígidos y estereotipados, ello es sólo conveniente en ciertos puntos cruciales del análisis en los que la computadora no puede hacer el trabajo humano. Pero simultáneamente los aspectos más rutinarios y mecánicos de la investigación deben ser definidos con el mayor rigor a fin de alcanzar un nivel de objetividad adecuado.
Hace falta creatividad e imaginación, y mucha, para inventar esas técnicas de análisis en las que resulte transparente el proceso por el que se arriba partiendo de determinados datos empíricos, y dados tales y cuales supuestos teóricos, a determinadas conclusiones.
Cuando esta parte del trabajo puede ser confiada a la computadora, el investigador queda libre para aplicarse a la más importante tarea de tomar las decisiones que justifican la elección de cierto corpus, la realización de sus mediciones, y la elección de las variables, y de las teorías desde las que recorta la realidad e interpreta los resultados de su investigación.
La máquina no puede tomar ninguna decisión por nosotros, a menos que le suministremos instrucciones y criterios precisos para hacerlo, por lo cual la responsabilidad última por cualquier falla en el diseño de la investigación, la elección de los criterios o la interpretación de los datos será exclusivamente nuestra.
En última instancia, la seriedad de un estudio no radica en el uso de la computadora por puro snobismo tecnológico, ni en el despliegue de cuadros estadísticos y coeficientes, sino en esas decisiones previas que justifican (o no) que los datos representan lo que pretendemos que representen.
"Un análisis estadístico, por muy elaborado que sea, raramente o nunca llegará a compensar las fallas de un proyecto mal concebido, o de un instrumento de recolección de datos deficiente. [...] la estadística puede ciertamente constituir un auxiliar valioso de un acertado discurrir juicioso, pero nunca, en cambio, un sustituto del mismo. Desde el punto de vista del sociólogo no es más que un instrumento" (Blalock, 1986).
Siempre existe el riesgo de usar mecánicamente las pruebas estadísticas, de olvidar que se basan en una modelización de la realidad cuyos supuestos no están justificados en muchos casos, ya sea porque los eventos estudiados no son aleatorios o no son replicables, o bien porque no conocemos los parámetros poblacionales, por citar sólo algunos de los supuestos en los que se basan las pruebas estadística más comunes. La replicabilidad de los experimentos depende de que puedan obtenerse a los mismos resultados siguiendo los mismos procedimientos en "condiciones semejantes". Pero estrictamente hablando estas son condiciones ideales, que no siempre podemos asumir como válidas.
"Sin duda las condiciones cambian en la realidad, pero ha de ser posible imaginar, por lo menos que no lo hacen [...]. Prescindimos del hecho de que en el proceso del lanzamiento de la moneda real podría acabar por gastarse de modo irregular, o que en ocasiones se pudiera mantener de canto. Aprendemos a concebir un juego de naipes perfectamente barajado, en el que ninguno de ellos tienda a pegarse a otro, pese a que semejante juego no se encontrará nunca en la vida real" (Blalock, 1986).
No es nuestro objetivo oponer los métodos cuantitativos a los cualitativos como alternativas excluyentes. No pensamos que ninguno de estos enfoques sea tan omnipotente como para dar por sí sólo una imagen completa de la realidad social.
Pensamos que son enfoques complementarios que ayudan a dar cuenta de diferentes aspectos de la realidad. Los investigadores individualmente pueden mostrar preferencia por uno u otro de estos enfoques o intentar combinarlos equilibradamente, pero el mayor desarrollo de las técnicas cuantitativas no justifica una restricción de los problemas que pueden ser abordados o resueltos con este enfoque, así como el menor desarrollo de las técnicas cualitativas no justifica la proliferación de ensayos ilustrados, con frecuencia brillantes pero apoyados más en la intuición, que en una investigación empírica y metodológicamente sólida, encaminada a desarrollar técnicas de análisis más precisas.
Recientemente parece estar recibiendo crecientes adhesiones una posición que justifica la especificidad de los métodos cualitativos en base a una supuesta naturaleza radicalmente distinta entre el objeto de estudio de las ciencias sociales y el de las naturales con los siguientes argumentos:
"Los fenómenos sociales son distintos de los naturales y no pueden ser comprendidos en términos de sus relaciones causales mediante la subsunción de los hechos sociales a leyes universales porque las acciones sociales están basadas e imbuidas de significados sociales: intenciones, actitudes y creencias" (Fielding y Fielding, 1986; citado en Vasilachis de Gialdino 1992).
Esta posición tiene una larga tradición ya que se remonta a la separación entre ciencias nomotéticas y ciencias ideográficas, a la que subyace otra división entre "ciencias" (a secas) a las que corresponde explicar por medio de leyes causales y "humanidades" (no ciencias), a las cuales, imposibilitadas de explicar, sólo les queda comprender a su objeto. Actualmente suele vincularse a las ciencias nomotéticas o "duras" con las técnicas cuantitativas y a las ideográficas o "blandas" con los estudios de tipo cualitativo y los defensores de estas posiciones citan a P. Ricoeur, M. Ponty y Heidegger como sus precursores. Uno de los puntos en discusión es la capacidad de las ciencias sociales para generar explicaciones causales. Huberman y Miles lo plantearon en estos términos:
"¿Pueden los estudios cualitativos establecer relaciones causales? Frecuentemente se ataca esta posibilidad tanto desde la derecha ( "Sólo los experimentos controlados cuantitativos pueden hacerlo") como desde la izquierda ("La causalidad es un concepto fuera de lugar en el comportamiento humano - las personas no son bolas de billar")" (Huberman y Miles, 1995).
Vasilachis de Gialdino (1992) basándose en esta tradición, sostiene en sus tesis que aquellas ciencias duras de la naturaleza desarrolladas en el positivismo abordan su objeto desde una metodología hipotético - deductiva y con técnicas cuantitativas, mientras que para el objeto de las ciencias sociales son más apropiadas las técnicas cualitativas y la metodología inductiva correspondiente al paradigma interpretativo. A pesar de ello su última tesis admite que la coexistencia de los paradigmas en sociología (esto podría hacerse extensivo a todas las ciencias sociales) permite la combinación de las "metodologías cuantitativas y cualitativas" (Vasilachis 1992) en lo que denomina "la estrategia de la triangulación". Esta estrategia permitiría controlar los respectivos sesgos metodológicos de cada enfoque, haciendo más riguroso el análisis. Por nuestra parte consideramos ante una diversidad de los objetos de estudio y una diversidad de estrategias de abordaje de esos objetos, una unidad de los mecanismos de pensamiento que los construyen a través de dichas estrategias. Por lo tanto, la elección de enfoques predominantemente cualitativos o cuantitativos, o la combinación de ambos en diversa medida, no depende exclusivamente de la naturaleza del objeto de estudio, sino también de las preferencias, objetivos y opciones paradigmáticas del investigador.
Nada impide que describamos el comportamiento de los sujetos según modelos de caja negra como el del comportamiento de las bolas de billar y buscar regularidades y leyes. De hecho existen enfoques semejantes. La imposibilidad de predecir el comportamiento individual no es una limitación exclusiva de las ciencias sociales. Ningún físico puede predecir el punto exacto en el que caerá una piedra determinada arrojada al aire al ser atraída por la fuerza de gravedad, ni la fracción de segundo exacta en la que tocará el suelo, ni el punto y la hora exactos en el que comenzará un tornado. Todo lo más, se puede predecir con un cierto grado de probabilidad que el valor observado caerá dentro de un cierto intervalo de valores teóricos.
"[...] Nos serviremos del término probabilidad para referirnos no a acontecimientos particulares (llover hoy, Jones asesino), sino a un gran número de acontecimientos o a lo que ocurre a la larga." (Blalock, 1986.)
Este grado de exactitud en la precisión "a la larga" no es inalcanzable para las ciencias sociales. Pero es casi seguro que no satisfaga nuestros objetivos. Cuando un partido político encarga una encuesta de opinión quiere saber qué probabilidades tiene de ganar esta elección, no qué porcentaje de elecciones puede llegar a ganar si se presenta un número suficientemente grande de veces. Por eso la elección de una aproximación cuali o cuantitativa depende fundamentalmente de los problemas que nos proponemos resolver, que a su turno dependen de nuestras preferencias teóricas y paradigmáticas más que de la naturaleza del objeto de estudio.
Los estadígrafos señalan que la necesidad de utilizar técnicas estadísticas se incrementa en la medida en que lo hace la cantidad de variables o condiciones de experimentación no controladas. Blalock (1986) recuerda que "Algunas de las ciencias naturales se han desarrollado sin duda por el espacio de siglos sin el empleo de la estadística inductiva. [Esto se debe a que] en la medida en que imperan condiciones de laboratorio escrupulosamente controladas, la necesidad práctica de las técnicas estadísticas es menor".
Plantear una diferencia radical entre los objetos y los métodos de las ciencias naturales y las sociales deja la puerta abierta a la descalificación de éstas últimas, porque sí es cierto que la estrategia cuantitativa, el método hipotético - deductivo y el paradigma positivista hegemónicos en las primeras, son hegemónicos también en los niveles "gerenciales" del campo científico (Bourdieu, 1994) desde donde se distribuyen los recursos y se legitima el hacer científico. En consecuencia, si al planteamiento de esta división radical le sumamos la definición unilateral y excluyente de cientificidad del enfoque positivista obtenemos el desconocimiento de los estudios basados en técnicas cualitativas, por no ajustarse al modelo normativo de investigación establecido. "La posición que asumimos aquí es que los estudios cualitativos son particularmente apropiados para hallar relaciones causales [...]. En efecto, nosotros nos metemos en la caja negra; podemos saber no sólo que ha ocurrido algo en particular, sino también cómo y por qué ha ocurrido" (Huberman y Miles, 1995) Veamos entonces las características generales de los estudios cualitativos por contraste con un diseño de investigación positivista y cuantitativo típico.
Es verdad que estos estudios siguen generalmente una estrategia hipotético deductiva. Esto es, partiendo de una teoría o modelo teórico (preferentemente matemático, Bunge 1981) se deducen sus consecuencias observacionales (valores esperados) siguiendo las "reglas de correspondencia" (Klimovsky, 1971). Seguidamente se diseña un experimento consistente en realizar un muestreo o una observación controlada. Dicho diseño incluye el uso de técnicas de estadística inductiva y la formulación de hipótesis nula e hipótesis alternativa con relación al intervalo de confianza dentro o fuera del cual se espera que caigan los valores observados, de acuerdo a un determinado nivel de significación convencionalmente determinado como aceptable. Se culmina con la recolección de datos, los cuales corroborarán provisoriamente o refutarán definitivamente la hipótesis nula. Hay que destacar que este modelo normativo de estudio se sigue incluso en los casos en los que la variable de estudio se mide en alguna escala nominal u ordinal. En estos casos lo cualitativo se transforma en cuantitativo por la contabilización de frecuencias.
De modo que en este tipo de estudios la estadística como recurso y un "marco teórico" o modelo como punto de partida resultan indispensables, y su objetivo es poner a prueba la teoría existente (verificarla o refutarla, según los matices). Pero cuando no contamos con esa teoría o cuando una estadística de casos no parece resultar adecuada a nuestros propósitos necesitamos recurrir a otra estrategia metodológica que nos permita generar teoría en el transcurso de la investigación, partiendo a los sumo (ya que hacerlo desde un vacío teórico es imposible) de algunos "conceptos ordenadores" provisorios. Cuanto más diversas y contradictorias resulten estas perspectivas de referencia más productiva puede llegar a ser la investigación. Estos conceptos guiarán la recolección de datos y la formulación de problemas de investigación en una etapa inicial, pero se irán modificando, enriqueciendo, complejizando, reduciendo a medida que avanza la investigación. Y con su modificación vendrá también la reformulación de los problemas y de las preguntas y la búsqueda de nuevos datos pertinentes para contestar estas preguntas, en un ciclo inductivo - deductivo, un ir y venir de los datos a la teoría y viceversa, a lo largo del cual irá cobrando forma algún tipo de formulación teórica original.

No hay comentarios:

Publicar un comentario