Con la introducción generalizada de las modernas técnicas de computación, en las décadas de 1960 y 1970 se hizo posible un análisis multivariante con datos estadísticos procedentes del sondeo a escalas antes impensables. Ello llevó a la sociología cuantitativa a una importante revolución en términos de productividad. En efecto, las tarjetas perforadas, que ya en su momento habían permitido a los investigadores contar el número de individuos que presentaban un mismo atributo para construir las entradas requeridas para sus tabulaciones cruzadas eran ahora reemplazadas por procedimientos capaces de estudiar relaciones entre un número considerable de valores en grandes conjuntos de variables simultáneas. Frente a la cantidad enorme de horas de trabajo que podía llegar a consumir la tabulación en los procedimientos anteriores, la era actual de la automatización electrónica simplificaba e incrementaba la velocidad de estas actuaciones a extremos sorprendentes. No obstante, al lado de este formidable progreso en lo que se puede hacer con los datos, la sociología cuantitativa se mantuvo teóricamente paupérrima. Así, a pesar de que las estructuras estadísticas a las que hoy se tiene acceso con estos medios son mucho más ricas en su calidad de clasificaciones o descripciones, más que coadyuvar al progreso de la disciplina, la informatización ha ido acompañada de una notoria tendencia al retroceso teórico. De hecho, en términos generales, hoy se está bastante más lejos del ideal explicativo que en los años cuarenta.
En buena medida ello responde al hecho de que, aunque la creciente auto-matización informática ha hecho del modelo de regresión su tipo de modelo formal favorito para el análisis de la relación entre variables, ha tendido sistemáticamente a excluir la intención interpretativa o teórica que alentó a las versiones iniciales. La justificación habitual que dan los modelos estadísticos automatizados de esta elección es prioritariamente en términos de la necesidad de una ponderación adecuada de la importancia relativa de las variables y de la significación estadística de la varianza. Pero, por regla general, se pos-pone o se ignora el papel fundamental del control de espuridad (la idea central en la propuesta de codificación y elaboración de P. Lazarsfeld) y se relega al olvido el lenguaje pretendidamente causal de los modelos importados de la econometría (los supuestos no estadísticos de H. Simon). Así, centrados en los tests de significación y en la varianza explicada, potentes modelos como el log-lineal han llevado a ignorar prácticamente el sentido original de tales controles, esencialmente llamados a proporcionar asociaciones no espurias candidatas a la «especificación» o al establecimiento de efectos interactivos y a la «interpretación» causal o teórica del sistema de ecuaciones.
Así, en un exceso de complacencia estadística, se han llegado a ignorar los temas centrales de la causalidad y la vinculación teórica, pero ahora con el agravante de que, aún en ausencia de teoría, la nueva tecnología permite a los investigadores considerar una enorme cantidad de variables simultáneas e indagar sobre toda suerte de cuestiones alusivas a la significación relativa de variables o grupos de variables interactuando. A este respecto, Goldthorpe (2000) subraya cómo la mayoría de estas prácticas de análisis cuantitativo han acabado por hacer un «miserable» favor, un pobre trabajo en detrimento de la explicación en la sociología empírica. Es un hecho que, a pesar del enorme progreso y sofisticación de los instrumentos matemáticos y estadísticos para el análisis de los datos, la sociología cuantitativa de las últimas décadas ha permanecido en la inopia teórica, contribuyendo con ello a que semejante despliegue de medios haya acabado resultando totalmente irrelevante para la acumulación y el progreso de la disciplina.
Un resultado no buscado de la revolución informática ha sido, así, la instauración de un nuevo estilo de sociología aplicada, tanto profesional como académica. En efecto, la sociología estadística se ha convertido en una rama de la disciplina con entidad propia. Matemáticamente demandante y técnica-mente muy refinada, esta sociología tiende a privilegiar el instrumento que, una vez más, crece desmedidamente revirtiéndose contra la teoría. De esta forma, en las últimas décadas, se ha visto consumado un hiato aún mayor entre investigación y teoría. Hay que decir que no toda la responsabilidad es de los sociólogos estadísticos. También es verdad que muchos de los que se autodenominan «teóricos» carecen de la pericia o preparación especializada para entender la inmensa mayoría de las investigaciones cuantitativas, u otros más ni tan siquiera muestran interés, ya que parten del supuesto de que la actividad interpretativa o hermenéutica es la meta única —técnicamente alcanzable o, simplemente, deseable— de la disciplina. Frente a tal despropósito, A. B. Sörensen comenta que una de las ironías en la formación de muchos de los graduados universitarios contemporáneos es que lo que se llama «teoría» acaba muchas veces convirtiéndose en «[…] un simple refugio para estudiantes que o bien se muestran reacios [a la abstracción analítica] o son incapaces de aprender estadísticas».
[…]
La teoría como suma de variables
De esta forma, el mismo poder o potencia que han ganado las técnicas estadísticas en buena medida se ha vuelto contra la sociología fundamental y, en la práctica, la automatización ha llevado en muchos casos a sustituir a la teoría por una suerte de suma de variables. Las teorías acerca de los procesos que se estudian acaban presentándose como ideas acerca de qué variables considerar, y la verdad y la significación teórica se establece simplemente por la vía de mostrar qué variables cuentan. No es de extrañar, pues, que tales aportaciones nunca aparezcan en los cursos estándar de teoría.
No obstante, la idea de que la técnica estadística es capaz por sí sola de proveer explicaciones sociológicas, resulta simplemente insostenible. En contextos no experimentales, tales como son prioritariamente los de la sociología empírica, la idea de que pueden hacerse inferencias causales de forma directa o libre de teoría a partir de modelos estadísticos ha sido fuertemente cuestionada, incluso por los propios estadísticos. Y no cabe pensar que mejorando las estrategias se puede llegar a inferir la causa a partir de los datos de sondeos. Por potentes y sofisticados que sean los modelos de regresión de la sociología, aún en el supuesto de que se haga un buen uso de ellos, más allá de la descripción sólo podrán servir de evidencia sobre la que se monten interpretaciones teóricas, o se critiquen y se contrasten las mismas. En otras palabras, la «sociología de las variables» no puede desembocar en teoría, a menos que la teoría, tampoco autónoma o independiente de sus bases empíricas, provea los supuestos o mecanismos causales desde los que interpretar las estructuras estadísticas.
De ahí la insistencia en una renovada alianza entre investigación y teoría. Su disociación, largamente testimoniada en la historia de la disciplina, «es un escándalo». A tal punto que, como afirma el sociólogo británico J. H. Goldthorpe, «incluso desde estándares no precisa-mente demasiado exigentes como los de la economía o la psicología, la sociología es un despropósito manifiesto».
Una propuesta alternativa: estructuras estadísticas y mecanismos causales
No obstante, el mismo Goldthorpe se empeña en señalar en la sociología contemporánea algunos desarrollos de la investigación y el tratamiento de datos procedentes de sondeos que resultan interesantes y dan además pie a un cierto optimismo. En primer lugar, los datos de los que hoy se dispone se extienden a largos períodos de tiempo. De hecho, los sondeos repetidamente implementados década tras década sobre poblaciones idénticas y los estudios de panel han llegado a alcanzar una madurez sin precedentes en diferentes campos. Así, por ejemplo, cuestiones como el impacto de la industrialización sobre la igualdad de oportunidades, la descomposición de las clases sociales, la desintegración del mundo rural o la integración de la mujer al mercado de trabajo, pueden ser hoy tratadas sobre bases empíricas mucho más seguras que hace tres décadas. En segundo lugar, el imperativo —académico y profesional— de autosuperación en relación con la calidad de los sondeos, junto con una mejor comprensión y uso del análisis secundario, ha dado pie a interesantes comparaciones de carácter internacional que, en conjunto, resultan muy informativas. Por último, a partir de los años setenta, desarrollos auto-matizados como los de los modelos log-lineal o modelos históricos multinivel (multilevel modeling), entre otros, han provisto a los sociólogos cuantitativistas de procedimientos poderosos para tratar datos categoriales asociados a diversos atributos de los distintos individuos sondeados. De hecho, permiten que la información relativa a atributos individuales pueda trabajarse sistemáticamente de forma conjunta con información relacionada con entidades supraindividuales, o con conjuntos de datos jerárquicamente estructurados. Algunos estudios sobre desigualdades étnicas o de clase en lo que toca a rendimientos educativos, tasas de matrimonios mixtos, asimilación de comunidades étnicas, etc. han ido arrojando así descripciones estadísticas de enorme valor para el teórico dispuesto a «interpretarlas».
Así pues, en cuanto al progreso en la disponibilidad técnica para la recolección y el análisis de los datos, la sociología basada en las técnicas de sondeo está hoy a años luz de las expectativas de sus primeros promotores. No acaba de entenderse muy bien la extendida tendencia a analizar tales datos sin la guía de teoría, ni tampoco porqué, a pesar de tantísima información y pericia técnica en el muestreo y los procedimientos de simulación, en buena parte de la sociología contemporánea domina hoy un discurso no explicativo, tendente a oponer resistencia a cualquier tipo de compromiso entre la compenetración interpretativa, la imaginación teórica, la habilidad matemática y las herramientas disponibles a la sociología empírica contemporánea.
En el presente estadio de desarrollo, la disciplina bien podría beneficiarse de una alianza entre la sociología dedicada al análisis de grandes conjuntos de datos y la sociología analítica comprometida con matrices teóricas fecundas en supuestos interpretativos. Si, por ejemplo, como sugiere Goldthorpe, aquellos teóricos que suscriben matrices formales ricas en mecanismos, acabasen adoptando las estructuras estadísticas regulares resultantes de las investigaciones aplicadas como sus explananda preferidos, entonces podrían llegar a interpretarlas dentro de una narrativa general de la acción, haciéndolas inteligibles a la luz de mecanismos intencionales y acabando por presentarlas sea como consecuencias laterales u otras de acciones individuales. Frente a la mejora en la estructura de los explananda, los sociólogos analíticos, en efecto, podrían contribuir a cerrar el hiato entre investigación y teoría aportando mejores mecanismos a la interpretación de los mismos.
Mientras, en general, la importancia del análisis causal y la explicación han retrocedido más que avanzado en relación a las propuestas de hace tres décadas, en la actualidad se dan condiciones de madurez analítica y técnica que, al menos en lo que respecta a ciertos sectores de la sociología contemporánea, alientan la esperanza de poder engarzar una evidencia empírica mucho mejor tratada con mecanismos causales explicativos también hoy mucho mejor conocidos y sistematizados, particularmente dentro de la narrativa general de la acción-intención. No faltan, pues, razones para cierto optimismo. La empresa se plantea prometedora. Queda por ver lo que de ella harán las generaciones futuras de sociólogos.
Extraído de “Estadística y causalidad en la sociología empírica del XX” de Ángeles Lizón.
http://www.raco.cat/index.php/papers/article/viewFile/52773/60723