LA METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA Y OTROS ERRORES DE CONCEPTO

 

Lic. Dante Bobadilla
Facultad de Medicina Humana
Universidad de San Martín de Porres
Lima – Perú

 

 

 

Resumen

A raíz de la ola de críticas surgidas en relación a los reportes de investigación que se publican en las revistas especializadas, se analiza el entorno de ideas y creencias que domina el escenario académico actual, responsable de generar este tipo de estudios. Se revisan los conceptos de investigación, ciencia y otros, que se emplean en estos ambientes, para llegar a la conclusión de que predominan falsos supuestos.

Palabras clave: ciencia, metodología, investigación, estadísticas, paradigma.

Abstract

After the wave of criticism that arose around the research reports that are published in specialized journals, we examine the environment of ideas and beliefs that dominates the current academic area, which is responsible for generating this kind of studies. We review the concepts of research, science and others that are used in these environments, to conclude that predominate false assumptions.

Keywords: science, methodology, research, statistical, paradigm

Introducción

La ciencia, aun con toda su aura magnífica de certeza y seguridad, es, al fin y al cabo, una actividad humana, y como tal, no puede desenvolverse al margen de los vaivenes del comportamiento humano, incluyendo -¡cómo no!- su inevitable dosis de irracionalidad. La actividad científica –o lo que pareciera serlo- tampoco ha estado exenta del fenómeno de la masificación producido durante el siglo XX en casi todo el mundo occidental, y en especial, de la masificación de la educación universitaria. En añadidura, podríamos decir que gracias a la metodología, la ciencia se ha convertido prácticamente en una actividad popular, en consecuencia hemos visto aparecer una pléyade de publicaciones que llenan sus páginas con investigaciones científicas sobre los más variados asuntos del ser humano. Al cabo de unas cuantas décadas de publicaciones de este tipo, muchas dudas han empezado a aflorar en el ambiente y se ha desatado una verdadera tormenta alrededor de este escenario al que algunos ahora se resisten a llamar “científico”. La psicología, por supuesto, no ha sido ajena a todo este acontecer. Peor aun, probablemente sea el campo más afectado. Sin embargo, en ella las cosas transcurren todavía como si nada hubiera alterado la quietud de sus aguas.

Detectando el problema

Cualquiera que lea uno de esos típicos reportes de investigación científica que hoy abundan en las revistas, y lo haga con la mente despejada, y particularmente con esa predisposición crítica alcanzada al cabo de unos años de desencanto con los “hallazgos” de los experimentos científicos en la medicina y la psicología, sabe que no puede dar mucho crédito a estos reportes. A menudo nos invade una sensación de perplejidad tan sólo con observar el diseño del experimento, las variables que se confrontan o los conceptos implicados. Pero más allá de estas cosas que al simple ojo del buen clínico puede parecernos sospechoso, todavía están los problemas de tipo metodológico y estadístico que ya no son tan fáciles de detectar para cualquiera. Y esto es así porque las estadísticas inferenciales son realmente algo muy complejo y difícil de manejar con propiedad para cualquier persona. Muchos libros de texto de estadística son más arduos y difíciles de entender que el psicoanálisis de Lacan o la metafísica de Heidegger, por decir algo. Por lo mismo, no deja de ser preocupante y sospechoso el hecho de que un número tan grande de personas esté volcada a emplearla con tanta facilidad en toda clase de “investigaciones científicas”, incluso en áreas del saber en las que no hace falta una formación matemática rigurosa, como es el caso de la psicología. Peor aun si consideramos el escenario de nuestros países en donde las deficiencias de la formación escolar en matemáticas son mundialmente reconocidas.

Pero las mayores muestras de preocupación, crítica, y hasta enfado, contra esta clase de investigación fundada en estadísticas, han surgido en el campo de la medicina, y desde hace mucho. Entre los numerosos artículos publicados al respecto, sin duda uno de los que tuvo mayores repercusiones fue el del Dr. John P. A. Ioannidis con su explosivo ensayo “Why Most Published Research Findings Are False?” (1). Es decir, “¿Porqué la mayoría de los hallazgos de las investigaciones publicadas son falsas?”. Semejante artículo tenía que llamar, por supuesto, la atención de todos los editores de revistas científicas --empezando por el Director de la Journal of Public Library of Science - Medicine (2), que publicó el artículo-- los que no tardaron en justificarse de diversas formas. Una de ellas dice sencillamente que no es su trabajo verificar la veracidad de lo que publican. Puede que eso sea cierto, pero es verdad que tienen una responsabilidad por alentar y preferir este tipo de publicaciones en desmedro de otras. Como todos saben, existe una miríada de revistas dedicada a reportes de investigaciones hechas con metodología estadística, mal llamada “método científico”, y no hace falta nada más que demostrar los tópicos tradicionales del “rigor metodológico” para publicar cualquier cosa como un hallazgo científico. Estas revistas suelen rechazar, con las disculpas más elegantes, cualquier trabajo de discusión teórica, por ejemplo, explicando sin rubor que tan sólo se interesan por estudios empíricos, como si sólo eso fuera importante en el panorama científico. Que alguien ahora nos advierta de que la gran mayoría de tales reportes son falsos, en el sentido de que realmente no demuestran lo que pretenden, es algo que no debería llamarnos la atención en lo más mínimo.

Inevitablemente los estándares intelectuales funcionan como una forma de censura. El predominio de ciertos estándares intelectuales típicos como el empirismo y el metodologismo a ultranza, se aseguran de que otros modelos no reciban atención ni publicidad ni debate (3). Hasta parece haber un interés especial por confundir la investigación estadística con ciencia, lo cual es, desde cualquier punto de vista, un disparate; tanto así que ya se ha planteado la idea de considerar a este tipo de prácticas como una pseudociencia (4).

El debate generado en el campo médico en relación a las investigaciones basadas en estadísticas no es reciente, pero parece estar siempre sistemáticamente oculta. El cuestionamiento de métodos estadísticos está presente en simposios, artículos y hasta en libros de texto. Y las propuestas van desde una revisión de casi todos los pasos hasta el reemplazo de la estadística inferencial por la bayesiana. En dichos estudios se leen frases elocuentes como “La medicina basada en la evidencia se ha convertido en una suerte de espada del conocimiento, que se muestra y aniquila al adversario en cada visita o reunión médica”. (5)

Por supuesto, la psicología no ha estado al margen del problema planteado por las investigaciones de carácter estadístico. Si bien ya desde los años 60 se escucharon críticas a la “metodolatría” (May, 1967) y al “fetichismo metodológico” (Koch, 1969), estas estuvieron dirigidas inicialmente hacia la actitud, pero luego aparecieron una variedad de críticas muy profundas hacía la metodología estadística misma (6) que cuestionaban el empleo indiscriminado del test de significancia de la hipótesis nula (NHST) en las investigaciones psicológicas, en los que se denunciaba, por ejemplo, el empleo de un híbrido de los test de Fisher y Pearson y Neyman. Finalmente, al cabo de años de debate, en 1996 una comisión especial de la APA (Task Force on Statistical Inference) conformada entre otros por Robert Rosenthal, Jacob Cohen y Leland Wilkinson, estuvo comisionada para examinar el espinoso problema creado por la ola de críticas hacia las investigaciones estadísticas, ampliamente dominantes en el escenario de la psicología americana (y de paso, de la nuestra). El reporte final vio la luz en 1999 (7) pero pasó inadvertido y este asunto siguió ignorado. Hasta el día de hoy son pocos los que conocen de su existencia, y mucho menos los que siguen sus recomendaciones. Si bien el reporte final de la APA no llegó al extremo de prohibir las investigaciones de carácter estadístico frecuentista-inferencial, como más de uno esperaba, sí hace una sucinta relación de recomendaciones en cada tópico de esta metodología. Por último, nos ofrece una frase bastante expresiva: “Good theories and intelligent interpretation advance a discipline more than rigid methodological orthodoxy…Statistical methods should guide and discipline our  thinking but should not determine it” (7).

Ahora bien, al margen de los problemas referidos estrictamente al empleo apropiado de las estadísticas, debemos reconocer la existencia de mitos y creencias presentes en nuestros ambientes académicos, y que son los que al final impulsan a la gente a abrazarse de ciertos paradigmas culturales, llevados por actitudes casi religiosas en búsqueda de “la verdad” o, al menos, del reconocimiento. Actúan convencidos de la infalibilidad y certeza del método, ejecutando cada paso con una profunda sensación de seguridad, como si se tratara de un acto ritualista de naturaleza casi mágica. Y aunque pocos entiendan el significado profundo de sus acciones, las repiten como una especie de conjuro científico, confiados en obtener los resultados en gratitud a la fidelidad mostrada. Por todo esto, intentaremos aquí hacer una breve revisión psicológica de lo que hay detrás de esta conducta académica y de estas actitudes cientificistas, así como un acercamiento epistemológico al conocimiento implicado en este paradigma, y que tal vez no sea tan científico después de todo. Si bien los problemas generados por el metodologismo alcanzan diversas disciplinas, lo que sigue está básicamente referido al campo de la psicología, ya que como la “ciencia en crisis” que es, epistemológicamente hablando, resulta un permanente campo de debate en cuanto se refiere a la investigación de los fenómenos humanos. Todas las conductas humanas que logran sostenerse en el tiempo como actividades fuertes en una comunidad, se sostienen en mitos y creencias. Planteamos que la actividad que desarrollan las comunidades académicas en el campo de la investigación no es diferente. Revisaremos algunos de estos aspectos.

El mito de la verdad estadística

Se ha producido cierto avance en la humanidad desde los días de Cristo. En aquella época una muchedumbre congregada en una plaza determinaba a gritos si alguien era crucificado o liberado. Hoy tenemos la información que nos ofrecen los medios: “El 80% de la población cree que el Ministro de Salud ha cometido un delito”. A diario nos manejamos con esta clase de información estadística. Es más, casi toda la información que se maneja a nivel público tiene un sesgo estadístico; hasta los partidos de fútbol se resumen con unas estadísticas sin sentido ni utilidad. Diríamos que la sociedad se ha estadistificado y que estamos en “La Era de la Información Estadística”. ¿Cómo afecta esto nuestra comprensión de la realidad? ¿Cómo afecta nuestra imagen del conocimiento? De muchas maneras. En primer lugar reduce el esfuerzo de análisis induciéndonos a conformarnos con la inmediatez de un dato, y con la primera forma interpretativa que obtengamos, que por lo general, es una que viene consentida y direccionada socialmente. La información estadística impone un criterio cuantitativo y simplista a la comprensión y análisis de la realidad, relegando o anulando todo su aspecto cualitativo y complejo. Gracias a esto, la estadística gana espacio no por su verdad sino por sus ventajas, pues además de su simpleza carga con una especie de glamour que otorga estatus a quien la maneja. Y es que hace falta cierta capacidad intelectual para comprender apropiadamente la estadística. De hecho, hay muchas formas de interpretarla, pero aun la más errada exige cierta formación y nivel intelectual, por lo mismo resulta extraño su empleo masivo, lo que demuestra que ha terminado convertida en una forma más de las tantas actividades populares carentes de todo sentido racional.

Por otro lado, no podemos ignorar la información estadística que se emplea con el deliberado propósito de manipular la interpretación de la realidad a favor de una sola perspectiva o causa. Como bien se ha dicho, la información estadística es la mejor manera de “mentir científicamente”, ya que el dato estadístico es una simplificación grotesca de la verdad que al ser mostrada sin más, evoca una realidad castrada de su inherente complejidad. Nos dicen cosas como: “El 80% del cuerpo humano es agua”, “un oficinista promedio imprime 10 mil hojas al año, un árbol produce 16.67 resmas de papel, el 50% de lo que se imprime acaba en el basurero”, “el promedio de celulares por persona es de 1.4”. Este tipo de “información” ha dado pie para la chanza de varios pensadores. Incluso existe una frase famosa que se atribuye a Disraeli y a Mark Twain indistintamente: “Existen tres clases de mentiras: mentiras, malditas mentiras y estadísticas”. También se han escrito libros para burlarse de esta clase de información, como la exitosa publicación de A. K. Dewdney “200% of Nothing” y artículos brillantes de pensadores de la talla de Stephen Jay Gould (8). Pero nada de esto es capaz de cambiar las cosas. La realidad humana transcurre guiada por su propia dinámica, no necesariamente racional, y se desordena por su propia entropía. En el transcurso de la evolución cultural de las sociedades, como ocurre en cualquier otro tipo de proceso evolutivo natural, no intervienen factores lógicos o racionales. El resultado inevitable de esta situación en una sociedad en la que predominan ciertos conceptos curiosos sobre democracia, es que se produce una alteración en la lógica de nuestros pensamientos en favor de los números y de la simplificación de la realidad a través de un dato que nos libera de su complejidad. Algún sociólogo diría que la “democratiza” a fin de que todos la entiendan. Borges decía que la democracia no era más que un error de la estadística. En los hechos, nuestra democracia se ha convertido en el predominio del número, de la cantidad sobre la calidad. Se trata de un proceso sistemático de eliminación de las diferencias cualitativas de la sociedad iniciado hace ya dos siglos y cuyo fin es el igualitarismo más rampante entre todos los seres humanos. Y nada mejor que el número, la cantidad, la cifra estadística como el elemento democratizador. Así lo que importa es la cantidad de votantes y no sus diferencias cualitativas. Esta prédica sistemática de dos siglos ha producido una mentalidad numérica y cuantitativa en el hombre de hoy y ha llegado incluso a los ambientes académicos.  Tal es la lógica que se emplea en la metodología científica que pretende estudiar la realidad social y humana a base de mediciones hechas con instrumentos estandarizados y, por ende, igualitarios. Ya casi debemos sentir vergüenza para diferenciar entre un alfabeto y un analfabeto o entre culturas visiblemente distintas. Hasta se han hecho leyes para castigar este tipo de “discriminación”, y esta palabra ha pasado a la lista de malas palabras. Ya ni el científico discrimina nada en la realidad social. Konrad Lorenz se quejaba de que “se le concede legitimidad científica a la percepción cuando está al servicio de la lectura de un instrumento de medición pero se le niega cuando se la emplea para observar directamente un proceso natural” (9). Incluso lo advertía el cancionero popular muy a principios del siglo XX:

Hoy resulta que es lo mismo
ser derecho que traidor,
ignorante, sabio o chorro,
generoso o estafador...
¡Todo es igual!
¡Nada es mejor!
Lo mismo un burro
que un gran profesor.
No hay aplazaos ni escalafón,
los ignorantes nos han igualao.
Si uno vive en la impostura
y otro roba en su ambición,
da lo mismo que sea cura,
colchonero, Rey de Bastos,
caradura o polizón. (10)

Podemos afirmar que hemos ingresado en una era de supremacía de la cantidad sobre la calidad, y en una fase en que la lógica del pensamiento esta dominada por lo numérico, cuantitativo y estadístico. Sin embargo, debemos advertir que la información estadística no es, estrictamente hablando, “información” sino que pasa a ser un dato más, pero de mayor complejidad intrínseca, pues requiere un trabajo mental posterior de asignación de escenarios para una interpretación fundada necesariamente en información previa. Sin estos requisitos de trabajo posterior (y anterior) ninguna información estadística vale nada realmente. En otras palabras, para entenderla cabalmente hay que reponerle toda la complejidad que ella misma ha perdido con ciertos propósitos, como facilitar una ecuación, por ejemplo. Visto así, no podemos considerarla una verdad en sí misma. Todo lo contrario, alejada de su matriz de realidad compleja y su estricta finalidad matemática, ella puede convertirse en una falsedad para todo lo demás. Por tanto, como lo recomienda el informe de la APA, el dato estadístico no puede ni debe determinar nuestros razonamientos. En buena cuenta, esto significa que no podemos considerar el dato estadístico como un fin, y mucho menos como algo que decide una verdad. En la investigación que corresponde hacer en las ciencias humanas y sociales se precisa fundamentalmente atender las diferencias cualitativas del fenómeno, lo que conlleva irremediablemente al empleo de una hermenéutica comprensiva para el estudio de escenarios complejos, impregnados de subjetividad, con hechos que adquieren su real significación a partir de un análisis apropiado de la cultura que los engloba y de las circunstancias históricas que convergen en ella, los cuales son elementos vitales que ninguna estadística está en condiciones de ofrecer. Lamentablemente, este tipo de trabajo demanda el empleo de ciertas capacidades mentales difíciles de hallar en una población heterogénea. Los intentos de emplear metodología para salvar este escollo, no resuelven el problema.

El mito de “el método científico”

Existe un amplio sector académico –bien podría considerársele también una “secta académica”– predicando una especie de credo cientificista que prescribe el empleo del llamado “método científico”, como una suerte de garantía de verdad científica. En realidad se trata del método basado en la estadística frecuentista-inferencial, cuya utilización indiscriminada anda tan cuestionada por estos días. Es este sector precisamente el responsable de aquellos cuantiosos reportes “científicos” que han provocado la ola de críticas comentada líneas arriba. En tanto que dicho método es apreciado como la única ruta hacía el conocimiento objetivo, la preocupación central está puesta casi exclusivamente en el rigor metodológico; todo lo demás es secundario, incluyendo la naturaleza del problema, razón por la cual dicho método es trasladado cómodamente desde el escenario de las ciencias naturales hacia el campo de las ciencias humanas, sin que nadie se haya molestado en hacer una adecuada sustentación epistemológica para semejante proceder científico. Se trata pues de un supermétodo que resulta válido para cualquier escenario, por lo que fue elegido sin conocer el problema. Por ello observamos la aplicación del mismo tanto para estudiar la reacción de una población de bacterias a una sustancia, como para determinar el papel del estrés laboral en los ejecutivos de un banco, con miras a universalizar los resultados. Así es como anda nuestro ambiente científico hoy en día. Mario Bunge hablando sobre este punto nos dice:

Diferenciando entre el método general de la ciencia y los métodos especiales de las ciencias particulares hemos aprendido lo siguiente: primero, que el método científico es un modo de tratar problemas intelectuales, no cosas, ni instrumentos, ni hombres; consecuentemente, puede utilizarse en todos los campos del conocimiento. Segundo, que la naturaleza del objeto en estudio dicta los posibles métodos especiales del tema o campo de investigación correspondiente: el objeto (sistema de problemas) y la técnica van de la mano. La diversidad de las ciencias está de manifiesto en cuanto que atendemos a sus objetos y sus técnicas: y se disipa en cuanto que se llega al método general que subyace a aquellas técnicas” (Bunge, 1973).

De hecho, un método de investigación tiene que ser coherente con la naturaleza del problema que estudia. En las ciencias naturales no tienen el problema de la auto-referencia que existe en las ciencias humanas, donde la relación sujeto-objeto no es tal y se trastoca la base misma del proceso cognoscitivo, pues hace falta construir antes una ontología y una epistemología apropiadas que la sustente. Por otro lado, no hay nada más extraño para la ciencia que un pretendido único método universal. La única precisión que podríamos añadir a la expresión de Bunge es que no son los objetos en sí los que dictan la metodología sino el concepto que del objeto maneja el sujeto investigador, es decir, esa ontología particular a la que nos hemos referido. Históricamente entendimos por “método científico general” a la serie de pasos que desarrollamos para llegar a un saber válido, entendiendo por tal aquel que resulta verificable. Es decir, hemos estado refiriéndonos a la observación, la comprensión del problema, la formulación de una hipótesis, la experimentación y la aceptación o rechazo de la hipótesis. Luego hará falta la confrontación de la hipótesis exitosa que podrá, en tanto, ser una verdad provisional. En otras palabras, se trata tan sólo del proceder heurístico natural y necesario para conseguir un conocimiento objetivo en términos generales, pero que de hecho tienen que empezar a diferenciarse en cada campo particular de las ciencias, o lo que es lo mismo decir, en cada escenario de la realidad en donde pretendemos estudiar algún aspecto de la misma con un enfoque particular. Por tanto es inapropiado hablar de métodos universales, tan sólo queda la libertad del investigador, su creatividad y fortuna frente a su problema. Y gracias a ese libre pensar y proceder científico, se han creado tantos métodos que hoy hace falta mucho trabajo para conseguir una clasificación razonablemente estructurada de la metodología científica existente. Las tenemos de las más complejas y ambiciosas, como la planteada por Gabriele Beissel-Durrant, del ESRC National Centre for Research Methods y el Southampton Statistical Sciences Research Institute, del Reino Unido (11), y las más reducidas como la que proponen Montero y León, para el campo específico de la psicología (12).

Aun así toda clasificación tiene apenas un valor referencial y pedagógico, nunca podrá tener un carácter prescriptivo ya que la base del pensamiento científico es la libertad y la creatividad del investigador para hallar el camino al conocimiento de su campo de estudio y desde su perspectiva particular. De ello resulta precisamente el anarquismo epistemológico de Paul K. Feyerabend en su ya famoso “todo vale”.

Naturalmente comprendemos que en nuestra cultura es difícil andarse con muchas libertades, y más aun en el campo académico, tan proclive a los estándares. Nuestra cultura busca afanosamente la sistematización y la estandarización de todo. Ella es la base de la masificación, proceso antropológico evolutivo predominante en nuestro tiempo. Y la ciencia (o lo que parece) no escapa de este afán. Por ello Feyerabend advierte:

La educación científica, como hoy día se entiende, apunta exactamente a este objetivo. Tal educación simplifica la ‘ciencia’ simplificando a sus participantes: en primer lugar se define un dominio de investigación. A continuación, el dominio se separa del resto… y recibe una ‘lógica’ propia. Después, un entrenamiento completo en esa lógica condicionará a quienes trabajan en dicho dominio. Con ello se consigue que sus acciones sean más uniformes y al mismo tiempo se congelan grandes partes del proceso histórico. (Feyerabend, 1974).

Indudablemente hay una diferencia abismal entre la ciencia verdadera y esa ciencia sistematizada, estandarizada, metodologizada y castrada de su complejidad, que se intenta producir en nuestros ambientes académicos con altas dosis de dogmatismo cientificista, y una amplia gama de conceptos simplificados y hasta equivocados. Por ejemplo, frecuentemente leemos que fue Percy W. Bridgman, el fundador del operacionalismo, quien construyó el camino del método experimental aplicado en psicología desde la época de Watson. Sin embargo, cuando se lee con atención el pensamiento de Bridgman, hay muchas cosas más que debemos comprender. Desde el principio se encarga de transmitirnos su estado de perplejidad debido a la insólita situación que la Teoría de la Relatividad plantea a los físicos, pues lo primero que Einstein demostró fue que la actitud mental que había dominado a los físicos durante tanto tiempo, frente al estudio de la realidad, había estado equivocada. En consecuencia, el pensamiento de Bridgman apunta en la dirección de no abrazar una idea ni acomodarse en una posición segura para enfrentar la tarea de estudiar y comprender la realidad. Y nos dice textualmente:

"No existe un método científico como tal (...); el rasgo distintivo más fértil de proceder del científico ha sido el utilizar su mente de la mejor forma posible y sin freno alguno". (Bridgman, 1927).

Todo esto nos induce a reflexionar en torno a lo que es el verdadero proceder en la ciencia, y lo que el cientificismo académico pretende que sea. La gran mayoría de conceptos que nos ofrecen han pasado por el tamiz de la simplificación grotesca y la tergiversación interesada con el afán de mostrarnos un mundo homogéneo, regular y perfectamente predecible. Han acomodado todo el escenario para que encaje en sus conceptos de ciencia y método, que son conceptos derivados de un pensamiento religioso de fondo, pues apuntan a la perfección y armonía del universo, y hacía una idea de ciencia como aquel afán irreverente del hombre por descubrir las leyes inmutables con que Dios echó a andar el mecanismo universal. Por eso mismo reaccionan con enfado visceral ante las teorías del caos, el azar y la complejidad que amenazan su sistema de creencias.

Es difícil determinar quién y cuándo patentó la idea de que el método estadístico inferencial era “el método científico”, pero esta idea ha estado ganando terreno y hoy en muchas universidades se cree firmemente en esto. Han sido convencidos de que todo es perfectamente predecible y sólo hace falta descubrir la ley universal que rige en cada segmento de la vida humana. Una ley que salta a la vista gracias a una fórmula estadística que determina una relación de causalidad entre dos variables mágicamente aisladas del resto del universo. Así de simple. Además es un método que ha estado llenándose de una sofisticación tal que hoy pocos llegan a entenderla  cabalmente, no obstante parece producir una veneración semejante a la que se profesa ante un arcano. Por lo mismo no deben sorprendernos los pocos resultados que obtienen, el ridículo que están haciendo en el terreno de las publicaciones científicas, y la lluvia de críticas que vienen cosechando. Si el método se sustentó inicialmente en ciertas evidencias de su éxito en campos muy diferentes al de las llamadas “ciencias humanas y sociales”, hoy vemos que las evidencias apuntan en otra dirección. No obstante, nada de esto es relevante ya que la conducta humana, incluso en los ambientes académicos, no se rige necesariamente por la racionalidad sino por los mitos y creencias que la reemplazan y por ciertos intereses corporativos menos visibles. Esto es particularmente cierto en la psicología, donde se ha venido saltando a la garrocha el problema epistemológico de fondo, y cuando esto ocurre, lo normal es acabar actuando sobre la base de puras creencias.

La creencia en los datos

Todavía queda una larga serie de mitos alrededor de lo que se llama “la metodología de la investigación científica” cuyo análisis y contra–argumentación excederían los alcances de un modesto artículo. No obstante, no podemos dejar de referirnos a uno de sus productos más distintivos: el datismo, o la firme creencia en que el único medio de obtener conocimientos sobre cualquier aspecto de la realidad son los datos. No importa si se trata de aspectos objetivos, subjetivos, naturales, humanos, microbiológicos,  sociales, atómicos o mentales. Es como si un motín de cocineros entusiasmados por uno de sus nuevos artefactos, hubiera dictaminado que todos los alimentos deben pasar por la licuadora antes de ser servidos. Así resulta que hoy los datos han reemplazado al fenómeno, a la sociedad, a la persona, al mensaje. Ya nadie se esfuerza por comprender estas cosas tal como son en la realidad sino tan sólo por estudiar algunos de sus datos, y con curiosas técnicas para recolectarlos o incluso fabricarlos, elaborarlos de diversas maneras caprichosas sólo para satisfacer las necesidades del método, pues este método no hace absolutamente nada sin datos. Y como corolario trágico de esta situación el pensamiento humano se ha vuelto “datista”. Ya no sólo datista-numérico-cuantitativo, sino que se ha acuñado un término nuevo que resulta una verdadera joya del pensamiento datista: “dato cualitativo”. Entiéndase por dato cualitativo cualquier cosa que venga a su mente.

Pero esta no es la mayor joya del pensamiento datista en la ciencia académica. La cumbre datista-metodologista está coronada, sin ninguna duda, por Glaser y Strauss y su “Teoría Fundamentada” (13) según la cual es posible generar teorías científicas a partir del análisis comparativo de los datos. En otras palabras, cualquiera puede llegar a ser un científico y generar sus propias teorías. No tiene que hacer nada más que analizar unos datos siguiendo el mágico método que, luego de hacer todo el trabajo pesado, al final iluminará una verdad. Gracias a esa mentalidad práctica americana, el sistema de la comida rápida había llegado al fin al escenario científico y las teorías científicas salían a la carta para cualquier contexto social.

“Our discussion of comparative analysis (of data) as a strategic method for generating theory assigns the method its fullest generality for use on social units of any size, large or small, ranging from men or their roles to nations or world regions.” (Glaser & Strauss, 1967).

No hace falta mucha epistemología para darnos cuenta de que las teorías sociales no pueden surgir nada más que de los meros datos. Ni siquiera las teorías económicas lo hacen. Menos aun en escenarios en los que la generación de datos constituye un proceso reduccionista que desintegra la realidad original, diferente a otros escenarios en los que los datos están presentes como parte de la realidad. Podemos convenir en que en la naturaleza encontramos datos -es un hecho- y que estos se recogen prácticamente como recolectar manzanas porque ellos existen, están allí, son parte de la realidad física. Se trata del peso, la longitud, la acidez, etc. Pero en el mundo subjetivo de los seres humanos las cosas son muy distintas. Si bien es cierto que en el principio la psicología experimental procedía igual que la física y se ocupaba de puros datos físicos, hoy el malentendido ha crecido, y cuando se pretende estudiar cuestiones subjetivas como la autoestima, los datos tienen que inventarse para cuantificar y objetivar forzadamente el fenómeno, pues el paradigma actual de la ciencia nos obliga a prescindir de todo lo que no sea objetivo. Lo curioso es que se pretende hacer psicología siguiendo este paradigma, por lo que el recurso de disfrazar los fenómenos subjetivos con algunas cifras objetivantes es uno de los más empleados. Para ello existe una disciplina entera dedicada exclusivamente a la invención de toda clase de “instrumentos de medición” que nos proporcionarán los “datos objetivos” requeridos por el método. De este modo la psicología cumple con pasar por las arcas caudinas del cientificismo metodologista y objetivista, solo para alcanzar su viejo sueño de ser reconocida como ciencia, a costa incluso de perder de vista su propio campo de estudio y su sentido original.

Siempre ha sido un capítulo aparte la discusión alrededor de la psicometría y sus maneras de asumir y de manipular los constructos psicológicos. Algo que no vamos a tratar ahora, pero el debate existe y es un asunto que generará dudas mientras se persista en ese empeño de transmutar los fenómenos subjetivos en objetivos, lo que a la larga constituye una creencia más, ya que nunca podremos estar seguros de qué es lo que realmente se está midiendo, si es que algo se mide al final de todo ese proceder insulso. Por ello, antes de emplear cualquiera de las tantísimas escalas de medición psicológica convendría averiguar si no hay por allí un estudio que prueba la inconsistencia de su supuesta universalidad y validez. Un buen ejemplo es el de la famosa escala de Holmes y Rahe empleada para el estudio del estrés, evaluada en Tenerife por González de Rivera y Revuelta (14) cuyo resumen nos anuncia:

“Las diferencias con los valores establecidos en el estudio original de Holmes y Rahe son considerables para algunos items, y demuestra el condicionamiento sociocultural de las escalas de sucesos vitales.”(14)

El cambio de giro profesional

El hecho de depender de métodos y de datos para analizar y comprender la realidad nos ha llevado a convertir la metodología y el tratamiento de los datos en toda una ciencia particular en sí misma. No sólo hemos dejado a un lado la realidad para ocuparnos tan sólo de sus datos (o de lo que creemos que son sus datos) sino que debemos ocupamos además de todos los pasos del proceso complejo y tedioso de producir, tratar, analizar y comparar datos. Se ha desarrollado una amplísima gama de inventarios, escalas y pruebas de todo tipo, muchas de ellas francamente insulsas o impracticables en la clínica, y que generan permanente polémica. Además se suman paquetes de software que pretenden facilitar la tarea de tratar los datos. Surgen teorías en torno al tratamiento de los datos. Toda esta gama de instrumentos y métodos requieren una formación especial y adicional para poder manejarlos con propiedad. Hoy los profesionales necesitan de un entrenamiento especializado para estudiar sus datos e investigar de la forma en que el sistema espera que lo hagan, y son encaminados hacía la dependencia de tales instrumentos y métodos. El sistema condiciona a cada elemento dentro de dicho ambiente, los que están sometidos a seguir la fe o ser marginados. Sin duda hay áreas de las ciencias naturales donde la investigación metodológica con datos funciona, pero el intento de universalizar tal metodología a todos los aspectos de la realidad, especialmente al campo de las sociedades y del hombre, cualquiera sea su interés, dista mucho de ser un proceder científico, y ni siquiera inteligente, para decir más.

Podemos considerar este ambiente como un paradigma que, siguiendo el concepto Kuhniano, define lo que es la ciencia y el proceder científico en una comunidad académica. Los demás deben acomodarse o serán excluidos, estigmatizados y hasta tratados con la misma severidad que la antigua Inquisición (15). De este modo somos conducidos hacía una lógica de pensamiento que acaba aislándose de la racionalidad para acomodarse a unos cánones culturales que definen su propia estructura racional sobre la base de mitos y creencias. Sin darnos cuenta hemos acabado poco a poco sumergidos en una extraña dimensión que no es otra cosa que el absurdo. Tal vez ya no podamos comprenderlo claramente porque el absurdo no nos ofrece datos y no habrá forma de estudiarlo científicamente, a menos, claro, que alguien nos ofrezca una escala de medición de lo absurdo, que lo objetive y lo cuantifique para pasarlo por el método. Digo. Es un decir.

Para concluir, debemos indicar que apenas nos hemos ocupado de algunos de los aspectos culturales que dominan en los ambientes académicos y que adquieren las formas de mitos y creencias que reemplazan la racionalidad. Aun queda mucho por decir en torno a la sistematización y estandarización, tendencias que han conducido al empobrecimiento del pensamiento y a la pérdida de la creatividad y originalidad. La ciencia en manos de la burocracia académica se ha convertido en un producto envasado producido en serie, cuyos hallazgos repletan las revistas en un lenguaje impersonal, casi robotizado, donde cualquier expresión de emoción personal debe ser eliminada para hablar en abstracto y en tercera persona. Y con estudios que más allá de sus resultados, se muestran orgullosos de su método.

Conclusiones

La actividad científica, como cualquier otra actividad humana, puede verse afectada por creencias y mitos que se generan al interior de las comunidades académicas, las que operan al igual que un organismo en defensa de su integridad territorial frente a cualquier forma de amenaza. La configuración actual de la ciencia como la única proveedora de la verdad, ha llevado a consagrar el método estadístico inferencial como el privilegiado, sin duda debido a su innegable éxito en determinados campos de su aplicación, aun cuando en otros no ha ofrecido la misma eficacia, y pese a que muy pocos la entienden y manejan apropiadamente. Esta situación ha generado un ambiente de duras críticas no sólo a la metodología estadística empleada sino, y sobre todo, al metodologismo militante.

El deseo de imponer un criterio único de verdad objetiva ha llevado a implantar una serie de dogmas de investigación, como el empleo sistemático de datos de todo tipo, incluyendo “datos cualitativos”, y datos obtenidos mediante procedimientos dudosos que intentan objetivar y cuantificar incluso aspectos subjetivos y cualitativos del ser, con el sólo propósito de emplear el método estadístico frecuentista-inferencial, que, para grandes sectores académicos, acaba siendo el único método de estudio de la realidad, cualquiera que esta sea.

Luego de un análisis de la historia de la ciencia y un recorrido por el pensamiento de algunos filósofos de la ciencia, queda claro que no existe ningún método que pueda preciarse de ser “el método científico” y que la realidad no puede estar sometida a un único método de estudio. El científico, en su esfuerzo por comprender el aspecto de la realidad que le interesa, está obligado a alejar su mente de los cánones y presupuestos culturales, procurando mantener la libertad de su pensamiento y emplear su ingenio y creatividad para elaborar el procedimiento más apropiado para su investigación. Todo hombre de ciencia se convierte en investigador en el instante en que descubre el mejor método para estudiar el problema que le interesa desde su enfoque particular. Esta conducta natural del científico ha generado una gran cantidad de “métodos” que hoy son un reto para cualquier sistema de clasificación. Pero tales métodos no pueden ser prescriptivos, sólo pueden servir como modelos a imitar si la naturaleza del fenómeno en estudio es la misma.

Referencias

Bibliografía

  • Bunge, M. (1997) “La ciencia, su método y su filosofía”; Bs. As.; Sudamericana.
  • Bridgman, P. W. (1927). “La lógica de la física moderna”; Ateneo; 1976
  • Cameron Crombie, A. & Lluís Barona, J. (1993) “Estilos de pensamiento científico a comienzos de la Europa Moderna” Universitat de València.
  • Cea, M. (1996). Metodología Cuantitativa. Estrategias y Técnicas de Investigación Social. Madrid: Editorial Síntesis.
  • Cohen, J. (1994). The earth is round (p < .05). American Psychologist, 49, 997-1003.
  • Conant, James B. (1963) “La comprensión de la ciencia” Bs. As. Plaza y Janes.
  • Coreth, E. (1972). Cuestiones Fundamentales de Hermenéutica. España. Herder.
  • Chow, S. L. (1988). Significance test or effect size? Psychological Bulletin, 103, 105-110.
  • Dartigués, A. (1975). La Fenomenología. Barcelona: Herder
  • Dilthey, W. (1998). Introducción a las ciencias del espíritu. Madrid: Espasa Escalpe.
  • Feyerabend, P. K. (2007) “Tratado contra el método” Tecnos.
  • Gadamer, H. (1999). Verdad y Método. Vol 1 y II. Madrid: Ed. Sígueme.
  • Kuhn, T. S. (1971) “La estructura de las revoluciones científicas” FCE. México.
  • Koch, Sigmund. (1969) “Psychology in human context” University of Chicago, 1999.
  • Lorenz, Konrad (1985) “Sobre las conductas animal y humana”, Artemisa, México.
  • Toulmin, Stephen and Leary, David E., “The Cult of Empiricism in Psychology, and Beyond”, en Sigmund Koch & David Leary, A Century of
  • Psychology As Science, Washington, American Psychological Association, 1992, pp. 594-617.
  • Lyken, D. L. (1991). What’s wrong with psychology? In D. Cicchetti & W.M. Grove (eds.), Thinking Clearly about Psychology, vol. 1: Matters of
  • Public Interest, Essays in honor of Paul E. Meehl (pp. 3 – 39). Minneapolis, MN: University of Minnesota Press.
  • May, R. (1967) “El dilema del hombre” Gedisa, 2003.
  • Martyniuk, C. (1994). Positivismo, Hermenéutica y Los Sistemas Sociales. Argentina: Ed. Biblos.
  • Meehl, P. E. (1967). Theory-testing in psychology and physics: A methodological paradox. Philosophy of Science, 34, 103-115.
  • Merelau-Ponty, M. (1969) La Fenomenología y las Ciencias del Hombre. Buenos Aires, Nova.
  • Montero, M. (1995). El Sentido y la Medida. Reflexiones sobre El Método. Revista Comportamiento. USB, Vol. 4, No. 1: 65-82
  • Polit, D.F. y Hungler, R. P. (1997) “Investigación científica en ciencias de la salud”. México: McGraw Hill, Interamericana, Págs. 526-543.
  • Popper, K. (1974) “Conocimiento objetivo”. Tecnos.
  • Ricoeur, P. (1998). La teoría de la interpretación. Discurso y excedente de sentido. Madrid: Ed. Siglo XXI.
  • Silva Ayçaguer, L.C. / Muñoz Villegas, A. “Debate sobre métodos frecuentistas vs bayesianos” XVII Reunión Científica SEE. Santiago de
  • Compostela 27-29 de octubre de 1999 Gac. Sanit. 2000;14(6):482-494.
  • Rozeboom, W. W. (1960). The fallacy of the null hypothesis significance test. Psychological Bulletin, 57, 416-428.
  • Scarr, S. (1997). Rules of evidence: A larger context for the statistical debate. Psychological Science, 8, 16-17.
  • Tukey, J. W. (1969). Analyzing data: Sanctification or detective work? American Psychologist, 24, 83-91.