viernes, 17 de mayo de 2013
Paradigmas Emergentes y Ciencias de la Complejidad
EPISTEMOLOGÍA TRADICIONAL Y EPISTEMOLOGÍA DEL SIGLO XX
Para la gran parte del mundo antiguo –señala Ortega y Gasset (1981: 76)– las cosas estaban ahí fuera por sí mismas, en forma ingenua, apoyándose las unas a las otras, haciéndose posibles las unas a las otras, y todas juntas formaban el universo. Yel sujeto no era sino una pequeña parte de ese universo, y su conciencia un espejo donde los trozos de ese universo se reflejaban. La función del pensar no consistía más que en un encontrar las cosas que estaban ahí, un tropezar con ellas. Así, el conocimiento no era sino un re-presentar esas cosas en la mente, con una buena adecuación a las mismas, para ser objetivos. No cabía situación más humilde para el yo, ya que lo reducía a una cámara fotográfica. Y ésta es la analogía (cámara oscura) que utilizará después John Locke y el empirismo inglés (de los siglos XVII-XVIII) para concebir el intelecto humano; analogía que, a su vez, será la base del positivismo más radical del siglo XIX y primera parte del XX. A lo largo del siglo XX, hemos vivido una transformación radical de este concepto de conocimiento y de su respectivo concepto de ciencia.Estamos llegando a la adopción de un nuevo concepto de la racionalidad científica, de un nuevo paradigma epistemológico. El modelo científico positivista –que imperó por más de tres siglos– comenzó a ser cuestionado severamente a fines del siglo XIX por los psicólogos de la Gestalt, a principios del sigloXXpor los físicos, luego en la segunda década– por los lingüistas, y finalmente –en los años 30, 40, 50 y, sobre todo, en los 60– por los biólogos y los filósofos de la ciencia. Todos, unos tras otros, fueron manifestando su insatisfacción con ese tipo de racionalidad lineal y unidireccional.En su estructura básica, el método científico tradicional fue concebido por Heinrich Hertz en su obra Principios de la Mecánica (Die Prinzipien der Mechanick, 1956/1894), pero su aplicación fue extrapolada de la Mecánica a toda la Física (a la hidráulica, al calor, al sonido, a la óptica y a la electricidad), luego, de la Física a la Química, a la Biología y a la Psicología, creando un pernicioso mecanicismo general, que el mismo Hertz previó y rechazó en la introducción de la obra (ibídem: 38). Estas aplicaciones espurias fueron, después, reforzadas bajo el punto de vista filosófico, por el Primer Wittgenstein (1973/1921) con su obra Tratado Lógico-Filosófico y la aceptación que le dio el Círculo de Viena. El mayor valor que le vieron los positivistas residía en la idea central del Tratado: “el lenguaje representa (casi físicamente) la realidad”, es una “pintura” (Bild) de la realidad. Así, al tratar el lenguaje, pensaban que trataban directamente con la realidad. Estos autores no tuvieron en cuenta el célebre axioma de Alfred Korsinsky (1937: pássim): “no debemos confundir nunca un mapa con el territorio que representa”.Desde 1930 en adelante, debido a la influencia de los psicólogos de las Gestalt,Wittgenstein comienza a cuestionar, en sus clases en la Universidad de Cambridge, sus propias ideas anteriores positivistas, y a sostener, poco a poco, una posición que llega a ser radicalmente opuesta a la de su Tratado: niega que haya tal relación directa entre una palabra o proposición y un objeto; afirma que las palabras no tienen referentes directos; sostiene que los significados de las palabras o de las proposiciones se encuentran determinados por los diferentes contextos en que ellas son usadas; que los significados no tienen linderos rígidos, y que éstos están formados por el contorno y las circunstancias en que se emplean las palabras; que, consiguientemente, un nombre no puede representar o estar en lugar de una cosa y otro en lugar de otra, ya que el referente particular de un nombre se halla determinado por el modo en que el término es usado. En resumen, este Segundo Wittgenstein dice que “en el lenguaje jugamos juegos con palabras” y que usamos a éstas de acuerdo con las reglas convencionales preestablecidas en cada lenguaje. Por ello, comienza a referirse a sus antiguas ideas como “mi viejo modo de pensar”, “la ilusión de que fui víctima”, etc. (Martínez, M., 2007a: 103-109).Es digna de ser subrayada la importancia de la revolución que hacen los físicos en las primeras décadas del siglo XX, ya que implica que las exigencias e ideales positivistas no son sostenibles ni siquiera en la física: Einstein relativiza los conceptos de espacio y de tiempo (no son ab solutos, sino que dependen del observador) e invierte gran parte de la física dde Newton; Heisenberg introduce el principio de indeterminación o de incertidumbre (el observador afecta y cambia la realidad que estudia) y acaba con el principio de causalidad; Pauli formula el principio de exclusión (hay leyes-sistema que no son derivables de las leyes de sus componentes) que nos ayuda a comprender la aparición de fenómenos cualitativamente nuevos, sobre todo en los seres vivos, y nos da conceptos explicativos distintos, característicos de niveles superiores de organización; Niels Bohr establece el principio de complementariedad: puede haber dos explicaciones opuestas para los mismos fenómenos físicos y, por extensión, quizá, para todo fenómeno; Max Planck, Schrödinger y otros físicos, descubren, con la mecánica cuántica, un conjunto de relaciones que gobiernan el mundo subatómico, similar al que Newton descubrió para los grandes cuerpos, y afirman que la nueva física debe estudiar la naturaleza de un numeroso grupo de entes que son inobservables, ya que la realidad física ha tomado cualidades que están bastante alejadas de la experiencia sensorial directa.Debido a los arduos debates epistemológicos durante las cinco primeras décadas del siglo XX, en la década de los años 60 se desarrollan 5 Simposios Internacionales sobre Filosofía de la Ciencia (en los años impares: 61,63,65,67 y 69), para estudiar a fondo este extremadamente difícil problema, que constituía un auténtico cambio de paradigma epistémico. Y fueron 5 simposios porque en los primeros 4 no pudieron resolver el problema.La obra de F. Suppe (1979), especie de Actas del Simposio Internacional sobre la Estructura de las Teorías Científicas (Universidad de Chicago, 1969), reseña el excelente trabajo realizado, sobre todo, en el último de estos simposios (el de 1969). En el Postscriptum (ibídem, pp. 656-671) –que sintetiza las ideas centrales del mismo- el epistemólogo Stephen Toulmin enfatiza el desmoronamiento de las tesis básicas del positivismo lógico en los siguientes puntos:1. No hay “observaciones sensoriales directas” de los conceptos o de los principios teóricos.2. Las “definiciones operacionales” son inconsistentes: sólo vinculan unas palabras con otras y no con la realidad.
Miguel Martínez Miguélez Año 2011 27, No. 65 2011: 45 - 80 ISSN 1012-1587 Paradigmas emergentes y ciencias de la complejidad.
http://www.redalyc.org/articulo.oa?id=209014645023
Etiquetas:DOCUMENTALES
Suscribirse a:
Comentarios de la entrada
(Atom)

0 comentarios:
Publicar un comentario