» 08-11-2019

La verdad hoy 2. El paradigma metafísico.

El paradigma metafísico se basa en tres puntos: la existencia de un sujeto soberano separado del mundo y capaz de comprenderlo; la verdad como esencia de las cosas, opuesta a la apariencia y oculta a la observación superficial; el ser como supraesencia de todas las cosas, estático y alcanzable por análisis. Como consecuencia el paradigama metafísico divide la realidad en pares de oposiciones: material/espiritual, ser/no ser, verdad/falsedad, etc. sepradas por el principio de no contradicción que impide que ambos extremos de la oposición puedan confundirse (son independientes) o ser parte de lo mismo. Los cuatro grandes sistemas del paradigma son la cantidad/matemáticas, la la verdad/lógica, el concepto/lenguaje y la igualdad/ético-política. Mediante la abstracción (la poda del árbol de las ramas superluas) se obtiene la universalización de la que se extrae la ley de comportamiento.

 

 

Este gran sistema de pensamiento surge con el nacimiento del logos (la razón) hace veinticinco siglos. Es el sistema abstracción-universalización-ley. Para que un sistema de pensamiento funcione debe ser universal (aplicable en cualquier situación y no en situaciones específicas). Para universalizar el camino es podar la realidad dejando solo lo estrictamente necesario lo que hace que muchas cosas distintas sean iguales. Esos paradigmas serán la cantidad (quitar lo cualitativo dejando solo el número), la verdad (reducir la realidad al par certeza/falsedad), el concepto (unificar las cosas en la definición lingüística) y la igualdad (reducir las diferencias personales en colectivos anónimos). Todas originarán grandes ramas del saber: las matemáticas, la lógica, la retórica y la política-ética. Desgraciadamente para esto, afortunadamente para otras cosas, el logos, la razón distaba mucho de ser un concepto unitario. Dentro de la cabeza (o de la mente) del ser humano bullían el instinto, el  modo de prueba y error, la clasificación, la topología, la tópica, la mitología (la revelación), la intuición, la deducción, la inducción, la abducción (el relato), la lógica, la aritmética, la geometría, la no contradicción, la experimentación, el modo hipotético-experimental, la falsación, etc. Modos diferentes de usar la razón que dieron lugar a distintas escuelas de pensamiento.

 

Primero la filosofía -que se centró en la lógica- y después la ciencia - que aunó cantidad, lógica, concepto, igualdad y experimento- fueron las que establecieron  los estándares de mayor fiabilidad. Además la ciencia produjo la tecnología (ciencia aplicada) cuyo éxito no hace falta comentar. Entre el SXVII y el XX cosechó tantos éxitos que la filosofía -arrinconada- inició un cambio de estrategia profundizando en donde la ciencia no podía profundizar: la fenomenología de Husserl, la hermenéutica de Gadamer, la neoontología de Heidegger y los llamados giro hermenéutico, conceptual, lingüístico etc. Finalmente los estudios literarios dieron origen a los estudios de género y los estudios coloniales que explotaron en la posmodernidad, que puso en tela de juicio la lógica y el pensamiento conceptual, lo que ponía en jaque a la ciencia (basada en esos dos campos) aunque no parecieron darse cuenta, así de endiosados estaban.

 

El sistema abstracción-universalización-ley, distaba mucho de ser perfecto. El teorema de incompletitud de Gödel (ningún sistema puede demostrar su verdad desde su interior), la inducción como opuesta a la lógica, el concepto como discreto frente a un mundo continuo y la dominación como azote de la igualdad, demostraban que el sistema hacía aguas. Sin embargo, aplicado en conjunto (como hizo la ciencia) producían resultados aceptables (la civilización y la cultura occidental). Pero en un mundo de creciente exigencia rigorista, no era suficiente. La posmodernidad nos ha traído (de la mano de un capitalismo salvaje) un nuevo modo de pensamiento que, curiosamente, vuelve a los orígenes (las bases de datos). Es el sistema cibernético, que aplica una forma de pensamiento dinámica (la retroalimentación o feed-back) a grandes bases de datos (big data) operados por enormes ordenadores capaces de computarlos. Mediante ingeniosos procedimientos como las redes sociales, el sistema recoge datos personales de los ciudadanos que le permiten establecer perfiles de consumo, vida o preferencias políticas que convierten la democracia y la libertad en pura filfa. Lo que podía haber sido una revolución cognitiva (la introducción de la dinámica en la cognición sobre bases de datos inmensas) se ha convertido, como denuncia Tiqqun (“Fuck off Googlle en “A nuestros amigos” Pepitas de calabaza 2006), en una forma sofisticada de dominación de la que tenemos cumplido ejemplo en la elección de Trump y el Brexit en la que la cibernética Cambridge analityca manipuló a más y mejor los datos de millones de ciudadanos(“The big Hacker”. Netflix).

 

Curiosamente el concepto de ley (concepto jurídico tomado prestado por la ciencia) se convertirá en concepto estrella y la ciencia no dudará en perpetuarlo incluso cuando la cuántica mostró que era un concepto obsoleto. Las partículas no se comportan siempre de la misma manera por lo que la ley de su comportamiento es… aleatoria. Las fluctuaciones cuánticas (la diferencia entre el comportamiento promedio y el comportamiento de una partícula en particular) no permiten prever lo que va a ocurrir (la ley de comportamiento). El concepto de ley es uno de los que la cuántica deja obsoletos… aunque no lo parezca por los resultados. Evidentemente la abstracción y la consiguiente universalización no tienen sentido si podemos disponer de grandes bases de datos, grandes ordenadores y un sistema de pensamiento (¿el cibernético?) fiable. Es ahí donde parece que la ciencia se muestra dubitativa. Los sistemas de pensamiento teóricos siguen siendo los de siempre (con la misma intromisión de la tradición, los pre-juicios y el sentido común) refugiándose la ciencia en los experimentos (cada vez más costosos) como denunciaba hace poco una científica en “La contra” de La Vaguardia (Sabine Hossenfelder. 28/08/19), y alababa otro (Michio Kulu. 03/09/19) en el mismo medio.

 

Pero de este sistema la parte que nos interesa es la que atañe a la verdad. La lógica se atiene perfectamente al guión de los pares de oposiciones cuando opone la verdad a la falsedad y separa ambos términos por el principio de no contradicción: una cosa no puede ser verdadera y falsa a la vez. Pero la probabilidad y su correlato experimental la estadística no estaban totalmente de acuerdo. Para la probabilidad la verdad puede ser fraccionaria es decir: parte verdad y parte falsedad. La probabilidad de verdad que tiene cada una de las caras de un dado es 0,16 sobre 1 considerando 1 la certeza absoluta), o el 16,66%. Esta curiosa apreciación viene de la ergódica que es la equivalencia entre el espacio y el tiempo: tirar cien veces sucesivas un dado (tiempo) o tirar cien dados a la vez (espacio). El hecho de la equivalencia es precisamente la ergódica. Es como si antes de tirar los dados cada cara tiene una verdad parcial 0,16 (16,66%) y cuando el dado se para, la probabilidad (la verdad) colapsa en un valor determinado con valor 1 (100%). Pero en el caso de que utilicemos un cubilete todavía existe una situación intermedia. Cuando los dados se paran pero todavía están tapados la probabilidad ya ha colapsado (se ha manifestado) pero todavía el observador no lo sabe. No será hasta el momento de la observación (medición) que el conocimiento se produzca. La verdad ha pasado de ser fraccionaria a ser entera (colpaso de la función de probabilidad) pero ignorada y solamente mediante la medición pasa a ser entera y conocida. Es como si existieran dos tipos distintos de ignorancia: la del estado (estructural, cognitiva)) y la de la medición/observación (eventual/perceptiva). Esta cuestión será vital en la medición cuántica en donde el hecho de medir puede perturbar el estado estructural del observado y no cumplir su cometido.

 

Sin llegar al problema cuántico, es evidente que en el análisis del sistema clásico podemos hablar de función de probabilidad, colapso y medición. Con ello no quiero decir que los casos sean equivalentes sino que no son tan lejanos. Con todo ello tenemos que la verdad probabilística o estadística son exactas si aceptamos una verdad fraccionaria que no deja de ser lo mismo que hace la teoría de fractales (Mandelbrot) cuando acepta que las dimensiones espaciales puedan ser fraccionarias. Por cierto que Guy Cramer y Donalf Hings han presentado un tejido que permite la invisibilidad mediante un sistema fractal de desviación de los rayos de luz (La Vanguardia 23/10/2019). La fractalidad ya no es solo una teoría sino una realidad tecnológica. La verdad ha dejado de ser aquella oposición a la falsedad que nos muestra la lógica. La equivalencia ergódica nos adentra en la verdad fraccionada susceptible de ser tratada matemáticamente y no solo estadísticamente. La verdad excluyente ha muerto. ¡No solo no es excluyente sino que es fraccionaria! Habrá que ver cómo los manipuladires se aprovechan de esa nueva realidad. ¡Con desespero como les caracteriza!

 

El desgarrado. Noviembre 2019.




Published comments

    Add your comment


    I accept the terms and conditions of this web site